La pensée en physique: Diversité et unité 9782759825516

En physique, la pensée semble souvent moins présente que la technique mathématique ou la technique expérimentale. Pourta

238 83 9MB

French Pages 408 [403] Year 2021

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

La pensée en physique: Diversité et unité
 9782759825516

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

À Anne-Marie, mon épouse À Sidonie et Joseph, nos deux petits-enfants

La pensée en physique

La pensée en physique Diversité et unité JOSÉ-PHILIPPE PÉREZ

SPOT Sciences Collection destinée à un large public qui invite le lecteur à découvrir à travers des essais toute une palette des sciences  : histoire, origines, découvertes, théories, jeux… Dans la collection « L’histoire du cerveau », Voyage à travers le temps et les espèces, Y. GAHÉRY, ISBN : 978-2-7598-2479-3 (2021) « Les clés secrètes de l’Univers », Émergence de l’Univers, de la vie et de l’Homme, M. GALIANA-MINGOT, ISBN : 978-2-7598-2534-9 (2021)

Imprimé en France ISBN (papier) : 978-2-7598-2481-6 ISBN (ebook) : 978-2-7598-2551-6

Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses er ayants droit ou ayants cause est illicite » (alinéa 1 de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal. © EDP Sciences, 2021

SOMMAIRE

Avant-propos���������������������������������������������������������������������������������������� 9 1.  Introduction��������������������������������������������������������������������������������13 Description de l’ouvrage�����������������������������������������������������������������15 Nécessité d’une description quantitative�������������������������������������������16 Multiples et sous-multiples�������������������������������������������������������������20 Alphabet grec�������������������������������������������������������������������������������20 2.  Galilée contre Aristote : chute libre et relativité galiléenne�����������21 Mouvement�����������������������������������������������������������������������������������22 Relativité galiléenne����������������������������������������������������������������������29 3.  Descartes et Newton : les lois du mouvement��������������������������������35 Le football�����������������������������������������������������������������������������������37 Chute libre dans la machine d’Atwood�����������������������������������������������47 Lois de Newton et relativité galiléenne���������������������������������������������48 4.  Coriolis et Foucault : forces d’inertie et forces de marées���������������51 Forces d’inertie�����������������������������������������������������������������������������52 Forces d’inertie terrestres���������������������������������������������������������������54 Poids d’un corps����������������������������������������������������������������������������56 Pendule de Foucault�����������������������������������������������������������������������60 Marées�����������������������������������������������������������������������������������������65 5.  Young et Mayer : le concept d’énergie�������������������������������������������71 Énergie mécanique�������������������������������������������������������������������������73 Le premier principe de la thermodynamique��������������������������������������78 Transformations énergétiques����������������������������������������������������������81 Énergie des systèmes vivants�����������������������������������������������������������83 6.  Kepler et Newton : planètes et satellites���������������������������������������91 Lois historiques de Kepler���������������������������������������������������������������92 Problème de Kepler������������������������������������������������������������������������94 Satellites de la Terre�������������������������������������������������������������������� 101 Points de Lagrange���������������������������������������������������������������������� 106 7.  Kelvin et Onnes : température très basses températures��������������� 109 Température�������������������������������������������������������������������������������� 110 Diffusion de la température���������������������������������������������������������� 113 Basses et très basses températures������������������������������������������������ 115 5

SOMMAIRE

8.  Clausius et Boltzmann: le concept d’entropie������������������������������� 123 Deuxième principe et entropie������������������������������������������������������� 124 Énoncés historiques du deuxième principe��������������������������������������� 128 Machines dithermes��������������������������������������������������������������������� 130 Interprétation statistique de l’entropie������������������������������������������� 135 9.  Euler et Zeuner : systèmes ouverts en mécanique et en thermodynamique������������������������������������������������������������� 143 Mécanique des systèmes ouverts���������������������������������������������������� 145 Thermodynamique des systèmes ouverts������������������������������������������ 151 10.  Huygens et Fermat : rayons lumineux et mirages������������������������� 157 Principe de Huygens et Fresnel������������������������������������������������������ 159 Diffraction���������������������������������������������������������������������������������� 164 Réfraction de la lumière��������������������������������������������������������������� 167 Formulation newtonienne des lois de l’optique��������������������������������� 170 Principe historique de Fermat�������������������������������������������������������� 173 11.  Rayleigh et Fourier : images et filtrage spatial���������������������������� 177 Sténopé������������������������������������������������������������������������������������� 178 Image dans l’approximation des rayons lumineux����������������������������� 179 Optique de Fourier. Filtrage spatial������������������������������������������������� 189 12.  Young et Gabor : interférence et holographie������������������������������� 199 Interférence de deux ondes monochromatiques�������������������������������� 200 Holographie�������������������������������������������������������������������������������� 212 13.  Poincaré et Einstein : extension de la relativité galiléenne����������� 217 Équations de Maxwell������������������������������������������������������������������� 218 Principe de relativité de Poincaré-Einstein�������������������������������������� 224 Dilatation des durées������������������������������������������������������������������� 228 Contraction des longueurs������������������������������������������������������������ 233 Dynamique et énergétique einsteiniennes��������������������������������������� 235 Système de particules������������������������������������������������������������������ 240 Collisions de particules rapides������������������������������������������������������ 242 14.  Einstein et Hubble : la relativité générale����������������������������������� 247 Singularité de la force de gravitation��������������������������������������������� 247 Principe de relativité générale������������������������������������������������������� 251 Problème de Kepler en relativité générale��������������������������������������� 254 Décalage spectral d’origine gravitationnelle������������������������������������� 256 Déviation de la lumière par une masse�������������������������������������������� 260 Astres obscurs et trous noirs��������������������������������������������������������� 261 Cosmologie��������������������������������������������������������������������������������� 263 15.  Planck et Einstein : la quantification de l’énergie������������������������ 271 Rayonnement du corps noir����������������������������������������������������������� 273 Effet photoélectrique������������������������������������������������������������������� 277 Effet Compton����������������������������������������������������������������������������� 284 Rayonnement d’un trou noir���������������������������������������������������������� 287 6

LA PENSÉE EN PHYSIQUE

SOMMAIRE

16.  Rutherford et Bohr : le modèle atomique������������������������������������� 289 Diffusion de Rutherford���������������������������������������������������������������� 290 Quantification de l’énergie des atomes�������������������������������������������� 293 Atomes hydrogénoïdes������������������������������������������������������������������ 298 Excitation des atomes������������������������������������������������������������������ 301 Limites du modèle de Bohr����������������������������������������������������������� 303 17.  De Broglie et Ruska : le comportement ondulatoire des objets������ 305 Hypothèse fondamentale de de Broglie������������������������������������������� 306 Confirmations expérimentales�������������������������������������������������������� 309 Microscope électronique��������������������������������������������������������������� 311 Interprétation probabiliste������������������������������������������������������������ 316 Microscope à effet tunnel������������������������������������������������������������� 319 18.  Heisenberg et Schrödinger : inégalités, superposition, intrication��������������������������������������������������������������������������������� 321 Contribution d’Heisenberg������������������������������������������������������������� 322 Contribution de Schrödinger���������������������������������������������������������� 329 Bases épistémologiques de la physique quantique���������������������������� 342 Théorie alternative de de Broglie-Bohm������������������������������������������ 344 19.  Einstein et Townes : émission stimulée, lasers����������������������������� 345 Émission de lumière par les atomes������������������������������������������������ 346 Réalisation d’une émission stimulée����������������������������������������������� 348 Différents types de lasers������������������������������������������������������������� 352 Propriétés des faisceaux lasers������������������������������������������������������ 355 Speckle�������������������������������������������������������������������������������������� 356 Lasers de grande puissance����������������������������������������������������������� 357 20.  Dirac et Purcell : spin, RMN et spintronique�������������������������������� 359 Précession���������������������������������������������������������������������������������� 360 Spin������������������������������������������������������������������������������������������ 367 Résonance magnétique nucléaire��������������������������������������������������� 370 Spintronique������������������������������������������������������������������������������� 374 Annexe 1 : Quelques résultats mathématiques utiles�������������������������� 377 Les nombres������������������������������������������������������������������������������� 378 Les vecteurs������������������������������������������������������������������������������� 379 Les fonctions sinusoïdales������������������������������������������������������������ 381 Annexe 2 : Itinéraire������������������������������������������������������������������������ 385

7

AVANT-PROPOS

Aucun homme ne pense jamais que sur les pensées d’un autre. Alain, Propos de littérature, 46, Gonthier 1964.

Un ami philosophe, conscient de sa faible culture scientifique et désireux de combler cette lacune, me confia que, selon lui, pour être plus persuasifs, les professeurs de physique devraient commencer leurs leçons par « Il était une fois ». Cette réflexion saugrenue, qui m’a fait penser d’abord au western-opéra de Sergio Leone, m’a probablement influencé. On doit pouvoir le constater dans les éditions successives de la collection de physique «  Fondements et applications  », écrite pour accompagner mon enseignement, entre la première année universitaire et l’agrégation. Au début, je devais surtout insister sur la technique et l’efficacité pédagogiques, sans aucune préoccupation narrative. Ensuite, progressivement, je trouvais de plus en plus utile d’insister sur les aspects historiques, et sur ceux en rapport avec la philosophie des sciences, précisément l’épistémologie, c’est-à-dire le discours sur l’épistémê ou connaissance vraie. Je notais, en outre, que ces disgressions présentaient un double avantage : d’abord, elles intéressaient une grande partie de l’auditoire, notamment ceux qui 9

AVANT-PROPOS

cherchaient à se cultiver, en dehors de la préparation austère aux examens et concours ; ensuite, elles permettaient aux étudiants de se reposer de la logique calculatoire, souvent fastidieuse. Ce livre tente de suivre le conseil de cet ami, en reprenant le même discours scientifique universitaire, mais sans l’insistance calculatoire et les exemples sans intérêt. J’aurais voulu aller encore plus loin en évitant toute formulation mathématique, mais c’était au-dessus de mes capacités pédagogiques. Pour être suffisamment convaincant, tout en évitant de longues et laborieuses périphrases, j’ai dû compléter l’énoncé verbal des lois de la science par quelques prolongements plus techniques, justifiant l’ajout d’une annexe mathématique. Un conseil au lecteur réfractaire à toute écriture symbolique : lire le texte en ignorant d’abord les formules, la musique qui accompagne la simple lecture de ces formules pouvant suffire dans une première approche, en attendant une révélation ultérieure. En ces temps troublés de coronavirus, il n’est probablement pas inutile de rappeler que la science se distingue de la croyance, essentiellement par la méthode qui la distingue et la fonde : une intuition d’abord, une proposition ensuite, avec ses conséquences logiques, enfin une expérimentation soignée, dans laquelle on s’astreint à maîtriser le paramètre testé. Contrairement à la croyance qui fournit une affirmation, déclarée vérité parfaite et définitive, la science se construit progressivement en se rapprochant asymptotiquement « de ce qui est1 ». Le bien reste une autre affaire, évidemment encore plus importante. Contrairement à la croyance, souvent recherchée car apaisante et réconfortante, la science est surtout exigeante. Dans ce domaine, on songe à la question que posa Napoléon au grand scientifique Laplace en commentant l’œuvre à son auteur : « Et Dieu dans tout cela, Monsieur de Laplace ? ». La réponse du physicien, sobre et magistrale, laissa l’Empereur sans voix : « Je n’ai pas eu besoin de cette hypothèse, Sire ». On sait peut-être moins que Laplace eut à préciser son point de vue, en apprenant par Napoléon lui-même 1.  Raison et Plaisir, Jean-Pierre Changeux, Odile Jacob, 1994, p. 146. 10

LA PENSÉE EN PHYSIQUE

AVANT-PROPOS

l’avis du grand mathématicien Lagrange, très pieux, qui trouvait merveilleuse l’idée de Dieu, grâce à sa grande capacité explicative. Ici aussi, la réponse de Laplace fut à la hauteur de sa réputation : «  Merveilleuse idée que celle de Dieu, en effet, qui explique tout, cependant sans jamais rien prévoir ». Précisons, dans ce contexte, que l’explication scientifique consiste essentiellement à relier le phénomène observé aux lois générales déjà établies, et de multiples fois vérifiées expérimentalement. Certes, les résultats de la science ne sont ni complets ni définitifs, mais ils sont sûrs, précisement en raison de la méthode scientifique. Ainsi, Newton énonce, vers la fin du xviie siècle, une loi reliant le mouvement d’un corps à ses causes, loi qui lui a permis de prévoir ce mouvement avec une bonne précision, cela durant plus de trois siècles ; il montre, en outre, dans une synthèse magistrale, que la chute des corps dans le voisinage terrestre est de même nature que celle de la Lune sur la Terre, dans son mouvement orbital quasi circulaire. Ce n’est qu’au début du xxe siècle qu’Einstein trouve, avec la théorie de la relativité, une explication aux écarts qui subsistent et que la théorie de Newton n’explique pas. Einstein ne corrige pas une erreur de Newton, il enrichit l’analyse de son prédécesseur, en proposant une nouvelle théorie qui englobe celle de son illustre devancier. Il apparaît alors nécessaire de distinguer la science de la recherche scientifique, en bref ce qui est connu de ce qui ne l’est pas, car encore en construction. Dans les écoles même prestigieuses, on n’enseigne que ce qui est connu. Ajoutons que les concepts introduits par la science, afin de prédire et d’expliquer le comportement des corps, sont le plus souvent distincts des intuitions populaires. Ainsi, ce n’est pas la vitesse d’un corps qui révèle l’influence de son environnement, comme le croyait à tort Aristote, mais la variation de sa quantité de mouvement. De même, le sens commun conduit à la confusion entre le concept de température, qui participe à la caractérisation de l’état d’un corps, et celui de chaleur, qui traduit, lui, un type particulier d’échange d’énergie de ce corps avec son environnement. Quant au concept d’entropie, pourtant décisif dans la compréhension de l’orientation du temps, du passé vers 11

AVANT-PROPOS

le futur, il nécessite une construction intellectuelle, difficilement accessible sans la science. En bref, dans la recherche de «  ce qui est  », les concepts introduits en science sont généralement élaborés, conformément au constat de Gaston Bachelard2, au point d’être souvent éloignés du sens commun, contrairement à la conviction d’Isabelle Stengers3. Le débat sur l’usage thérapeutique de l’hydroxychloroquine pour vaincre la pandémie actuelle, pourtant soulevé par un chercheur de la sphère médicale, illustre bien le fait que recherche scientifique et croyance diffèrent fondamentalement par la méthode. Lorsqu’on cherche à appréhender un phénomène inconnu, comme en cette période, cet oubli peut devenir dramatique4. José-Philippe Pérez, janvier 2021 Remerciements Je remercie les collègues et amis de l’Observatoire Midi-Pyrénées, de l’Université Paul Sabatier ou d’ailleurs, qui ont bien voulu relire, chacun, un chapitre de ce livre, en relation avec leur spécialité ou leur centre d’intérêt : Ibrahim Ardi, Philippe Arguel, Rémi Battesti, Aziz Bouchène, Jean Cousteix, Arnaud Dupays, Thierry Fayard, David GuéryOdelin, Laurent Koechlin, Brahim Lamine, André Lannes, Frédéric Marchal, Renaud Mathevet, Adnen Mlayah, Abdelkader Mojtabi, Marie-catherine Mojtabi, Antoine Monmayrant, Arnaud Le Padellec, Ghislaine Pérez, Olivier Pujol, Michel Rieutord, Joseph Tapia, Dominique Toublanc, Mokhtar Zagzoule. Je remercie aussi EDP Sciences, notamment Madame France Citrini, pour sa confiance dans ce projet de livre, et Madame Sophie Hosotte pour son efficacité dans la réalisation de l’ouvrage et de sa couverture. 2.  La formation de l’esprit scientifique, 1938. 3.  Réactiver le sens commun, 2020. 4.  Jean-Paul Krivine, Science et pseudo-sciences, juillet 2020. 12

LA PENSÉE EN PHYSIQUE

1 Introduction

À propos de la science et donc de la physique, Valéry affirmait : « Si la science s’achève et doit s’achever en formules d’actes, la création de la science est œuvre d’art 1 ». Une définition explicite de la physique pourrait être la suivante : la physique est le mode de pensée qui permet de comprendre rationnellement le comportement de la nature, à partir d’un petit nombre de lois réfutables par les faits. Raison et réfutabilité, par le moindre fait, distinguent l’activité du physicien des autres activités humaines (artistiques, religieuses) dans lesquelles interviennent principalement l’émotion et la conviction intime. Cependant, la création et la transmission de la physique n’excluent pas, elles, l’émotion et la conviction intime. Ainsi, Pierre-Louis Moreau de Maupertuis, un contemporain de Voltaire, énonce le principe de moindre action en mécanique, à partir d’une conviction religieuse « Dieu préconise l’économie », ce

1. Valéry, Vues, La Table Ronde, p. 56.

13

INTRODUCTION

qui renvoie une nouvelle fois à Valéry lorsqu’il s’interroge : « Que serions-nous donc sans le secours de ce qui n’existe pas? 2 ». Au-delà de son développement technique, la préoccupation du physicien consiste le plus souvent à chercher et à trouver ce qui ne change pas, derrière l’apparence du changement : ce qui n’évolue pas au cours du temps (la stationnarité), ce qui ne change pas dans l’espace (l’uniformité), ce qui ne varie pas lorsqu’on change de référence (l’invariance). Finalement, la physique s’intéresse moins à ce qui est relatif qu’à ce qui est universel. Même Albert Einstein, avec ses théories de la relativité restreinte et de la relativité générale, est un universaliste : constatant que le temps en relativité (cf. Chapitre 13), comme l’espace en mécanique de Newton (cf. Chapitre 3), est relatif, il cherche et trouve ce qui est universel. Les lois de conservation sont précisément une manifestation de cette universalité en physique, tout comme la théorie atomique qui affirme que tous les électrons se ressemblent ou que tous les nucléons sont des combinaisons de quarks. Il y a crise en physique lorsque l’universalité est prise en défaut. Dans ce cas, les physiciens, même les plus grands, sont alors tentés par l’exotisme. Par exemple, en 1913, le physicien danois Niels Bohr propose un modèle aporétique de l’atome d’hydrogène, où l’électron parcourt une orbite circulaire, autour du noyau, sans rayonner de l’énergie, alors qu’il est accéléré. Or la théorie électromagnétique, proposée dès 1873 par l’Écossais James Maxwell et de multiples fois confirmée expérimentalement, prévoit un tel rayonnement qui impliquerait un rapprochement inexorable de l’électron sur le noyau. Ce modèle atomique, même partiellement explicatif et prédictif, n’a aucun avenir scientifique ; il sera abandonné au profit d’une nouvelle théorie, la Quantique. Un second exemple est fourni, vers les années 1930, par la non-conservation de l’énergie dans la réaction caractéristique de la radioactivité bêta, dans laquelle un neutron donne un proton et un électron. Dans cette crise, Bohr propose alors rien de moins que 2. Valéry, La Pléiade, p. 966. 14

LA PENSÉE EN PHYSIQUE

INTRODUCTION

l’abandon du premier principe de la thermodynamique, pourtant de multiples fois confirmé ! Le Suisse Wolfgang Pauli (prononcer Paoli) dénoue le problème en inventant le neutrino, particule dont l’énergie est précisément celle qui manque pour satisfaire à la conservation de l’énergie. Le neutrino ne fut découvert que 25 ans plus tard par les physiciens américains Frederick Reines et Clyde Cowan !

DESCRIPTION DE L’OUVRAGE L’ouvrage est découpé en vingt chapitres, relativement indépendants les uns des autres, présentés, après une introduction générale, selon le développement historique de la pensée en physique. Le point de départ est la contribution majeure de Galilée en 1632, date généralement considérée comme celle de la naissance de la physique telle qu’on l’entend encore aujourd’hui. Certes, les contributions d’Épicure, entre le iiie et le iie siècles avant notre ère, précisément La lettre à Hérodote et La lettre à Pythoclès, sont de remarquables traités visionnaires sur les phénomènes célestes et même la physique statistique, mais elles ont été oubliées voire dissimulées par les successeurs, à l’exclusion de Lucrèce qui s’en est fortement inspirées. Ce choix d’un développement historique est volontaire, car il permet, selon nous, un exposé progressif dans l’appréhension d’une pensée qui s’affine et se complexifie au cours du temps. Cependant, considérant l’urgence pour le lecteur pressé d’aborder les derniers chapitres de physique moderne (la relativité restreinte, la relativité générale, l’astrophysique et la quantique), le texte est construit de telle sorte qu’une lecture indépendante des chapitres soit possible, malgré quelques renvois. Dans l’accès à la connaissance scientifique, trois stades sont généralement considérés. Le premier permet de répertorier les phénomènes perçus par l’observateur, ce qui exige la contribution d’au moins l’un de nos cinq sens (vue, ouïe, odorat, goût, toucher) ; le deuxième favorise une analyse approfondie, détaillée, quantitative et donc mathématique ; le troisième, enfin, fournit la vision générale 15

INTRODUCTION

acquise une fois les étapes précédentes franchies. Très souvent, ce dernier stade de synthèse, essentiel à nos yeux, est escamoté. Dans ce livre, nous insistons surtout sur le premier et le troisième stades, en limitant l’outil mathématique à son point d’irréductibilité.

NÉCESSITÉ D’UNE DESCRIPTION QUANTITATIVE La physique ne se réduit pas à une simple description qualitative et contemplative des phénomènes observés, car cette réduction la rendrait incapable de prévoir avec suffisamment de précision le comportement des objets étudiés. Aussi sommes-nous conduits à introduire la mesure de toute grandeur physique sur un objet, c’est-à-dire sa comparaison à une autre grandeur, nécessairement de même nature, prise comme unité. Ainsi, on mesure la longueur d’un fil tendu en la comparant à celle d’une règle graduée, ce que l’on réalise en faisant coïncider les extrémités du fil à deux des traits équidistants d’une règle graduée ; de même, on estime la masse d’un corps en la comparant à celle d’une masse marquée, par exemple à l’aide d’une balance, laquelle permet de comparer en réalité leurs poids qui sont proportionnels aux masses (cf. Chapitre 4) ; on mesure aussi la durée qui sépare deux évènements, en un même lieu, en la comparant à celle d’un phénomène qui se répète de façon apparemment périodique ; un exemple simple est fourni par le nombre de périodes d’un pendule pesant, c’est-à-dire le nombre des passages successifs, dans le même sens, devant sa position d’équilibre verticale. De tels rapports peuvent être de l’ordre de l’unité ou extrêmement grands ou au contraire très petits. Ainsi, la taille d’un être humain est environ 15 milliards de fois la distance qui sépare l’atome de carbone de l’un des deux atomes d’oxygène dans la molécule de dioxyde de carbone ; on préfère écrire 15×109, le milliard étant 1 suivi de 9 zéros. On trouve un nombre encore plus grand en comparant la masse de notre étoile, le Soleil, à celle d’un litre d’eau ; on trouve 2 suivi de 30 zéros (!), soit deux mille milliards de milliards de milliards, ce 16

LA PENSÉE EN PHYSIQUE

INTRODUCTION

que l’on préfère écrire 2 × 1030 . Lorsqu’on inverse ces rapports, le milliard 109 donne le milliardième, ce qu’il est préférable d’écrire 10−9 , en introduisant les puissances négatives de 10. Une première question s’est rapidement posée : quelles unités de base choisir, compte tenu des relations entre les différentes grandeurs physiques, sachant que le critère essentiel est la précision des mesures ? En outre, combien d’unités de base sont-elles nécessaires ? Le choix des unités de base relève évidemment d’une convention, de préférence internationale, la physique ayant vocation à l’universalité. C’est cette dernière exigence d’un système d’unités universel, valable pour tous les peuples, sans changement au cours du temps, qui fut mise en avant en 1790 par les partisans du système métrique, sous l’impulsion du Français Nicolas de Condorcet, après la Révolution Française. Aujourd’hui, cette même exigence a conduit la communauté scientifique internationale à adopter, depuis le 20 mai 2019, un système d’unités fondé sur des étalons totalement dématérialisés, en fixant pour cela la valeur de certaines constantes physiques fondamentales. On utilise alors comme unités principales les sept unités de base suivantes : la seconde, le mètre, la masse, l’ampère, le kelvin, la mole, la candela, pour la mesure respective des durées, des longueurs, des masses (et non des poids), des courants, des températures, des quantités de matière et des intensités lumineuses photométriques. On réalise ainsi le rêve initial de Condorcet, l’adoption d’un système d’unités valable au cours du temps et pour toutes les nations. Cette universalisation des unités de base fut proposée dès 1870 par Maxwell, qui souhaitait en outre utiliser des références objectives ; elle fut développée par le physicien irlandais George JohnstoneStoney en 1881, puis achevée par l’Allemand Max Planck en 1899, à partir des constantes fondamentales : la constante de Newton G ≈ 6,674×10−11 m3 . kg−1. s−2 , ou constante de gravitation, la constante d’Einstein c = 299 792 458 m.s−1 , ou vitesse de la lumière dans le vide, et la constante de Planck h = 6,626 070 15 × 10−34 J.s. L’analyse dimensionnelle de ces constantes fournit les quantités suivantes, 17

INTRODUCTION

respectivement homogènes à une durée, une longueur, une énergie, 1/2 une masse : la durée de Planck t P = ~G/c5 ≈ 0,54 × 10−43 s, la longueur de Planck l P = ct P ≈ 1,6 × 10−35 m, l’énergie de 1/2 Planck ε P = ~c5 /G ≈ 1,95 × 109 J, la masse de Planck, m P = ε P /c2 ≈ 2,17 × 10−8 kg , où ~ = h/(2π ) (h barre) étant la constante de Planck divisée par 2π. Pour les physiciens, l’universalité et la cohérence sont des préoccupations essentielles, d’où, compte tenu des relations entre l’électromagnétisme et la mécanique, la proposition d’adopter uniquement trois unités de base, durée, longueur, masse, les autres étant dérivées de ces dernières. C’est ce que présenta Maxwell en 1863, à travers le système CGS (Centimètre, Gramme, Seconde), dans lequel la force s’exprimait en dyne (du mot grec « dunamis »), et l’énergie ainsi que le travail en erg (du mot grec « ergon »). Dans ce système, on distinguait les unités électrostatiques, dans lesquelles la constante de la force électrostatique se réduisait à l’unité, des unités électromagnétiques, choisies de telle sorte que la constante de la force magnétostatique entre deux courants soit égale aussi à l’unité. Dans la pratique instrumentale, ce système d’unités, qui subordonnait les mesures électriques aux mesures mécaniques peu précises, s’avéra inefficace. On le remplaça en 1901 par le système MKSA (Mètre, Kilogramme, Seconde, Ampère), dans lequel, à la suggestion de l’ingénieur italien Giovanni Giorgi, on substitua le mètre et le kilogramme au centimètre et au gramme respectivement ; on ajouta l’ampère pour les mesures électriques et le facteur 1/(4π ) afin d’éliminer π dans des systèmes à symétrie plane, pour en revanche le faire apparaître dans ceux à symétrie circulaire. L’exigence d’une meilleure précision dans diverses mesures imposa de choisir un nombre d’unités de base supérieur à quatre, ce qui permit, en outre, d’éviter que des grandeurs physiques de natures différentes soient exprimées avec la même unité ; par exemple, en CGS-électrostatique, la capacité d’un condensateur avait la dimension d’une longueur ! 18

LA PENSÉE EN PHYSIQUE

INTRODUCTION

Unités de base Dans le Système international actualisé depuis le 20 mai 2019, le nombre d’unités de base est sept. La seconde, symbole s, est l’unité de durée ; elle est définie en fixant à 9 192 631 770 Hz, unité égale à s−1 , la fréquence de la radiation correspondant à la transition entre les deux niveaux hyperfins de l’état fondamental de l’atome de césium 133 (133 Cs), non perturbé. Le mètre, symbole m, est l’unité de longueur ; sa valeur est définie en fixant à exactement 299 792 458 m.s−1 la valeur de la vitesse de la lumière c dans le vide. Le kilogramme, symbole kg, est l’unité de masse ; sa valeur est définie en fixant à 6,626 070 15 × 10−34 kg.m2 .s−1 la valeur de la constante de Planck h. L’ampère, symbole A, est l’unité de courant électrique ; sa valeur est définie en fixant la valeur numérique de la charge élémentaire e à 1,602 176 634 × 10−19 A.s. Le kelvin, symbole K, est l’unité de température ; sa valeur est définie en fixant à 1,380649 × 10−23 J.K −1 la valeur numérique de la constante de Boltzmann k B . La mole, symbole mol, est l’unité de quantité de matière d’une unité élémentaire spécifique qui peut être un atome, une molécule, un ion, ou n’importe quelle autre particule ou groupe particulier de ces particules ; sa valeur est définie en fixant à 6,02214076 × 1023 mol−1 la valeur numérique du nombre d’Avogadro N A . La candela, symbole cd, est l’unité d’intensité lumineuse, dans une direction donnée ; sa valeur est définie en fixant à 683 lumens par watt la valeur numérique de l’intensité énergétique d’un rayonnement monochromatique de fréquence 540 × 1012 hertz. Les combinaisons de ces grandeurs physiques fondamentales, de valeurs désormais déterminées, sont, elles aussi, fixées. Citons la constante des gaz parfaits R = k B N A ≈ 8,314 J.mol−1 .K −1 , le faraday F = N A e ≈ 96 485 C.mol−1, du nom du Britannique Michael Faraday, l’électron-volt eV ≈ 1,602 × 10−19 J, la constante de 19

INTRODUCTION

structure fine αe = qe2 /(~c) ≈ 1/137,036, la constante de Josephson K J = 2e/ h ≈ 483 6 × 109 Hz.V−1 , du nom du Gallois Brian Josephson, la constante de von Klitzing R K = h/e2 ≈ 25 813 , du nom de l’Allemand Klaus von Klitzing. MULTIPLES ET SOUS-MULTIPLES Nom Facteur

.

yotta zetta exa péta téra giga méga kilo milli micro nano pico femto atto zepto yocto

1024 1021 1018 1015 1012 109 106 103 10−3 10−6 10−9 10−12 10−15 10−18 10−21 10−24

Étymologie

Signification Année d’adoption Symbole

grec (októ) latin (septem) grec (hex) grec (pente) grec (teras) grec (gigas) grec (megas) grec (chiloi) latin (mille) grec (mikros) latin (nanus) italien (piccolo) danois (femtem) danois (atten) latin (septem) grec (októ)

huit sept six cinq monstre géant grand mille mille petit nain petit quinze dix-huit sept huit

1991 1991 1991 1975 1960 1960 1960 1795 1960 1960 1960 1960 1964 1964 1991 1991

Y Z E P T G M k m µ n p f a z y

ALPHABET GREC

20

alpha bêta

A B

α β

êta thêta

H 2

η θ

nu xi

N 4

ν ξ

tau upsilon

T ϒ

τ υ

gamma

Ŵ

γ

iota

I

ι

omicron

O

o

phi

8

φ

delta

1

δ

kappa

K

κ

pi

5

π

chi

X

χ

epsilon

E

ǫ

lambda

3

λ

rho

P

ρ

psi

9

ψ

zêta

Z

ζ

mu

M

µ

sigma

6

σ

oméga



ω

LA PENSÉE EN PHYSIQUE

2 Galilée contre Aristote : chute libre et relativité galiléenne

Lorsque, dans son dernier livre Discours et démonstrations mathématiques concernant deux sciences nouvelles 1 , le physicien italien Galileo Galilei, dit Galilée, fait dire à Simplicio, le défenseur des thèses d’Aristote et de Claude Ptolémée, « Je ne croirai jamais pour ma part, que même dans le vide, si le mouvement y était possible, un flocon de laine tomberait aussi vite qu’un morceau de plomb », il pose historiquement l’étude de la chute libre des corps, à la surface de la Terre. Dans son autre grand livre, Dialogue sur les deux grands systèmes du monde 2 , précisément la Deuxième journée, écrit quelques années avant, en 1632, c’est la relativité galiléenne qui est posée, avec l’expérience dite de la chute d’une pierre du haut du mât d’un navire qui se déplace avec une vitesse constante, en valeur et en direction. Il fait dire, là, à Simplicio « ... quand le navire est au repos, elle tombe 1. Première journée, Gal-1638. 2. Gal-1632.

21

GALILÉE CONTRE ARISTOTE: CHUTE LIBRE ET RELATIVITÉ GALILÉENNE

du pied du mât ; quand le navire est en route, la pierre tombe à une distance du pied égale à celle dont le navire a avancé pendant le temps de chute de la pierre ». L’impact de ces deux livres est majeur pour deux raisons : la première est le choix d’un échange argumentaire entre les protagonistes principaux, Simplicio et Salviati, représentant respectivement Aristote et Galilée, la seconde est l’usage de la langue vernaculaire, l’italien, compréhensible par toute la population, plutôt que celui du latin, langue des érudits. Avant d’étudier la chute des corps et la relativité galiléenne, il est nécessaire de préciser ce qu’est le mouvement et d’en distinguer ses différents aspects.

MOUVEMENT Le mouvement des corps est une réalité première que l’Homme a pu constater très tôt en observant la position changeante des astres dans le ciel ou celle des objets dans son entourage. Aussi, la définition du mouvement d’un corps par son changement de position, par rapport à un autre corps pris comme référence, au cours du temps, fut-elle admise très tôt. C’est donc, par cette définition, un concept premier, fondamentalement relatif. Ce résultat a été perçu, pour la première fois par le philosophe italien Giordano Bruno au xvie siècle, dès les années 1580. Cette définition s’est imposée progressivement, malgré le point de vue de quelques philosophes anciens, comme Zénon qui niait l’existence même de mouvement, ou comme Aristote pour lequel le mouvement est une propriété interne de la matière. Quelques philosophes modernes, du xxe siècle, notamment l’Allemand Martin Heidegger, ont soutenu l’idée que le mouvement présenterait un certain caractère ontologique, vainement.

22

LA PENSÉE EN PHYSIQUE

GALILÉE CONTRE ARISTOTE: CHUTE LIBRE ET RELATIVITÉ GALILÉENNE

Mouvement rectiligne Considérons l’exemple simple d’un objet en mouvement, par exemple un disque métallique homogène, se déplaçant sur une table horizontale (Fig. 1), c’est-à-dire perpendiculaire à la direction du fil à plomb, laquelle est définie par le champ vectoriel de pesanteur terrestre g, qui vaut, à Toulouse 9,80 m.s−2 ≈ 10 m.s−2 (cf. Chapitre 4).

Figure 1

Table horizontale d’expérimentation en mécanique.

Si on le lance sur la table, on constate que la distance parcourue par son centre C dépend de la nature physique de la surface de contact entre le disque et la table. Avec une surface rugueuse, cette distance est bien plus faible que celle observée lorsque la surface est lisse ou graissée. En outre, elle est décrite dans la direction qui est celle imprimée initialement. Cette analyse minutieuse, consistant à prendre en compte la nature des surfaces en contact, fut celle de Galilée, qui en déduisit que la limitation de la distance parcourue par le disque était due principalement aux forces de frottement solide exercées par la table sur le disque. Cette expérience très simple montre que l’on étudie le mouvement observé d’un corps en comparant, à chaque instant, sa position à celle d’un autre corps pris comme référence, ici la table immobile. Ainsi, pour étudier tout mouvement, on doit préciser préalablement la référence spatiale, ici à l’aide de deux axes horizontaux distincts, perpendiculaires pour simplifier, Ox et O y, O étant par 23

GALILÉE CONTRE ARISTOTE: CHUTE LIBRE ET RELATIVITÉ GALILÉENNE

exemple un point situé dans un des coins de la table. Ces deux axes sont indispensables si la direction du lancer initial diffère d’une expérience à l’autre ; en effet, si le lancer est effectué selon Ox, le centre C décrit uniquement cet axe ; s’il est dirigé selon O y, C ne dévie pas de ce dernier ; enfin, si on communique à C une vitesse dans le plan Ox y, C décrit une droite définie par la direction initiale. Pour étudier le mouvement, on doit se munir d’une horloge, c’està-dire d’un instrument produisant des phénomènes périodiques, comme un oscillateur mécanique pendulaire, un oscillateur électronique à quartz, voire un oscillateur atomique, capable de les compter. Entre les positions initiale Ai et finale A f de C, distantes de D, détectées aux instants ti et t f données par l’horloge, il est naturel de s’intéresser à la vitesse moyenne définie par le rapport : vm = D/(t f − ti ). Évidemment, l’analyse sera plus riche, si l’on connaît la vitesse le long de la trajectoire, précisément le rapport Ai A f /(t f − ti ) lorsque les deux points Ai et A f sont suffisamment proches. On dit, par abus de langage, que la vitesse ainsi définie est la vitesse instantanée. Les mathématiciens reconnaissent là, en ajoutant quelques subtilités, ce qu’ils désignent par la dérivée par rapport au temps de la fonction position. Les physiciens adoptent en pratique ce même vocabulaire, mais avec une petite restriction : ils considèrent qu’ils ne s’intéressent pas à la limite, mais à la valeur de ce rapport lorsque l’intervalle de temps est extrêmement faible devant la durée de l’expérience, par exemple quelques microsecondes devant plusieurs secondes. En bref, les physiciens sont pour la plupart persuadés que ce rapport décrit bien la réalité cinématique du mouvement, sans que la limite puisse nécessairement être atteinte. Une autre caractéristique importante du mouvement est son accélération, c’est-à-dire le taux de variation temporelle de la vitesse, car ce concept s’introduit naturellement dans l’expression des lois de la mécanique (cf. Chapitre 3). Si t f et ti sont des instants voisins, l’accélération est le rapport : a = (v f − vi )/(t f − ti ) = 1v/1t . Dans le cas simple étudié d’une trajectoire rectiligne, les vecteurs vitesse 24

LA PENSÉE EN PHYSIQUE

GALILÉE CONTRE ARISTOTE: CHUTE LIBRE ET RELATIVITÉ GALILÉENNE

et accélération sont tous deux portés par la droite du mouvement. Il n’est pas inutile de rappeler qu’en France, jusqu’aux années 1990, l’accélération n’était pas désignée par sa première lettre a, mais par « gamma » (lettre grecque majuscule Ŵ ou minuscule γ ) ; la raison fut probablement de trouver une lettre proche de g, accélération due à la pesanteur, dans la chute libre verticale des corps. C’est certainement la notation répandue du facteur relativiste γ qui fut à l’origine de l’abandon de cette notation contre-intuitive de l’accélération. Chute libre La chute libre des corps a été étudiée expérimentalement par Galilée autour des années 1600 ; elle concerne essentiellement le mouvement, par rapport à un référentiel terrestre R, au cours de la la chute des corps. Nous verrons ultérieurement que R réalise un référentiel privilégié dit galiléen (cf. Chapitre 4). Le mérite de Galilée fut notamment d’analyser le rôle des autres forces, qui interviennent dans la réalisation physique de la chute, de réduire leur influence et d’en déduire le mouvement recherché. Il put alors affirmer, dans la troisième journée du Discours et démonstration mathématique concernant deux sciences nouvelles, que le mouvement de chute des corps était caractérisé par une accélération constante en direction (mouvement rectiligne) et constante en valeur, laquelle s’avèrera plus tard égale à la valeur g ≈ 9,8 m.s−2 du champ de pesanteur terrestre (cf. Chapitre 3). On en déduit une vitesse de chute proportionnelle au temps t de la forme v = gt, lorsque le corps est abandonné, et une longueur parcourue d’expression gt 2 /2. On met simplement en évidence ces résultats à l’aide de l’expérience dite du tube de Newton, dans lequel on a introduit, avant de le sceller, une bille de plomb et une plume d’oiseau. En le retournant, on constate aisément que les durées de chute des deux objets diffèrent notablement, si on n’a pas pris soin préalablement de le vider de l’air qu’il contient. Une fois cette opération réalisée à l’aide d’une pompe à vide (Fig. 2a), on observe, en 25

GALILÉE CONTRE ARISTOTE: CHUTE LIBRE ET RELATIVITÉ GALILÉENNE

recommençant l’expérience, une totale conformité avec l’analyse galiléenne. Entre la hauteur de chute H et sa durée tc , on a la relation simple H = gtc2 /2, soit tc = (2H/g)1/2 . Cette durée ne dépend que de la hauteur de chute et de la valeur du champ de pesanteur terrestre. Pour établir expérimentalement la loi de variation de la vitesse au cours du temps, Galilée eut l’idée de faire rouler sans glisser des boules métalliques homogènes le long d’un plan incliné rectiligne ; comme la durée de chute n’est modifiée que par un facteur numérique 3 , il put établir cette dépendance quadratique de la distance parcourue avec le temps. L’expérience de la chute des corps a été refaite à la surface de la Lune par David Scott en 1971, au cours de la mission lunaire Apollo 15 ; un marteau et une plume, lâchés ensemble, atteignent simultanément le sol lunaire, confirmant ainsi l’absence d’atmosphère lunaire.

Figure 2 Tube de Newton. a) Tube de Newton. b) Chute d’une boule de pétanque et d’une balle de tennis.

En 1999, un ministre de l’Enseignement supérieur et de la Recherche, chercheur scientifique lui-même, voulut souligner l’importance de cette expérience dans l’enseignement des lycées, jusqu’à en parler à la télévision, ce qui était inhabituel, mais louable. Il prit l’exemple simple des chutes comparées d’une boule de pétanque et d’une balle de tennis, dans l’air (Fig. 2b). À un modeste professeur de 3. Si la boule est pleine, un facteur supplémentaire égal à 7/5 = 1,4 affecte la hauteur H .

26

LA PENSÉE EN PHYSIQUE

GALILÉE CONTRE ARISTOTE: CHUTE LIBRE ET RELATIVITÉ GALILÉENNE

physique de lycée, qui lui fit remarquer que le vide était indispensable, et que dans l’air l’objet le plus lourd atteignait le sol le premier, il eut l’imprudence de traiter ce dernier d’incompétent, d’où une polémique dont il ne sortit pas scientifiquement indemne. En effet, plusieurs de ses amis grands physiciens durent intervenir pour justifier la dérive involontaire du ministre. Je décidai alors de rédiger une petite note sur l’écart visible entre les deux objets en fin de course que j’envoyai au Canard enchaîné. Ce dernier en fit un article humoristique « Un ministre, victime d’un tennis-elboules », que je découvris le 24 juillet 1999, dans l’avion qui me ramenait à Toulouse, après un congrès scientifique au Mexique, à Cancun. Pour se défendre, le ministre prétendit avoir choisi les deux objets de formes approximativement identiques afin de pouvoir adopter le même coefficient de viscosité α, sans avoir probablement réalisé que la quantité qui apparaissait de façon décisive dans l’analyse était en réalité le rapport de ce coefficient sur la masse m du corps (cf. Chapitre 3). Finalement, l’analyse et l’expérience montrent un écart, à l’avantage de la boule de pétanque, d’un centimètre après une chute de 1,5 m et de 12 cm après 5 m. On peut à cette occasion poser la question de la nature de la chute pour un objet vivant. La question n’est pas banale, car pendant longtemps, sous l’influence des doctrinaires du vitalisme, on émit l’hypothèse que les êtres vivants devaient être soumis à d’autres forces que les forces physico-chimiques habituelles. J’avais remarqué que les exemples concrets considérés dans l’enseignement de la physique ne concernaient que rarement des êtres vivants. J’ai réalisé bien plus tard que ce n’était pas fortuit en lisant en 1973 l’excellent livre de Jacques Monod, Le hasard et la nécessité ; l’auteur y souligne clairement et fortement que la vie n’exige aucunement des forces autres que physico-chimiques. Aussi l’idée de proposer une variante féline de l’expérience de la chute des corps, en remplaçant l’objet inerte par un chat alerte, me parut intéressante, persuadé que l’animal agile retomberait sur ses pattes, sans dommages, conformément au dicton bien connu. Comme aurait dit Galilée, il n’est pas nécessaire de passer 27

GALILÉE CONTRE ARISTOTE: CHUTE LIBRE ET RELATIVITÉ GALILÉENNE

à l’acte, surtout s’il est cruel, lorsqu’une analyse préalable conduit au même résultat que pour l’objet sans vie. Pourtant, encore en 2008, dans une revue de vulgarisation 4 , une personnalité scientifique sembla se poser la question « Pourquoi pas un chat, à la place de la pierre? » et donner la réponse aussi surprenante que fragile suivante « Le chat introduirait dans l’expérience un élément de contingence qui ne rendrait plus nécessaire qu’il vienne s’écraser au bas de la verticale ». Tout cela pour ne pas affirmer clairement que c’est en réalité le centre de masse (cf. Chapitre 3) du chat qui viendrait tomber au pied de cette verticale, et que les lois de la physique ne sont pas restrictives au champ d’application des seuls objets sans vie. Le vitalisme a été exclu de la science, dès la fin du xixe siècle. Mouvement curviligne La plupart des mouvements observés dans la nature ne se réduisent pas aux mouvements rectilignes, qui sont les plus simples, mais pas les plus fréquents. Les mouvements circulaires, dans lesquels le point en mouvement décrit un cercle, sont bien plus répandus. En effet, dans un atelier de mécanique, les machines qui imposent à une pièce matérielle et donc aux points qui la composent, un mouvement circulaire devant un outil fixe, sont nombreuses ; en outre, le mouvement n’est pas nécessairement uniforme. Un autre exemple est fourni par le mouvement circulaire uniforme du centre de masse d’un satellite artificiel autour de la Terre (cf. Chapitre 6). Dans le cas général, le mouvement est curviligne, c’est-à-dire que, contrairement au mouvement circulaire, le rayon de courbure, c’està-dire le rayon du cercle qui épouse au mieux localement la courbe parcourue, n’est pas constant. Précisons que, en cas de torsion, cette courbe n’est pas nécessairement contenue dans un plan. On définit le vecteur vitesse d’un point en mouvement sur sa trajectoire curviligne (Fig. 3), en considérant la variation du vecteur position O A, compté à partir de l’origine O du référentiel d’analyse, entre deux 4. H-S Sciences et avenir, janvier/février 2008.

28

LA PENSÉE EN PHYSIQUE

GALILÉE CONTRE ARISTOTE: CHUTE LIBRE ET RELATIVITÉ GALILÉENNE

Figure 3

Vitesse et accélération dans un mouvement curviligne.

instants voisins ti et t f = ti + 1t : v = A i A f /(t f − ti ) = 1 A/1t. Lorsque 1t est très petit devant les durées de l’expérience, la sécante Ai A f se confond avec la tangente à la courbe. On a alors, en fonction de l’abscisse curviligne s, comptée sur la courbe à partir d’une origine arbitraire fixe A0 : v = v et , où v = 1s/1t est la vitesse curviligne et et le vecteur unitaire tangent à la trajectoire. L’accélération, qui est le taux de variation de la vitesse, présente alors deux contributions, la première est le taux de variation de la vitesse curviligne v, la seconde est le taux de variation en direction du vecteur unitaire et : a = (1v/1t)et + v(1et /1t). Ce dernier terme s’écrit aussi, en introduisant l’abscisse curviligne, v2 (1et /1s) soit (v2 /R)en , R étant le rayon de courbure de la trajectoire et en le vecteur unitaire porté par la direction perpendiculaire à et . Ainsi, le vecteur accélération présente deux contributions vectorielles, l’une at due à la variation de la valeur de la vitesse, portée par la tangente à la trajectoire, l’autre an due à la variation de sa direction, portée par la normale à la trajectoire.

RELATIVITÉ GALILÉENNE Le mot relativité apparaît pour la première fois en physique dans les travaux de Galilée pour exprimer l’idée simple que tout mouvement 29

GALILÉE CONTRE ARISTOTE: CHUTE LIBRE ET RELATIVITÉ GALILÉENNE

est relatif à un certain repère. Cependant, on ne doit pas se méprendre: le savant constate la relativité du mouvement, mais derrière ce relativisme, il cherche à découvrir ce qui est universel ; dans le cas présent, c’est une même loi de chute libre, dans le vide, valable dans les mêmes termes dans deux référentiels dits galiléens R et R′ en mouvement de translation, rectiligne, uniforme, l’un par rapport à l’autre ; translation signifie que R′ ne tourne pas par rapport à R, rectiligne que le mouvement de tout point de R′ décrit une droite par rapport à R, et uniforme que, sur cette droite, la distance parcourue est proportionnelle à la durée donnée par l’horloge. Remarquons que si l’uniformité concerne le vecteur vitesse de l’origine O ′ de R′ par rapport à R, et non sa seule valeur, le mot rectiligne peut être omis comme c’est le cas dans les textes originaux de Poincaré et d’Einstein. Ainsi, dissipons tout malentendu issu du choix historique des mots : la relativité galiléenne prend en compte le relativisme des mouvements et en extrait l’universalité malgré les apparences ; le relativisme est le constat d’une différence entre R et R′, l’universalité la mise en lumière de leur même statut. Comme nous le verrons plus loin, la relativité einsteinienne est une généralisation hardie, réussie et brillante de la relativité galiléenne (cf. Chapitres 13 et 14). Le mouvement, c’est comme rien ! C’est Galilée qui exprima le premier clairement l’invariance galiléenne, selon laquelle les deux référentiels précédents R et R′ sont équivalents pour exprimer tout mouvement (Fig. 4). Dans un texte pédagogique remarquable, dont la lecture 5 est vivement conseillée, il souligne que l’on peut vivre dans R′ sans se rendre compte de son mouvement par rapport à R. Citons le paragraphe concerné : « Enfermez-vous avec un ami dans la plus grande cabine sous le pont d’un grand navire, et prenez avec vous des mouches, des papillons et d’autres petites bêtes qui volent ; munissez-vous aussi d’un grand récipient rempli d’eau et de petits poissons ; accrochez aussi un petit seau 5. Gal-1832, p. 204.

30

LA PENSÉE EN PHYSIQUE

GALILÉE CONTRE ARISTOTE: CHUTE LIBRE ET RELATIVITÉ GALILÉENNE

Figure 4

Relativité galiléenne.

dont l’eau tombe goutte à goutte dans un autre vase à petite ouverture placé en dessous. Quans le navire est immobile, observez soigneusement comme les petites bêtes qui volent vont à la même vitesse dans toutes les directions de la cabine, on voit les poissons nager indifféremment de tous les côtés, les gouttes tomber dans le récipient en dessous, et si vous lancez quelque chose à votre ami, vous n’avez pas besoin de le lancer plus fort dans une direction que dans une autre, les distances étant égales, et si vous sautez à pieds joints, vous franchissez des distances égales dans toutes les directions. Lorsque vous aurez observé toutes ces choses soigneusement (bien qu’il n’y ait aucun doute que lorsque le bateau est à l’arrêt, les choses doivent se passer ainsi), faites avancer le bateau à l’allure qui vous plaira, pour autant que la vitesse soit uniforme [c’est-à-dire constante] et ne fluctue pas de part et d’autre. Vous ne verrez pas le moindre changement dans aucun des effets mentionnés et même aucun d’eux ne vous permettra de dire si le bateau est en mouvement ou à l’arrêt. » Galilée comprend que le mouvement des corps se produit de la même façon dans deux référentiels tels que R et R′ en translation, rectiligne, uniforme, l’un par rapport à l’autre (Fig. 4). Il fait remarquer que l’on peut vivre dans R′ sans se rendre compte de son mouvement par rapport à R. Il en conclut que le mouvement (de R′ par rapport à R) est comme rien : « il moto e como nullo 6 ». 6. Gal-1632, p. 141.

31

GALILÉE CONTRE ARISTOTE: CHUTE LIBRE ET RELATIVITÉ GALILÉENNE

L’espace est relatif et le temps est absolu Le relativisme de Galilée ne concerne que l’espace et pas le temps, car ce dernier est considéré comme un paramètre universel. Même en mécanique non relativiste, on caractérise un évènement par ses trois coordonnées spatiales x, y, z et par la coordonnée temporelle t, ce que l’on représente par un point d’univers dans un espace à quatre dimensions. Ainsi, un rendez-vous entre deux personnes exige la connaissance du lieu de rencontre (ville, rue, numéro, étage) et celle de l’instant. La transformation de Galilée relie les coordonnées d’un même évènement dans deux référentiels R et R′ (ensemble d’une origine spatiale, d’une origine temporelle et d’étalons de longueur et de durée), en mouvement de translation, rectiligne, uniforme, l’un par rapport à l’autre (Fig. 4). On a alors, entre les coordonnées spatio-temporelles (x, y, z, t) dans R et celles (x ′ , y ′, z ′ , t ′ ) dans R′ , les relations suivantes : x = x ′ + ve t ′ , y = y ′ , z = z ′ et t = t ′ . Les trois premières équations traduisent la relativité spatiale du mouvement. Entre deux évènements, on a : 1x = 1x ′ + ve 1t ′ , d’où 1x 6 = 1x ′ . En revanche, la dernière exprime l’universalité du temps : 1t = 1t ′ . Soulignons que, contrairement à une idée répandue, l’espace en mécanique galiléenne n’est pas absolu, mais relatif ! Il résulte, de ce qui précède, la composition suivante des vitesses et des accélérations, entre les deux référentiels R et R′ : v A/R = v A/R′ +ve et a A/R = a A/R′ , puisque la vitesse ve dite d’entraînement est une constante vectorielle. Ainsi, la chute des corps dans le vide réalise le même mouvement uniformément accéléré, à la fois par rapport à R et par rapport à R′ . Il en résulte qu’une pierre abandonnée du sommet du mât d’un bateau R′ , en mouvement de translation rectiligne uniforme par rapport R, tombe au pied du mât. Plus largement, aucune expérience de mécanique ne permet de distinguer deux référentiels galiléens R et R′ .

32

LA PENSÉE EN PHYSIQUE

GALILÉE CONTRE ARISTOTE: CHUTE LIBRE ET RELATIVITÉ GALILÉENNE

En relativité einsteinienne, le résultat de Galilée est encore valable, mais il doit être étendu à toute la physique, la mécanique mais aussi l’électromagnétisme, la science de l’électricité (cf. Chapitre 13).

33

3 Descartes et Newton : les lois du mouvement

Après la contribution de Galilée en mécanique (Chapitre 2), celle de l’Anglais Isaac Newton en 1687, dans son célèbre Principia Mathematica 1 , puis celle plus récente de l’Allemand Albert Einstein (cf. Chapitre 13), incitent à paraphraser Malraux 2 : « le génie scientifique découvre ce qui rôde dans les profondeurs de la science, et l’ayant découvert une fois il advient, que très souvent, il le découvre pour très longtemps ». Les lois du mouvement de Newton sont au nombre de trois. Cependant, la première fut correctement énoncée, dès 1644, par le philosophe français René Descartes 3 ; elle figure dans les premières pages du traité de Newton sous la forme suivante : Tout corps persévère dans son état de repos ou de mouvement uniforme en ligne droite dans lequel il se trouve, à moins que quelque force n’agisse sur lui et ne le contraigne à changer d’état. 1. Newton, Principia, Dunod, p. 13. 2. Discours sur la culture à Amiens, 1965. 3. Descartes, La Pléiade, p. 634.

35

DESCARTES ET NEWTON : LES LOIS DU MOUVEMENT

Cette contribution est en nette opposition à celle d’Aristote, pour qui le mouvement d’un corps à vitesse constante, en direction et en valeur, suppose une action de son environnement. L’histoire des sciences étant, contrairement à l’histoire des Hommes, une histoire jugée, la pensée d’Aristote, en mécanique, ne présente plus qu’un intérêt historique. La deuxième loi de Newton, ou loi fondamentale de la dynamique, relie directement le taux de variation de la quantité de mouvement d’un corpuscule, produit de sa masse par la vitesse, à l’influence qu’exerce l’environnement sur le corps, influence que l’on représente par un vecteur, appelé force. Ainsi, la force est directement liée, non à la vitesse du corps en mouvement, mais à la variation de cette vitesse. La masse se manifeste alors comme une caractéristique du corps qui traduit son aptitude à s’opposer à la variation de sa quantité de mouvement et donc de sa vitesse, d’où son nom précis de masse inerte. Pour Newton, cette masse détermine le comportement particulier d’un corps lorsqu’on le soumet à une perturbation mécanique extérieure. C’est dans ce contexte que Newton introduisit la masse, sans autre précision ; en outre, curieusement, il définit la masse en sommant le concept de masse volumique, comme si ce dernier n’exigeait pas au préalable une définition de la masse 4 . La troisième loi est connue sous le nom d’opposition des forces élémentaires qu’exercent l’un sur l’autre deux corpuscules. Précisons que le caractère élémentaire de ces forces est essentiel ; en effet, la force qu’exercent entre elles les deux plaques parallèles d’un condensateur plan, distantes de d, porteuses de charges électriques opposées Q et −Q réparties sur leur surface S, n’est pas, en première approximation, proportionnelle à Q 2 /d 2 , mais à Q 2 /S, cela indépendamment donc de d, ce qui est contre-intuitif !

4. La masse volumique est appelée densité par les Anglo-Saxons, alors qu’en France le mot densité désigne le rapport de la masse volumique d’un corps sur celui de l’eau, et donc n’a pas de dimension physique.

36

LA PENSÉE EN PHYSIQUE

DESCARTES ET NEWTON : LES LOIS DU MOUVEMENT

Dans la suite, nous appellerons simplement loi de Newton la deuxième loi de Newton sur le mouvement, considérant que la première est totalement contenue dans la deuxième. Un exemple familier d’illustration de cette loi est fourni par le football.

LE FOOTBALL Le ballon Le ballon de foot est approximativement une sphère creuse, de rayon r ≈ 11 cm et de masse M ≈ 420 g, réalisée à l’aide d’un matériau polymère, dont l’épaisseur est négligeable devant le rayon ; il renferme de l’air sous une pression de 2 bar (environ deux fois la pression atmosphérique) et à une température de 20° Celsius (cf. Chapitre 8). En réalité, c’est un icosaèdre tronqué, c’est-à-dire un polyèdre régulier qui possède 60 sommets et 32 faces (20 hexagonales et 12 pentagonales), dont les arêtes sont toutes de même longueur ; l’enveloppe extérieure est, elle, constituée de 32 pièces en polyuréthane (Fig. 1a).

Figure 1

a) Ballon. b) Terrain de football.

37

DESCARTES ET NEWTON : LES LOIS DU MOUVEMENT

Dans le Système international (cf. Chapitre 1), les unités de pression et de température sont respectivement le pascal (Pa) et le kelvin (K) : 1 bar = 105 Pa et 293 K ≈ 20 °C. La masse de l’air est négligeable devant celle de l’enveloppe du ballon. Pour le montrer, il suffit d’utiliser la loi à laquelle satisfont les gaz suffisamment dilués ; elle a d’abord été établie expérimentalement par Robert Boyle en Angleterre en 1662, puis par Edmé Mariotte en France en 1776, enfin expliquée par Maxwell un siècle plus tard, à partir de la théorie cinétique des gaz parfaits. Cette loi traduit la relation de proportionnalité entre le produit de la pression d’un gaz par le volume qu’il occupe et la température thermodynamique T : pV = N k B T , N étant le nombre de molécules de gaz et k B ≈ 1,38 × 10−23 J.K −1 la constante de Boltzmann (cf. Chapitre 1). On en déduit, en faisant apparaître le nombre d’Avogadro (N A ≈ 6,02 × 1023 mol−1 ) ou nombre d’identités moléculaires, la constante des gaz parfaits R = N A k B ≈ 8,314 J.mol−1 .K −1 et donc le nombre de moles n = N/N A : n = pV /(RT ) ≈ 0,45. Comme la masse molaire de l’air vaut Mm = 29 g.mol−1, la masse d’air enfermé est négligeable devant celle de l’enveloppe du ballon : Mair = 0,45 × Mm ≈ 13 g. Le terrain La référence spatiale du mouvement est fournie par le terrain de jeu, qui est une surface plane, rectangulaire, horizontale, le plus souvent recouverte d’une pelouse, dont la longueur est comprise entre 90 m et 120 m, et la largeur entre 45 m et 90 m (Fig. 1b). Les dimensions choisies en France, pour tous les stades, lors de la Coupe du Monde 1998, étaient 105 m de longueur et 68 m de largeur. Le poids du ballon est proportionnel à sa masse M, mais il ne doit pas être confondu avec elle, car il désigne, lui, la force attractive verticale qu’exerce localement la Terre sur lui. Dans ce contexte, les unités de masse et de force sont différentes : la première est le kilogramme, alors que la seconde est le newton. Ainsi, sur la Lune, la masse M du ballon est encore égale à 420 g, alors que son poids terrestre, qui vaut 38

LA PENSÉE EN PHYSIQUE

DESCARTES ET NEWTON : LES LOIS DU MOUVEMENT

Mg = 0,42 × 9,8 ≈ 4,1 N, est divisé par six sur la Lune, car le champ d’attraction lunaire est six fois plus faible que le champ d’attraction terrestre. L’origine O du référentiel spatial peut être prise en l’un des quatre coins du terrain ; quant aux axes Ox et O y, il est naturel de les prendre selon les deux côtés du rectangle, Ox selon la longueur ou ligne de touche, O y selon la largeur ou ligne de but. La troisième dimension spatiale, la verticale ascendante Oz, dont la direction coïncide avec celle de g, joue un rôle essentiel, car le transport du ballon est bien plus rapide et efficace en l’air qu’au contact avec le sol (Fig. 1). Pour étudier le mouvement du ballon, c’est-à-dire l’évolution de la position des différents points qui le constituent, il est nécessaire de se munir d’une horloge. Ces quatre données spatio-temporelles, relatives au référentiel terrestre, définissent un évènenement en physique. Le mouvement du centre de masse du ballon Pour analyser le mouvement du ballon par rapport au terrain, il est nécessaire de s’appuyer sur la loi de Newton, laquelle s’exprime à l’aide du concept de quantité de mouvement d’un élément de matière, produit p = mv de sa masse m par sa vitesse v. Elle s’énonce comme suit. Par rapport au référentiel terrestre, le taux de variation de la quantité de mouvement est directement proportionnel à la force F qu’exerce l’environnement sur lui : 1p =F 1t

soit aussi

ma = F

en introduisant l’accélération a = 1v/1t. Comme la masse m limite in fine la variation de vitesse qui résulte d’une force, et donc du taux de variation de la quantité de mouvement, il est judicieux d’adjectiver le concept par inerte. On voit qu’une force nulle n’implique pas l’absence de mouvement, mais uniquement l’absence de variation du mouvement. Ce résultat est connu historiquement sous le nom de 39

DESCARTES ET NEWTON : LES LOIS DU MOUVEMENT

principe de l’inertie ; il exprime précisément la capacité qu’a un corps de conserver sa vitesse lorsqu’il est soumis à une force nulle. La première loi de Newton, énoncée comme la deuxième en 1681, reprend le principe de l’inertie, déjà correctement énoncé par Descartes. Après analyse, on s’aperçoit que ce principe de l’inertie est contenu dans la deuxième loi de Newton ; cependant certains physiciens continuent à le considérer comme indépendant de cette deuxième loi, en mettant de côté, dans cette dernière, les hypothèses relatives au choix du référentiel adopté pour exprimer ces lois. Appliquée à un corps de dimensions quelconques, la deuxième loi de Newton conduit à introduire la quantité de mouvement totale de ce corps, P, produit MvC de sa masse inerte totale M par la vitesse de son centre de masse C, ce dernier pouvant être défini comme le seul point du corps dont la trajectoire peut se réduire à une droite, lorsque le corps n’est soumis à aucune force. On a alors : 1P = Sex 1t où Sex désigne la somme des forces extérieures qui s’exercent sur lui, c’est-à-dire la somme des forces qu’exerce le milieu extérieur sur chacun de ses éléments constitutifs. Lorsque le corps présente un centre de symétrie matérielle, c’est-à-dire une symétrie géométrique et une symétrie dans la répartion des masses, le centre de masse coïncide avec son centre géométrique. Ajoutons que la masse M est, en théorie newtonienne, une grandeur additive, car elle est définie par la somme des masses de P ses composants élémentaires M = i m i , ce qui n’est pas le cas en relativité (cf. Chapitre 13). Historiquement, on désigne souvent par centre de gravité le centre de masse, alors que la gravité ne joue fondamentalement aucun rôle dans la définition de ce dernier. Tout au plus intervient-elle lorsqu’on veut comparer deux masses par l’intermédiaire des poids qu’exercent la Terre sur elles, en des lieux proches. Cette confusion est de même 40

LA PENSÉE EN PHYSIQUE

DESCARTES ET NEWTON : LES LOIS DU MOUVEMENT

nature que celle, encore trop fréquente, entre masse et poids, malheureusement entretenue à tous les niveaux, par exemple en s’obstinant à désigner par G, première lettre de gravité, le centre de masse. Insistons : chez le boulanger, on achète une masse nutritive de pain, de valeur 250 g, mais en la transportant sous le bras, c’est son poids de 0,25 × 9,80 ≈ 2,45 N que l’on compense ; plus surprenant pour des médecins, c’est la masse d’un bébé, en kilogramme, qu’ils suivent attentivement durant ses premiers mois, et non son poids ! Ils sont pourtant bien placés pour instruire la population, au sens premier des Lumières. Analysons les forces qui s’exercent sur un ballon de foot. On distingue son poids M g, vertical, et la force de viscosité due à l’air environnant, F v , orientée dans le sens opposé à la vitesse. Le mouvement du centre de masse du ballon satisfait alors à l’équation : 1(Mv C ) = M g + Fv 1t

soit

aC = g +

Fv , M

en divisant par la masse M et en introduisant l’accélération aC = 1v C /1t. La force de viscosité F v dépend de la vitesse. Si cette dernière est suffisamment faible (inférieure à 5 m.s−1 ), elle est de type Stokes, du nom du scientifique irlandais Georges Stokes, c’est-à-dire proportionnelle à v C ; précisément elle s’écrit −6π ηr v C , r étant le rayon du ballon et η le coefficient viscosité, de l’ordre de 0,4 × 10−5 Pa.s 5 . Si la vitesse est plus élevée, ce qui est souvent le cas au foot, la force est de type Venturi (du nom du physicien italien Giovanni Venturi), précisément proportionnelle au carré de la vitesse ; l’équation du mouvement est alors plus difficile à résoudre par voie analytique, mais on y parvient aisément par une méthode numérique. C’est ce dernier modèle de force de viscosité que l’on doit adopter lorsqu’on veut étudier une descente en parachute.

5. Cette viscosité est négligeable devant celle de l’huile moteur SAE qui est de l’ordre de 0,3 Pa.s.

41

DESCARTES ET NEWTON : LES LOIS DU MOUVEMENT

Le mouvement de C est contenu dans le plan formé par la somme des forces et la vitesse initiale de C. Si cette vitesse est nulle, on retrouve, dans le cas de la chute dans le vide, le même comportement des objets, quelle que soit leur masse (cf. Chapitre 2). Le mouvement autour du centre de masse Pour connaître le mouvement de rotation du ballon autour de son centre de masse, un deuxième théorème est nécessaire ; il fait apparaître un concept analogue à la quantité de mouvement, celui de moment cinétique ou moment angulaire L C , au centre de masse C. Ce dernier est la somme des moments de ses quantités de mouvement, chacun d’eux étant égal au produit de la quantité de mouvement par la distance de C à son support ; leur direction et leur orientation sont définies par le produit vectoriel C A i × m i v i (cf. Annexe 1). Le théorème du moment cinétique se met alors sous une forme analogue à celle du théorème de la quantité de mouvement : 1L C = M C,ex 1t où M C,ex est la somme des moments en C de ces forces, c’est-à-dire la somme des produits vectoriels de ces forces par les vecteurs reliant C à leurs points d’application. Le poids étant une force qui s’exerce au centre de masse C, son moment en ce point est nul. En outre, lorsque le ballon a un mouvement de rotation, de vitesse angulaire , son moment cinétique s’écrit simplement en raison de la symétrie matérielle du ballon : L C = I , I étant son moment d’inertie par rapport à l’axe de rotation (Fig. 2a) ; précisément I est la somme des quantités m i ri2 , associées à chacun des éléments de masse m i situé à la distance ri de l’axe. En l’absence de forces de frottement dues à l’air, 1L C = 0 : le moment cinétique L C et donc  se conservent. C’est bien ce que l’on observe sur un ballon de foot, si l’influence de l’air est négligeable.

42

LA PENSÉE EN PHYSIQUE

DESCARTES ET NEWTON : LES LOIS DU MOUVEMENT

Figure 2 a) Rotation du ballon autour de l’un de ses axes. b) Roulement sans glissement du ballon sur la pelouse.

Ce dernier résultat n’est valable au rugby que si le joueur communique au ballon une vitesse de rotation autour de son grand axe ou autour de l’un des axes perpendiculaires à ce dernier. Roulement sans glissement du ballon sur la pelouse Lorsque le ballon roule sans glisser sur la pelouse, le travail de la force de réaction R qu’exerce la pelouse sur le ballon, au point de contact I , et donc sa puissance R · v, sont nuls, car le point du ballon qui coïncide avec I a une vitesse nulle, cette dernière devant être égale à celle du point de la pelouse avec lequel le ballon est en contact. En l’air, ce travail des forces de frottement n’est pas nul mais souvent négligeable. Un joueur communique au ballon, de centre C, selon un axe horizontal C x, une vitesse v C , de valeur vC = 108 km.h−1, c’està-dire 108 × 103 /3 600 = 30 m.s−1 , ainsi qu’une rotation angulaire stationnaire , orientée selon un autre axe horizontal, perpendiculaire à v C (Fig. 2b). Pour  = 5 tours par seconde, les vitesses des points supérieur et inférieur du ballon, valent, en raison de la relation

43

DESCARTES ET NEWTON : LES LOIS DU MOUVEMENT

entre les vitesses des points d’un même solide : vS = vC + r  ≈ 33,45 m.s−1

et v I = vC − r  ≈ 26,55 m.s−1.

La valeur de , pour laquelle la vitesse du point du ballon en contact avec la pelouse serait nulle, vaut dans ce cas :  = vC /r = 272,72 rad.s−1 soit 43,4 tours par seconde, puisque un tour par seconde vaut 6,28 rad.s−1 (cf. Annexe 1). Cette condition est nécessaire pour que le ballon roule sans glisser sur la pelouse. Dans la pratique sportive, les joueurs font rouler sans glisser le ballon, avec une vitesse de translation et une vitesse angulaire bien plus faibles, afin de conserver la maîtrise du ballon. Ballon au repos Le ballon est au repos, c’est-à-dire sans mouvement par rapport au référentiel R, défini par le terrain, lorsqu’aucun de ses éléments n’est en mouvement. Il en résulte deux conditions nécessaires pour que le ballon soit au repos. La première traduit l’immobilité du centre de masse : Sex = 0, ce qui implique une somme des forces extérieures qui s’exercent sur le ballon nulle. La seconde exprime l’immobilité de l’ensemble des autres points du ballon, ce qui implique une somme des moments des forces extérieures nulle : M C,ex = 0. Ces deux conditions sont suffisantes, si initialement le centre de masse C du ballon est au repos, et si sa vitesse angulaire de rotation est nulle. Précisons que ces conditions de repos supposent que le ballon soit indéformable, ce que l’on peut admettre en première approximation ; sinon il faudrait considérer chacun des éléments de matière qui constituent le ballon. Tirs particuliers Dans le tir de coin ou corner, le ballon est tiré de l’un des quatre coins du terrain vers le gardien adverse. À l’instant initial, C se trouve 44

LA PENSÉE EN PHYSIQUE

DESCARTES ET NEWTON : LES LOIS DU MOUVEMENT

au coin pris comme origine O, et donc situé à 11 cm au-dessus du sol. Le vecteur vitesse initiale vi , de valeur 30 m.s−1 , est contenu dans le plan vertical qui fait un angle proche de zéro avec le plan vertical O yz contenant les deux poteaux de la cage (Fig. 3a) ; dans ce plan, v i fait un angle αi avec le plan du terrain. En outre, on peut simplifier en supposant que la vitesse de rotation angulaire communiquée par le tireur est nulle, qu’il n’y a pas de vent et que l’air ambiant n’exerce aucune force sur le ballon. Dans ces conditions, le tireur de coin ne peut pas envoyer le ballon directement dans la cage adverse, sans une intervention extérieure, le plus souvent celle d’un coéquipier, par un coup de tête sur le ballon. Lorsque, comme c’est souvent le cas, le tireur communique au ballon, non seulement une vitesse initiale à son centre de masse C, mais aussi une vitesse angulaire suffisante  autour d’un axe sensiblement vertical, une troisième force, due aux forces élémentaires exercées par l’air, doit être prise en compte, c’est la force de Magnus, du nom du physicien allemand du xixe siècle Heinrich Magnus ; elle s’applique en C et a pour expression F M = 2ρa Vb  × v C , ρa = 1,3 kg.m−3 désignant la masse volumique de l’air, et Vb le volume du ballon. Dans ce cas, la courbe suivie par C est gauche et peut pénétrer directement dans la cage adverse. Le tir de coup franc sanctionne une faute de joueur sur le terrain, par exemple une obstruction en dehors de la surface de réparation, laquelle est définie par la ligne des 22 m de la cage adverse. Il sanctionne aussi une position hors-jeu, c’est-à-dire une attente du ballon, au-delà de la ligne de jeu qui est définie par la ligne arrière adverse (Fig. 3b). Pour affronter la pénalité, l’équipe en cause érige généralement un mur humain de protection de sa cage, ce qui oblige le tireur adverse à envoyer le ballon par dessus ce mur ou à lui communiquer une trajectoire de contournement du mur. Certains joueurs utilisent habilement la force de Magnus, produite par l’air sur le ballon en rotation, ce qui permet au centre de masse C du ballon de suivre une trajectoire 45

DESCARTES ET NEWTON : LES LOIS DU MOUVEMENT

Figure 3

a) Corner. b) Coup franc. c) Penalty.

curviligne de contournement latéral. On peut revoir sur internet quelques coups francs particulièrement réussis, comme celui tiré par le Français Michel Platini, le 18 novembre 1981, lors de la rencontre contre les Pays-Bas. Le coup de pied de réparation ou penalty est accordé lorsqu’une faute est commise par un joueur dans la surface de réparation de son équipe. Le gardien de but, partenaire du joueur fautif, est alors contraint de subir un tir arrêté, envoyé par un adversaire, depuis un point situé à une distance de 11 m de la cage (Fig. 3c). On dit souvent qu’accorder une telle pénalité, c’est pratiquement accorder un but, mais l’expérience montre que cela n’est vrai qu’avec une probabilité de l’ordre de 75 %. Les stratégies du gardien et du tireur sont évidemment différentes. Sachant que le tireur vise un coin de la cage, la distance que doit parcourir le ballon est de l’ordre de 12 m, alors que la vitesse du ballon est d’environ 36 m.s−1 (130 km.h−1 ), la durée de la trajectoire avoisine un tiers de seconde. Il en résulte, pour le gardien, la nécessité de choisir a priori, avant même que le ballon ne soit frappé, le côté vers lequel s’élancer pour l’arrêter. 46

LA PENSÉE EN PHYSIQUE

DESCARTES ET NEWTON : LES LOIS DU MOUVEMENT

CHUTE LIBRE DANS LA MACHINE D’ATWOOD La machine d’Atwood, construite par le physicien anglais George Atwood en 1784, présente un intérêt à la fois historique, pédagogique et scientifique. En effet, Atwood cherchait à réaliser une chute libre (sans frottement) avec une accélération différente de la valeur g du champ de pesanteur et ajustable ; il y parvint à l’aide du montage de la figure 4 constitué de deux masses m 1 et m 2 aux extrémités d’un fil souple et inélastique, enroulé sur une poulie. En outre, l’intérêt pédagogique est dans le traitement de ce système mécanique déformable mais simple, car l’influence des frottements peut être négligée. En appliquant le théorème du centre de masse aux deux massemottes A1 et A2 , soumises à leurs poids et aux tensions du fil, T1 et T2 , on trouve respectivement : m 1 a1 = −m 1 g + T1

et m 2 a2 = m 2 g − T2

avec a1 = a2

puisque le fil est inextensible.

Figure 4 Machine d’Atwood permettant de réaliser une chute libre, d’accélération différente de g.

La poulie étant supposée de masse négligeable, on montre, en outre, à l’aide du théorème du moment cinétique, que T1 = T2 . Il en résulte que : 47

DESCARTES ET NEWTON : LES LOIS DU MOUVEMENT

a1 = a2 =

m2 − m1 g m1 + m2

Une variante récente de cette machine consiste à rendre la machine d’Atwood dansante, en provoquant des oscillations pendulaires du fil supportant la première masse. L’étude approfondie du système mécanique ainsi formé n’a alors aucune solution analytique, sauf dans le cas singulier où le rapport des masses m 2 /m 1 vaut trois 6 .

LOIS DE NEWTON ET RELATIVITÉ GALILÉENNE Référentiels galiléens Les lois de Newton ont été déduites de l’observation des mouvements des corps par rapport au référentiel terrestre. Mais qu’en est-il de leur universalité ? La relativité galiléenne, découverte par Galilée, fournit une première réponse, que confirme la deuxième loi de Newton. En effet, entre deux référentiels galiléens, l’un R et l’autre R′ de vecteur vitesse v e constant par rapport à R, la relation entre les quantités de mouvement d’un même corpuscule est simple : p = mv = m(v′ + v e ) = p′ + mv e . Il en résulte :

1p 1 p′ = . 1t 1t En admettant l’invariance des forces dans le passage de R à R′ , on conclut que la loi de Newton a même expression dans tout référentiel galiléen. Ainsi, contrairement à l’hypothèse de Newton, l’existence d’un référentiel absolu ne se justifie nullement sur le plan scientifique. Curieusement, jusqu’en 1960, soit presque trois cents ans après, on continuait d’enseigner cette chimère, en définissant les référentiels galiléens, non comme ceux par rapport auxquels les lois de Newton 6. Pujol et al., Physica, janv. 2010.

48

LA PENSÉE EN PHYSIQUE

DESCARTES ET NEWTON : LES LOIS DU MOUVEMENT

sont valables, mais par leur mouvement de translation rectiligne uniforme par rapport à un hypothétique référentiel absolu ! Réalisation d’un référentiel galiléen C’est en confrontant l’analyse newtonienne et les résultats expérimentaux que l’on peut affirmer que tel référentiel est galiléen, avec une certaine approximation. Pour les mouvements habituels des objets dans le voisinage de la Terre, on peut dire que le référentiel terrestre, par exemple celui défini par un terrain de football, est galiléen avec une bonne approximation. Ce sont des expériences historiques précises, telles que le pendule de Foucault et la déviation vers l’est des corps en chute libre (cf. Chapitre 4), qui ont permis de révéler les insuffisances galiléennes du référentiel terrestre ; attribuer à ce dernier cette qualité, pour des raisons autres que scientifiques (présence de l’Homme sur la Terre, etc.), aurait impliqué un changement de l’écriture de la deuxième loi de Newton, de la force responsable du mouvement, de la mesure des durées, ou même de celle de la masse, ce que les scientifiques ont rapidement exclu après réflexion. Finalement, le plus simple et le plus efficace fut d’admettre que le référentiel RT , dit géocentrique car d’origine le centre de la Terre, et dont les axes sont définis à l’aide d’étoiles éloignées, était galiléen avec une meilleure approximation que le référentiel terrestre. Lorsqu’il fut question d’expliquer le mouvement des planètes autour du Soleil, il parut naturel de s’extraire de l’environnement terrestre et d’adopter comme référentiel galiléen celui, en translation par rapport au précédent, dont l’origine coïncidait avec le centre de masse du système solaire. Galiléen ou inertiel? On utilise souvent indistinctement galiléen ou inertiel pour qualifier les référentiels par rapport auxquels on doit appliquer les lois de Newton. Nous distinguons ici ces deux qualificatifs pour des raisons épistémologiques. Le premier qualificatif, galiléen, désigne tout 49

DESCARTES ET NEWTON : LES LOIS DU MOUVEMENT

référentiel par rapport auquel la deuxième loi de Newton s’applique correctement sans restriction ; le second, inertiel, caractérise, lui, celui par rapport auquel la première loi peut être réalisée, autrement que par la seule pensée, ce qui revient à préciser dans quelle condition on peut s’affranchir de la gravitation. Peut-être est-ce utile, dans ce contexte, de rappeler que l’espace est défini, en dernière analyse, par la seule gravitation. En bref, on peut s’affranchir de toutes les forces occasionnelles, sauf de la gravitation, à moins d’imposer une limitation des mouvements dans un plan horizontal. C’est ce qui fut pédagogiquement expérimenté dans l’enseignement de la mécanique des lycées ; les tables horizontales à coussin d’air permettaient de réaliser la première loi de Newton, en définissant le centre d’inertie d’un galet, et donc d’éviter la confusion entre inertie et gravité, deux propriétés distinctes de la matière. Tout le mérite d’Einstein, dans sa théorie de la relativité générale, fut de clarifier les problèmes soulevés par cette confusion épistémologique (cf. Chapitre 14). Il existe cependant un cas où cette confusion est tolérée, celui où les forces de gravitation peuvent être négligées devant les autres, comme c’est le cas avec les forces électromagnétiques.

50

LA PENSÉE EN PHYSIQUE

4 Coriolis et Foucault : forces d’inertie et forces de marées

Devant l’énigme posée, au milieu du xixe siècle, par les écarts entre les résultats de plusieurs expériences fines de mécanique et la loi de la dynamique de Newton, le comportement des physiciens fut scientifiquement exemplaire. Comment, en effet, interpréter la déviation vers l’est de la trajectoire de chute libre d’un corps dans le voisinage terrestre ? Même interrogation pour la déviation vers la droite, dans l’hémisphère boréal, de la trajectoire d’un corps en mouvement dans un plan horizontal. Enfin, comment expliquer, comme l’a montré le physicien français Léon Foucault, que le plan d’oscillation d’un pendule simple tourne dans le sens rétrograde d’est en ouest? Plusieurs hypothèses furent avancées pour prévoir de tels écarts aux prévisions de la loi de Newton : une écriture incorrecte de la loi d’attraction universelle, une précision insuffisante sur la mesure des masses, des longueurs, des durées, voire une formulation incorrecte de la loi de Newton?

51

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

L’énigme fut finalement résolue en admettant simplement que la Terre ne réalisait pas un référentiel galiléen avec une précision suffisante, d’où la nécessaire introduction du concept nouveau de forces d’inertie dites aussi forces d’accélération. L’idée de modifier la loi fondamentale de la dynamique pour interpréter certains désaccords avec l’expérience reste encore d’actualité. Dans les années 1970, on a même pensé utile d’introduire de nouvelles forces (cinquième puis sixième forces), avant de constater que les faits expérimentaux en cause n’avaient pas été établis avec le soin nécessaire. Cette idée a ressurgi au xxe siècle avec une nouvelle théorie dite MOND, de MOdified Newton Dynamics, dans le but d’éviter l’introduction d’un concept encore mystérieux celui de «matière noire» (cf. Chapitre 14). L’auteur, un Israélien, Mordehai Milgrom, proposa dans les années 1980 de modifier la loi fondamentale de la dynamique de Newton, en introduisant une accélération constante de valeur très faible a0 = 10−10 m.s−2 (un centième de milliardième de l’accélération de la chute libre). Pour des corps d’accélération très supérieure à a0 , la loi de Newton resterait inchangée. Sinon, on devrait l’écrire, non pas F = ma (cf. Chapitre 3), mais sous la nouvelle forme suivante F = m (a/a0) a. À ce jour, cette théorie n’est pas considérée comme satisfaisante par la majorité des astrophysiciens, et l’interprétation de la matière noire fait encore l’objet d’actives recherches. FORCES D’INERTIE Les forces d’inertie sont fondamentalement dues au caractère privilégié des référentiels galiléens, ce qui implique, pour tout autre référentiel, la nécessité de procéder à une composition des accélérations entre deux référentiels en mouvement l’un par rapport à l’autre. Rappelons que les forces prises en compte dans les référentiels galiléens sont attribuées à des corps situés dans le voisinage proche ou lointain du corps considéré (cf. Chapitre 3).

52

LA PENSÉE EN PHYSIQUE

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

Forces d’inertie d’entraînement L’expérience courante, dans un autobus ou dans le métro par exemple, montre que, si le véhicule qui nous transporte se déplace à vitesse sensiblement constante (en valeur et en direction), nous pouvons sans effort nous maintenir debout, sous l’effet de notre poids et de la force exercée par le plancher, en ne ressentant que quelques légères perturbuations. En revanche, si le véhicule freine ou accélère, nous sommes projetés respectivement en avant ou en arrière. Dans le véhicule, auquel on associe le référentiel R′ , d’origine O ′ , en mouvement accéléré par rapport au référentiel terrestre R, avec l’accélération a O ′ , on ressent une force supplémentaire, dite d’inertie d’entraînement de translation, dont l’expression pour un corps de masse m est −m a O ′ (Fig. 1a).

Figure 1

a) Force d’inertie de translation. b) Force d’inertie centrifuge.

De la même façon, si le véhicule qui nous transporte aborde un virage, autour d’un axe vertical, avec une vitesse v, nous sommes déportés radialement en nous éloignant de l’axe. Pour un corpuscule A, de masse inerte m, cette force a pour expression F i,e = m2 H A, dans laquelle  = v/H A est la vitesse angulaire de rotation du véhicule, et H A le vecteur radial centrifuge défini par la projection H

53

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

de A sur l’axe (Fig. 1b). Cette force supplémentaire, que l’on ressent dans R′ , est la force d’inertie centrifuge ; elle est recherchée dans les manèges des forains. Ajoutons qu’une troisième force d’inertie d’entraînement doit être prise en compte, lorsque la vitesse angulaire  de rotation du véhicule varie au cours du temps. Forces d’inertie de Coriolis En nous déplaçant dans un véhicule R′ , qui aborde un virage, on expérimente une autre force d’inertie, dont la valeur dépend de notre vitesse de déplacement v′ par rapport à R′ ; c’est la force de Coriolis, du nom du Français du xixe siècle Gaspard Coriolis (Fig. 2). Comme les forces précédentes, cette force est proportionnelle à la masse du corps considéré ; elle est, en outre, proportionnelle à sa vitesse v′ dans R′ , à la vitesse de rotation angulaire  du véhicule et au sinus de l’angle que font entre eux ces deux vecteurs. En condensant l’écriture, on obtient l’expression F i,Cor = −2m × v′ qui fait apparaître le produit vectoriel des deux vecteurs  et v′ (cf. Annexe 1).

Figure 2

Force d’inertie de Coriolis.

FORCES D’INERTIE TERRESTRES Si on admet que le référentiel terrestre n’est pas un excellent référentiel galiléen, ce que firent les physiciens au milieu du xixe siècle, 54

LA PENSÉE EN PHYSIQUE

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

il est naturel d’introduire le référentiel géocentrique Rg = T x 0 y0 z 0 , dont l’origine T est le centre de masse de la Terre et les axes définis à l’aide de trois étoiles éloignées. Ce référentiel Rg s’impose naturellement dans l’étude du mouvement de la Lune, le satellite naturel de la Terre, et celui des nombreux satellites artificiels (Fig. 3).

Figure 3 Référentiels de Copernic, géocentrique et terrestre, respectivement notés R0 , Rg et R ; H est la projection orthogonale de O sur T z 0 .

Notons que, pour étudier le mouvement des planètes du système solaire, c’est le référentiel de Copernic R0 = Sx 0 y0 z 0 , S étant le centre de masse du système solaire, qui s’impose ; par rapport à R0 , la trajectoire du centre T de la Terre est une ellipse (cf. Chapitre 6). Quant au référentiel terrestre R = Ox yz, il a pour origine un point O de la surface terrestre, de latitude λ, et ses trois axes Ox, O y, Oz sont choisis respectivement vers l’est, le nord et la verticale ascendante ; cette dernière sera précisée plus loin, à partir de la définition expérimentale du poids. Ajoutons que la Terre a un mouvement de rotation propre autour de son axe de révolution T z 0 , caractérisé par un vecteur vitesse angulaire ⊕ = ⊕ ez 0 dont la valeur est approximativement constante et vaut en radian par seconde le rapport de 2π sur la durée d’un jour en secondes (24 × 3 600), soit approximativement 7,29 × 10−5 rad.s−1 . 55

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

POIDS D’UN CORPS Pour établir la relation entre le poids d’un corps et la force de gravitation correspondante, il est nécessaire de définir expérimentalement le poids, ce qui permet d’obtenir une expression complète mettant clairement en évidence la différence entre le poids et la force de gravitation terrestre. Définition expérimentale Expérimentalement, on définit le poids F p d’un corpuscule A, à la surface de la Terre, par la force opposée à celle qui le maintient en équilibre dans R. Précisément, si A est fixé à l’extrémité d’un fil ou d’un ressort, le poids F p et la tension F T , qu’exerce le fil ou le ressort sur A, se neutralisent, d’où en termes vectoriels F p = −F T (Fig. 4).

Figure 4

Définition expérimentale du poids.

Relativement au référentiel R, supposé galiléen, les forces agissant sur le corps A sont la force de gravitation, due à tous les autres corps situés dans l’environnement, Terre évidemment incluse, et la tension F T qu’exerce le fil. Précisons que cette force de gravitation a pour expression m ⋆ G ( A), dans laquelle m ⋆ désigne sa masse de gravitation et G ( A) le champ de gravitation produit par tout l’environnement. À l’équilibre par rapport au référentiel terrestre R, non galiléen, la loi de Newton donne, en tenant compte de la force d’inertie 56

LA PENSÉE EN PHYSIQUE

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

d’entraînement centrifuge terrestre : 0 = m ⋆ G ( A) + F T + m 2⊕ H A, la force d’inertie de Coriolis terrestre étant nulle, puisque le corps A est au repos dans R. Il en résulte que : F p = −F T = m ⋆ G ( A) + m 2⊕ H A. L’analyse conduit alors à identifier le poids à la somme (vectorielle) de la force de gravitation et de la force d’inertie d’entraînement terrestre. En introduisant cette dernière expression de F p dans l’équation du mouvement dans R, dans laquelle apparaît nécessairement la force de Coriolis terrestre, on obtient : m a A/R = F p + F oc − 2m ⊕ × v A/R Lorsque la force de Coriolis terrestre, F i,Cor = −2m ⊕ × v A/R , est négligeable devant le poids, le référentiel terrestre réalise une excellente approximation d’un référentiel galiléen, encore est-il nécessaire d’introduire le poids à la place de la force de gravitation. Cependant, bien que faible, cette force de Coriolis est responsable des petits écarts signalés en introduction, ce qui prouve que la Terre ne réalise pas parfaitement un référentiel galiléen. Dans les expériences sur la chute des corps (billes métalliques roulant sans glisser sur des plans inclinés), Galilée d’abord (cf. Chapitre 2), Newton ensuite (cf. Chapitre 3) à l’aide de pendules simples de masses égales, mais de constitutions matérielles différentes, établirent indirectement et empiriquement l’égalité m ⋆ = m, en postulant l’universalité de la chute libre. Cette égalité a été considérée comme évidente durant deux siècles, jusqu’à ce que l’Allemand Heinrich Hertz fasse remarquer la singularité de cette identité. Il indique 1 : « ...nous avons là [...] deux des propriétés les plus fondamentales de la matière, qui 1. Über die Constitution der Materie, Hertz, 1884, p. 122.

57

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

doivent être considérées comme étant totalement indépendantes l’une de l’autre, mais dans notre expérience, et seulement dans notre expérience, elles semblent être exactement égales. Cette égalité doit signifier beaucoup plus qu’un simple miracle. [...] Nous devons réaliser clairement, que la proportionnalité entre la masse [grave] et l’inertie doit avoir une explication plus profonde, et ne doit pas être considérée comme sans importance, à l’instar de l’égalité des vitesses des ondes électriques et optiques ». Une trentaine d’années plus tard, Einstein utilisa cette égalité exceptionnelle pour construire sa théorie de la relativité générale (cf. Chapitre 14). L’expérience du tube de Newton, que tout lycéen peut réaliser, à l’aide d’un tube transparent vidé d’air, est très convaincante (cf. Chapitre 2) ; une illustration spectaculaire fut montrée, en 1971, par David Scott, sur la Lune dépourvue d’atmosphère, en abandonnant simultanément un marteau et une plume d’oiseau. On en déduit que les masses m ⋆ et m sont proportionnelles et que, dans un système d’unités adapté, cette proportionnalité se réduit à une égalité. Ce résultat a été vérifié expérimentalement plusieurs fois avec une grande précision relative : 10−11 par le physicien hongrois Loránd Eötvös dans les années 1890, et 10−13 par l’Américain Robert Dicke dans les années 1960 ; dans le projet français MICROSCOPE, qui a été lancé en 2017, on a pu tester l’égalité de ces masses avec une précision relative meilleure encore (10−14 ). Certains scientifiques s’attendent à une légère différence entre m et m ⋆ , lorsque les tests expérimentaux seront encore plus précis. L’égalité m = m ⋆ donne à la gravitation la propriété singulière de dépendre de la masse inerte, et ainsi attribue à cette interaction fondamentale le statut de force d’inertie. Une conséquence immédiate est que la gravitation peut localement disparaître (dans une zone réduite de l’espace), par un choix judicieux de référentiel. C’est là l’essence même de la théorie de la relativité générale, laquelle conduit à remplacer, dans l’espace-temps plat de la relativité restreinte (cf. Chapitre 13), la gravitation par une courbure de l’espace-temps (cf. Chapitre 14). 58

LA PENSÉE EN PHYSIQUE

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

Champ de pesanteur Le champ de pesanteur g, dans le voisinage de la surface terrestre, est le poids d’un corps par unité de masse : g = G ( A) − ae . La direction de g définit la verticale locale et donc la direction de l’axe vertical ascendant Oz de la figure 3. Tout plan perpendiculaire à cette direction est un plan horizontal ; l’intensité g, qui est l’accélération due à la pesanteur, varie avec la latitude. À Paris, où Foucault mit en évidence la rotation de la Terre, à l’aide d’un pendule simple (voir un peu plus loin), g ≈ 9,809 m.s−2 ≈ 9,81 m.s−2 ; à Toulouse, selon le modèle géodésique international : g ≈ 9,804 3 m.s−2 ≈ 9,80 m.s−2 . Ainsi, le champ g qui s’exerce sur un corpuscule A se réduit à la combinaison du champ de gravitation terrestre G ⊕ ( A) et de la force centrifuge terrestre, qui vaut 2⊕ R⊕ cos λ (H O/H O), en négligeant la distance qui sépare A de l’origine O de R (Fig. 3). Aux pôles, la force centrifuge terrestre est évidemment nulle, mais à l’équateur, elle prend sa valeur maximale qui vaut : 2⊕ R⊕ ≈ 3,4 × 10−2 ≈

G⊕ , 172

2 ≈ 9,77 m s−2 . Il en puisque R⊕ ≈ 6 400 km et G⊕ = G M⊕ /R⊕ résulte que le poids à l’équateur serait nul si la Terre, assimilée à un corps sphérique rigide, tournait autour de son axe dix-sept fois plus vite. Notons que, même si la Terre sphérique était concentriquement homogène, la direction de g ne passerait pas par le centre T , excepté aux pôles et à l’équateur (Fig. 5). L’angle entre la direction de g et celle de G ⊕ atteindrait une valeur maximale de 6 arcmin pour λ ≈ 45◦ . À faible vitesse, le poids d’un corps est beaucoup plus grand que la force de Coriolis terrestre : en effet, 2⊕v/g ≤ 0,01 si v ≤ 700 m.s−1 . Ce résultat justifie que l’on ignore, en première approximation, la force de Coriolis terrestre devant le poids.

59

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

Figure 5 Angle entre la direction du champ de pesanteur g et celle du champ de gravitation terrestre G⊕ , à une latitude λ, pour une Terre sphérique concentriquement homogène.

L’effet Eötvös L’effet Eötvös est la variation du poids d’un corps lorsque ce dernier se déplace sur la surface de la Terre, le long d’un parallèle, défini par une valeur constante de la latitude. Il porte le nom du physicien hongrois Eötvös, qui l’a découvert en 1908, alors qu’il effectuait des mesures de pesanteur à bord d’un bateau sur la mer Noire (λ ≈ 45◦ ), en mouvement vers l’est, puis vers l’ouest, à une vitesse d’environ vb = 25 m.s−1 . Eötvös a montré que la différence entre les champs de pesanteur mesurés sur le bateau, d’abord en mouvement vers l’est, puis en mouvement vers l’ouest, avait pour expression 4T vb cos λ. Dans l’expérience historique, l’auteur mit en évidence cet effet à l’aide d’une masse de 10 kg suspendue à un ressort dont l’autre extrémité était solidaire du bateau. Il a pu confirmer son analyse bien que la différence des deux champs de pesanteur n’était que de 5 × 10−4 m.s−2 .

PENDULE DE FOUCAULT Il existe plusieurs manières d’expliquer le comportement du célèbre pendule de Foucault, mais nous recommandons celle exposée par 60

LA PENSÉE EN PHYSIQUE

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

Figure 6

Effet Eötvös.

Léon Foucault lui-même, à l’Académie des sciences, le 3 février 1851. L’analyse fine de cette expérience permet d’illustrer un résultat essentiel en physique : les référentiels galiléens semblent être dotés d’un privilège mystérieux ; c’est ce mystère qu’élucida aussi Einstein (cf. Chapitre 14). Expérience historique Dans sa publication originale, Foucault fit remarquer qu’il était possible de mettre en évidence et de mesurer la vitesse de rotation ⊕ de la Terre autour de l’axe de ses pôles, sans l’aide des étoiles, en étudiant seulement le mouvement d’un pendule simple par rapport au référentiel terrestre R. C’est ce qu’il établit expérimentalement dans sa cave, et qui lui suggéra de chercher une explication simple en se plaçant par la pensée au pôle nord. Sur une boule B, de faible diamètre et de masse m, suspendue à l’extrémité basse d’un fil inextensible, de longueur l, l’autre extrémité S étant attachée à un point fixe du référentiel terrestre R, deux forces s’exercent a priori (Fig. 7a) : le poids m g et la tension F T du fil. Comme cette dernière s’écrit aussi −(FT /l)SB, la loi de Newton donne : ma B/R = m g − (FT /l) SB, où a B/R désigne l’accélération de B par rapport à R. La tension FT valant approximativement mg, 61

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

Figure 7 R′ .

a) Pendule de Foucault. b) Mouvement horizontal dans le référentiel optimal

dans le cas de faibles écarts par rapport à la verticale, on obtient, en nous limitant aux contributions verticales des forces : ma B/R ≈ −

mg OB l

soit

a B/R + ω02 O B ≈ 0

en posant ω02 = g/l. L’absence de la masse dans cette équation ne doit pas surprendre ; elle est due évidemment à la simplification des masses grave et inerte. Dans le cas d’un écart angulaire initial de faible amplitude, le mouvement de B est celui d’un oscillateur horizontal bidimensionnel, de période T0 = 2π/ω0 = 2π(l/g)1/2 . Pour des écarts supérieurs à 10°, la période dépend de l’amplitude maximale. Ce dernier résultat échappa à l’analyse de Galilée lui-même, car il affirma que « ... le pendule écarté de son point le plus bas, tantôt de quatre-vingt dix degrés, tantôt d’un demi-degré seulement, ait besoin du même temps pour franchir le plus petit et le plus grand de ces arcs ». 2 En effet, en ce lieu, le pendule, suspendu au point fixe S, puis écarté de sa position d’équilibre et abandonné à son poids m g et à la tension 2. Galilée-1638-Hawking, p. 145.

62

LA PENSÉE EN PHYSIQUE

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

du fil F T , a, par rapport à Rg , un mouvement oscillatoire dans un plan fixe déterminé par les conditions initiales. Aussi, dans R, qui tourne par rapport à Rg avec la vitesse angulaire ⊕ , ce plan semble effectuer une rotation autour de l’axe polaire, dans le sens rétrograde est-ouest, avec une période de révolution T p de 24 heures (Fig. 7b). L’expérience a été refaite en mars 1851, sous la coupole du Panthéon (latitude λ ≈ 48◦ 51′ ), avec les caractéristiques suivantes : masse m = 28 kg et longueur du câble l = 67 m. À la latitude λ, seule la composante du vecteur rotation ⊕ selon la verticale ascendante Oz joue un rôle effectif, précisément v = ⊕ sin λ ez (Fig. 7a). Il en résulte une période de révolution de son plan d’oscillation égale à : Tp =

2π 2π = ≈ 31 h 52 min. v ⊕ sin λ

La projection de la masse de la boule B dans le plan horizontal décrit une ellipse dont le rapport des axes vaut : b ⊕ sin λ ω0 ⊕ sin λ T0 sin λ = = = ≈ 10−4 , 2 a ω0 TJ ω0 puisque TJ ≈ 365,25 × 24 × 3600 ≈ 86 400 s et T0 = 2π (l/g)1/2 ≈ 16,4 s. À l’équateur où λ = 0◦ , le plan d’oscillation du pendule reste immobile par rapport à R (T p = ∞), mais tourne par rapport à Rg . Le développement mathématique complet du pendule de Foucault fut publié par l’astronome mathématicien italien Giovanni Plana, quelques semaines plus tard après sa visite de l’exposition au Panthéon. Référentiel local optimal On peut retrouver le résultat précédent en évitant d’écrire la loi de Newton dans le référentiel terrestre R, et donc sans introduire de force de Coriolis. Il suffit pour cela de trouver un référentiel local optimal R′ , en mouvement de rotation par rapport à R, tel que la rotation de 63

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

ce dernier par rapport à Rg soit compensée par une rotation convenable de R′ par rapport à R. Le référentiel R′ est donc en translation circulaire par rapport à Rg , mais sans les propriétés galiléennes de ce dernier, car son origine O est accélérée par rapport à Rg . Dans le référentiel R′ , qui tourne autour d’un axe vertical à la vitesse angulaire ⊕ sin λ, dans le sens rétrograde est-sud-ouest, le mouvement du pendule s’effectue pratiquement dans un plan fixe. Finalement, le référentiel local optimal pour décrire efficacement le mouvement du pendule n’est pas le référentiel terrestre R, mais R′ qui tourne autour de la verticale par rapport à R, dans le sens rétrograde (Fig. 7b). Comme une simple analyse qualitative permet de le prévoir, le calcul confirme que, dans l’hémisphère sud, où λ < 0, la rotation de R′ s’effectue dans le sens direct ouest-nord-est. Dans ce référentiel optimal R′ tournant autour de l’axe Oz du référentiel terrestre R, à la vitesse angulaire constante ⊕ sin λ, l’angle de rotation après un tour complet de la Terre (durée 2π/ ⊕), autour de son axe polaire, vaut −2π sin λ, le signe moins traduisant le sens rétrograde. Ainsi, après une rotation complète de la Terre, le pendule ne se retrouve pas exactement dans son état initial : un terme, dit de phase géométrique, distingue les deux états initial et final ; ce terme −2π sin λ est la différence de phase entre deux pendules de Foucault synchronisés et excités au même lieu, dans les mêmes conditions, mais avec un décalage temporel de 24 h. En outre, les angles étant déterminés à 2π près, la phase géométrique s’écrit aussi 2π(1 − sin λ), ce que l’on peut relier à la structure géométrique du champ gravitationnel produit par la Terre, supposée parfaitement sphérique. Ce résultat est une manifestation concrète d’un théorème mathématique, dit de GaussBonnet, qui relie la phase géométrique à la courbure de la surface considérée.

64

LA PENSÉE EN PHYSIQUE

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

L’angle de précession peut être relié au concept de transport parallèle d’un vecteur qui est, par définition, le déplacement d’un vecteur V , le long du chemin le plus court entre deux points (appelé géodésique) sur une surface quelconque, ici sphérique, de telle sorte que la valeur de V et l’angle que fait ce vecteur avec la géodésique demeurent constants. Ainsi l’expérience du pendule de Foucault permet d’illustrer, en dehors même de la mise en évidence de la rotation de la Terre, deux aspects souvent méconnus. Le premier est que le référentiel le plus apte à décrire le mouvement du pendule n’est pas le référentiel terrestre R, mais le référentiel local R′ qui tourne autour de la verticale par rapport à R, avec la vitesse angulaire −⊕ sin λ ; le système de coordonnées de R′ convient aussi bien que Rg pour exprimer simplement les lois de la mécanique, bien qu’il soit non galiléen en raison de son mouvement de translation accélérée par rapport à Rg . Ce résultat illustre le point de vue avancé d’Einstein, en relativité générale, selon lequel on peut trouver localement un système optimal d’expression des lois de la dynamique (cf. Chapitre 14). Le second est que le pendule fait apparaître une phase géométrique reliée au champ de gravitation produit par la Terre et à la surface sphérique de cette dernière 3 .

MARÉES Sur Terre, on désigne habituellement par marées les phénomènes biquotidiens de flux et de reflux de la mer que l’on observe sur le littoral ouest français ; ce sont les marées océaniques. L’analyse des causes de ces phénomènes a conduit à élargir le concept aux marées dans un satellite artificiel. Marées océaniques Très tôt, on a attribué les marées océaniques à l’influence de la Lune et aussi du Soleil, avec une contribution deux fois plus faible pour ce 3. Weight, gravitation, inertie and tides, EJP, 38, 2015.

65

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

dernier. Comme le flux et le reflux de la mer traduisent finalement une variation au cours du temps de la pesanteur en un lieu donné, il est naturel d’établir une expression encore plus précise du poids d’un corps. On obtient cette dernière, d’une part en tenant compte du champ gravitationnel G a ( A) créé, en un point A de la Terre, par l’ensemble des autres corps astrophysiques dans l’environnement proche ou lointain (Lune, Soleil, etc.), d’autre part en ajoutant la contribution de l’accélération a T /R0 du centre de la Terre par rapport au référentiel de Copernic R0 . On trouve alors l’expression plus précise suivante du champ de pesanteur terrestre : g ≈ G ⊕ ( A) + 2⊕ H A + [G a ( A) − G a (T )]. Elle se distingue de celle déjà donnée par le champ gravitationnel différentiel G a ( A) − G a (T ) associé à la présence des corps autres que la Terre. Plaçons-nous dans le cas simple où le vecteur T K , reliant le centre de masse T de la Terre à celui K d’un astre quelconque, est contenu dans le plan équatorial terrestre et admettons que les astres présentent la symétrie sphérique (Fig. 8) : le champ de gravitation, produit par un astre, en un point extérieur, est le même que celui créé par toute la masse concentrée en son centre.

Figure 8

66

Existence de deux marées océaniques par jour.

LA PENSÉE EN PHYSIQUE

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

Sur la figure 8, on a représenté le vecteur G K ( A) − G K (T ) : tout se passe comme si A était soumis à un champ de répulsion de la part du plan méridien perpendiculaire à la direction de K T et proportionnel à la distance du point à ce plan. Au cours d’une révolution complète autour de l’axe T z 0 , le point A de la surface de la Terre, représentant par exemple un élément de liquide océanique, est soumis deux fois à une force maximale de répulsion, à environ douze heures d’intervalle, ce qui établit l’existence de deux marées quotidiennes. C’est ce que l’on observe sur la côte atlantique en France. Les effets de la Lune et du Soleil, qui sont les plus importants et dans le rapport 2,18 à l’avantage de la Lune, peuvent s’ajouter ou au contraire s’opposer ; au cours d’une lunaison, ils s’ajoutent aux syzygies, lorsque le Soleil, la Terre et la Lune sont alignés, c’est-à-dire à la pleine et à la nouvelle Lune (marées de viveeau) ; ils s’opposent au contraire aux quadratures, lors des premier et dernier quartiers (marées de morte-eau). D’une journée à l’autre, en raison du mouvement orbital de la Lune autour de la Terre, on observe un décalage des heures de marée. Pour que la Lune se retrouve dans la même position que la veille, il faut attendre que la Terre ait effectué une rotation complète augmentée de l’angle de déplacement de la Lune sur son orbite pendant un jour. Le décalage horaire des marées est de l’ordre 50 min par jour. Au cours d’une année, l’action du Soleil varie puisque, par rapport à la Terre, cet astre évolue dans le plan de l’écliptique (plan de la trajectoire plane du centre de la Terre autour du Soleil), lequel fait un angle de 23◦ 26′ avec le plan équatorial (perpendiculaire au vecteur de rotation ⊕ de la Terre autour de son axe). Deux fois dans l’année, au moment des équinoxes de printemps et d’automne, lorsque le Soleil traverse le plan équatorial, sa contribution aux marées est maximale (marées d’équinoxes). En France, on introduit, depuis le xixe siècle, des coefficients de marées qui varient linéairement avec le marnage, c’est-à-dire la dénivellation verticale entre la haute et la basse mer. Arbitrairement, on a 67

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

affecté la valeur 20 à une marée de morte-eau inhabituelle et la valeur 120 à une marée de vive-eau exceptionnelle. Par exemple, lors de la marée du 10 mars 1997, le coefficient valait 119. L’amplitude des marées peut varier beaucoup d’un point à un autre du globe. On explique cette grande variation en faisant intervenir la résonance entre deux mouvements périodiques, le premier lié aux marées, dont la période est d’environ 12 heures, et le second associé aux oscillations propres des masses fluides dans les fonds marins. Dans certains sites, l’influence des dimensions, de la forme et de la profondeur des fonds marins est telle que les marées sont négligeables (c’est le cas en Méditerranée), ou que leur période diffère sensiblement de 12 heures. De façon anecdotique, le calcul de l’effet de marée, qu’exerce la Lune, distante de D L , entre la tête et les pieds d’une personne, de taille h = 1,80 m, étendue selon la direction de l’astre, donne : 3h G M L / D 3L ≈ 0,47 × 10−12 N.kg−1 , ce qui est négligeable. Marées dans un vaisseau spatial Puisque les forces de marées ont pour origine le caractère non uniforme d’un champ de gravitation extérieur, elles doivent aussi se manifester dans un vaisseau spatial. Relativement à un référentiel galiléen R0 , un vaisseau spatial non propulsé est en translation accélérée en raison de la présence du champ de gravitation extérieur G ex (Fig. 9). La loi de Newton appliquée au vaisseau, de centre de masse C et de masse M, donne : M aC = M G ex,m , où G ex,m est le champ gravitationnel extérieur moyen. Avec une bonne approximation, on peut admettre que G ex,m ≈ G ex (C). En outre, l’équation du mouvement d’un corpuscule A, de masse m, dans le référentiel du centre de masse R⋆ du vaisseau, s’écrit : ma⋆ = m G ex ( A) − maC + F oc , F oc étant la somme des forces occasionnelles (tension d’une corde, d’un ressort, etc.). Comme le mouvement du centre de masse C du 68

LA PENSÉE EN PHYSIQUE

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

Figure 9

Marées dans un vaisseau spatial.

vaisseau, de masse Mv , est tel que Mv aC = Mv G ex (C), on obtient : ma⋆ = F oc + m[G ex ( A) − G ex (C)]. Le terme différentiel de marées Gex ( A)− G ex (C) apparaît alors clairement. Cependant, il est le plus souvent négligeable, comme dans la Station Spatiale Internationale ISS (International Spatial Station), située à l’altitude de 400 km ; entre deux points de la station distants de 50 m, ce terme différentiel vaut : Gex (C) − Gex ( A) ≈ 0,1 × 10−3 m.s−2 , ce qui est négligeable. Ainsi, dans une station spatiale, la loi de Newton, appliquée à un corpuscule de masse m, soumis à aucune force occasionnelle, se réduit à la contribution des marées ma⋆ = m[G ex ( A) − G ex (C)]. Lorsque cette dernière est négligeable, comme c’est souvent le cas, le référentiel R⋆ devient, avec une très bonne approximation, un référentiel inertiel, c’est-à-dire un référentiel dans lequel la loi de l’inertie peut être réalisée : a⋆ = 0 et donc p⋆ est une constante vectorielle. C’est ce résultat, provenant de l’égalité (m = m ⋆ ), qui a inspiré Einstein dans l’élaboration de la théorie de la relativité générale (cf. Chapitre 14).

69

CORIOLIS ET FOUCAULT : FORCES D’INERTIE ET FORCES DE MARÉES

Un autre exemple est celui d’un astéroïde dans un environnement planétaire. Les forces de marées peuvent être suffisamment intenses pour briser l’astéroïde ; on attribue la formation des anneaux de Saturne à ce type de forces. Dans ce contexte, on introduit la limite de Roche, du nom de l’astronome français du xixe siècle Édouard Roche, ou distance de séparation critique entre un astéroïde et un astre pour laquelle les forces de marées deviennent égales aux forces de cohésion de l’astéroïde.

70

LA PENSÉE EN PHYSIQUE

5 Young et Mayer : le concept d’énergie

Le mot « énergie » est probablement l’un des mots les plus utilisés dans le langage courant, et cependant l’un des plus difficiles à définir de façon précise, même par les scientifiques. La confusion avec le travail est fréquente sous le prétexte peu convaincant de grandeurs de même dimension physique. Cette propriété implique seulement une égalité ou une proportionnalité conjoncturelle. La confusion entre énergie et chaleur est, elle aussi, très répandue, même dans les ouvrages universitaires, cela malgré une distinction historique entre les unités employées, le joule et la calorie. Un rappel historique de l’usage du mot « énergie » s’avère alors nécessaire, car, plus que pour d’autres concepts, un tel rappel s’impose, compte tenu de la définition subtile de ce concept. Le mot vient du grec « énergeia » qui signifie force en action. Il semble avoir été introduit, dès le début du xviiie siècle, vers 1717, par le mathématicien et physicien suisse Jean Bernoulli, pour désigner le travail d’une force au cours d’un déplacement élémentaire. Plus intéressant, il avait déjà été introduit indirectement par l’Allemand Wielfried 71

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

Leibniz en 1678, sous la forme d’une quantité qui se conservait dans la chute libre : la somme de la « force vive » associée à la vitesse d’un corps, et de la « force morte » directement liée à son poids. L’Anglais Thomas Young (cf. Chapitre 12), célèbre pour ses travaux en optique, le réintroduit en 1807. Jusqu’en 1850, il n’existe pratiquement aucun lien entre ce concept purement mécaniste et celui de chaleur que les chimistes introduisent naturellement dans les réactions chimiques. Sous l’action des Anglais John Rankine, James Joule et de l’Américain Benjamin Thomson (futur comte de Rumford et époux de la veuve du chimiste français Antoine Lavoisier), l’hypothèse initiale erronée de Sadi Carnot, selon laquelle « la chaleur se conserverait », est abandonnée, et l’existence d’un lien entre énergie, travail et chaleur est admise. C’est alors qu’apparaissent, pratiquement en même temps, dans cette période de l’ère industrielle naissante, deux concepts nouveaux, l’énergie totale et l’entropie (cf. Chapitre 8), à la base des fondements de la thermodynamique. À l’analyse, on peut dire que l’histoire du concept d’énergie est celle de la recherche, consciente ou inconsciente, d’une grandeur associée à tout système, qui soit conservative, c’est-à-dire qui ne peut être ni créée ni détruite, mais seulement transformée. Dans la suite, on utilisera le langage algébrique en considérant la perte comme un gain négatif, un peu comme on le fait avec un compte bancaire. Dans le langage courant, le mot énergie est employé généralement pour exprimer la capacité qu’a un système à fournir au milieu extérieur du travail ou de la chaleur. On dira par exemple d’une personne qu’elle a de l’énergie lorsqu’elle manifeste rapidement une volonté pour améliorer son environnement ; on dira aussi que les centrales solaires, formées de capteurs solaires ou de capteurs photovoltaïques, fournissent du travail électrique en transformant l’énergie électromagnétique reçue du Soleil. Les centrales thermiques à charbon ou à gaz font la même chose en consommant des produits fossiles, avec l’inconvénient d’aggraver le réchauffement climatique par émission de 72

LA PENSÉE EN PHYSIQUE

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

dioxyde de carbone gazeux au lieu de vapeur d’eau. Quant aux centrales nucléaires, elles utilisent l’énergie de fission des noyaux lourds d’uranium 235 pour fournir du travail électrique, sans l’inconvénient d’émettre du dioxyde de carbone, mais avec celui d’entreposer sous Terre des déchets nucléaires de longue période d’activité ; notons qu’un traitement de ces déchets par rayonnement laser, de très grande intensité, est envisagé depuis quelques années (cf. Chapitre 20).

ÉNERGIE MÉCANIQUE C’est en mécanique que le concept d’énergie a été initialement élaboré, d’abord celui d’énergie cinétique. Énergie cinétique L’énergie cinétique d’un corpuscule, de masse m et de vitesse v, est la quantité suivante, directement reliée à sa masse et au carré de sa vitesse : 1 p2 E k = mv2 ou Ek = 2 2m si l’on introduit sa quantité de mouvement p = mv. Le facteur 1/2 se justifie en multipliant scalairement les deux membres vectoriels de la loi de Newton par le vecteur déplacement élémentaire v 1t, produit de la vitesse par la faible durée 1t :  2 1v mv m · v 1t = 1 1t 2 Pour un système, constitué d’un ensemble de corpuscules, l’énergie cinétique Ek est simplement la somme des énergies cinétiques de tous ses éléments. À l’analyse, elle se réduit à deux contributions. La première est celle de son centre de masse C, qui est le seul point du système dont la trajectoire demeure rectiligne lorsqu’il n’est soumis à aucune force (cf. Chapitre 3) ; elle vaut MvC2 /2, si M est sa masse

73

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

totale. La seconde, d’expression plus complexe, est celle associée au mouvement des différents points autour de C. Énergie potentielle Contrairement à l’énergie cinétique d’un corps, l’énergie potentielle E p est associée aux forces, dites conservatives, qui s’exercent sur lui, par exemple la force de pesanteur. Ainsi, l’énergie potentielle d’un corps de masse m, situé à une hauteur h du sol, vaut mgh. Au cours de sa chute libre dans le vide (cf. Chapitre 2), son énergie potentielle diminue au profit de son énergie cinétique de telle sorte que leur somme se conserve. C’est ce constat qui est à l’origine de l’introduction du facteur 1/2 dans la définition de l’énergie cinétique : mgh se transforme progressivement en mv2 /2. De façon générale, les forces sont dites conservatives lorsqu’elles participent à la conservation d’une grandeur énergétique. C’est le cas de la force de gravitation attractive entre deux masses (cf. Chapitre 6) ou de la force d’interaction entre deux particules électriquement chargées (cf. Chapitre 16). Ces forces présentent un caractère fondamental puisqu’elles sont, d’une part, d’expressions simples et, d’autre part, elles sont présentes à l’échelle microscopique en se manifestant par leurs énergies potentielles associées. Les autres forces, dites d’ingénieur, sont généralement non conservatives. On compte parmi elles les forces de frottement visqueux ou solide. Leurs expressions se compliquent lorsque la précision exigée augmente. Énergie mécanique d’un système On définit l’énergie mécanique Em d’un système par la somme de son énergie cinétique Ek , de son énergie potentielle E p,ex associée aux forces extérieures conservatives, mais aussi de celle E p,in reliée aux forces intérieures conservatives. Rappelons que les premières sont celles que l’extérieur exerce sur le système, alors que les secondes représentent les interactions entre ses différentes parties ; ajoutons que ces

74

LA PENSÉE EN PHYSIQUE

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

énergies potentielles peuvent être aussi de nature électromagnétique. Lorsque le système est soumis exclusivement à des forces dérivant d’une énergie potentielle, l’énergie mécanique totale Em = Ek + E p,ex + E p,in est une constante. Relation entre énergie mécanique et travaux des forces Sous l’influence des forces extérieures ou intérieures, qui ne dérivent pas d’une énergie potentielle, l’énergie mécanique n’est pas constante, et sa variation est égale à la somme des travaux des forces extérieures et intérieures, non conservatives : (nc) (nc) 1Em = Wex + Win .

Le travail est désigné par W , première lettre du mot anglais « work » qui signifie travail, et non par T en raison de la confusion phonétique possible avec le temps t, paramètre d’évolution. Énergie mécanique Em et travail W sont des concepts de même dimension physique, mais distincts, bien qu’ils soient malheureusement souvent confondus, car le premier ne dépend pas de la façon dont l’état mécanique présent a été atteint, alors que le second, qui exige un déplacement du point où s’exerce la force d’interaction associée, en dépend. Dans ce contexte, le travail apparaît essentiellement comme un transfert d’énergie. L’équation précédente doit être interprétée comme un bilan d’énergie dans lequel le membre de gauche représente la variation d’énergie mécanique et le membre de droite les causes de cette variation, ces dernières étant respectivement le travail des forces non conservatives, extérieures et intérieures. Ajoutons que ces travaux peuvent être positifs ou négatifs ; lorsqu’ils sont positifs, ils contribuent à augmenter l’énergie mécanique ; au contraire, s’ils sont négatifs, l’énergie mécanique diminue.

75

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

Conditions de conservation de l’énergie mécanique L’énergie mécanique d’un système ne se conserve que si le travail des forces extérieures et intérieures non conservatives est nul. Si le système est isolé, c’est-à-dire s’il n’y a pas de travail des forces extérieures, l’énergie mécanique ne se conserve pas, précisément en raison du travail des forces intérieures, ce travail jouant le rôle d’une source de production d’énergie mécanique. On dit que l’énergie mécanique n’est pas une grandeur conservative. La question qui vient immédiatement à l’esprit est alors la suivante : peut-on généraliser l’énergie mécanique en un nouveau concept énergétique qui soit, lui, conservatif, c’est-à-dire sans possibilité de création ? La réponse affirmative constitue précisément le premier principe de la thermodynamique. Aspect énergétique dans le football L’énergie cinétique Ek du ballon présente deux contributions, celle de son centre de masse MvC2 /2 qui s’écrit aussi v C · Mv C /2 et celle de son mouvement autour de C, d’expression analogue C · L C /2. Quant à son énergie potentielle, elle se réduit dans ce cas à la contribution de la pesanteur, soit Mgz C , z C étant la hauteur du centre de masse au-dessus du sol. Un joueur imprime au ballon une vitesse initiale de son centre de masse et une vitesse angulaire de rotation sur lui-même ; lorsqu’il veut transmettre le ballon à un équipier éloigné, il vise la direction définie par l’équipier, en évitant de donner au ballon une trop grande vitesse angulaire. Concernant le travail des forces de frottement, dont on sait qu’il ne peut pas être associé à une énergie potentielle, il est le plus souvent négatif ou nul. On distingue généralement deux types de frottement. Le premier est le frottement visqueux, qui dépend de la vitesse, de façon plus ou moins compliquée, selon la précision souhaitée ; c’est ici celui que l’air extérieur exerce sur le ballon. Le second est le frottement solide, indépendant de la vitesse ; on doit le prendre en compte lorsque le ballon reste en contact avec la pelouse. Ce frottement joue un rôle décisif lorsque le ballon glisse sur le sol ; dans le cas fréquent où le 76

LA PENSÉE EN PHYSIQUE

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

ballon roule sans glisser, son influence énergétique peut être négligée, car la vitesse du point du ballon en contact avec la pelouse est alors nulle (cf. Chapitre 3). Si le ballon est bien gonflé, il se comporte pratiquement comme un solide, au point que l’énergie potentielle et le travail associés aux forces intérieures peuvent être négligés. Un paradoxe aisément levé Un véhicule roule, sur une route rectiligne horizontale, à la vitesse constante vi par rapport au référentiel terrestre R ; l’influence des frottements est négligeable. Le conducteur accélère brutalement le véhicule jusqu’à la vitesse v f . Il en résulte, par rapport à R, la variation d’énergie cinétique 1Ek = m(v2f − vi2 )/2. Dans le référentiel R′ , en translation rectiligne uniforme par rapport à R, à la vitesse d’entraînement v i , la variation d’énergie cinétique vaut : 1Ek′ =

m ′2 2 (v − v′i ) 2 f

soit 1Ek′ =

m (v f − v i )2 . 2

puisque v ′i = v i − v e = 0 et v ′f = v f − v e = v f − v i . Ainsi 1Ek′ 6 = 1Ek , ce qui n’est pas surprenant puisque l’énergie cinétique est relative au référentiel considéré. Qu’en est-il de la consommation du véhicule qui, au contraire, doit être la même ? Pour y répondre, appliquons le théorème de l’énergie par rapport aux deux référentiels R et R′ , en notant que l’énergie potentielle de pesanteur reste constante au cours du mouvement dans (nc) un plan horizontal, et en tenant compte du travail Win des forces intérieures au véhicule. C’est précisément ce dernier, indépendant du référentiel considéré, qui est proportionnel à la consommation de carburant et non la variation d’énergie cinétique. La différence entre les variations d’énergie cinétique provient du travail de la force de réaction qu’exerce le sol sur les roues. Dans R, la puissance de cette force est nulle, en raison du roulement sans glissement, contrairement à sa puissance dans R′ . La consommation 77

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

(nc)

′(nc)

d’essence est donnée, soit par Win , soit par Win , peu importe, c’est la même ! Dans R, elle est égale à la seule variation d’énergie cinétique 1Ek ; en revanche, dans R′ , ce n’est pas le cas 1 .

LE PREMIER PRINCIPE DE LA THERMODYNAMIQUE Le premier principe de la thermodynamique, appelé aussi principe de la conservation de l’énergie, apparaît comme une généralisation du théorème de l’énergie mécanique précédent. Cette extension, pressentie par le médecin allemand Julius von Mayer, dès 1842, fait apparaître alors, d’une part une nouvelle énergie l’énergie interne U , d’autre part un second terme d’échange la chaleur Q, selon : (nc) 1E = Wex +Q



E = Ek + U + E p,ex

est l’énergie totale du système. Comme le travail, la chaleur est une quantité algébrisée : si elle est fournie au système, elle est comptée positivement, et si, au contraire, elle lui est retirée, elle est négative. Cette convention identique pour ces deux transferts est relativement récente, car pendant longtemps on s’est intéressé exclusivement aux moteurs thermiques, lesquels fournissent du travail et reçoivent globalement de la chaleur. En outre, la chaleur était incorrectement assimilée à une énergie, alors que ce n’est qu’un transfert d’énergie, car, comme le travail, elle ne caractérise pas l’état d’un système 2. Dans ce contexte, en 1841, l’Anglais James Joule découvre la conversion du travail électrique en chaleur, lors du passage d’un courant électrique stationnaire I dans un conducteur de résistance électrique (nc) R. Comme 1E = 0 et Wex = RI 2 1t, pendant la durée 1t de l’expérience, il obtient, pour la chaleur reçue par le conducteur, Q = −RI 2 1t, le signe moins indiquant que la chaleur est fournie au milieu extérieur. 1. BUP, n° 994, 2017. 2. Cette confusion persiste malheureusement, encore aujourd’hui, dans des ouvrages actuels, voire dans des publications spécialisées récentes.

78

LA PENSÉE EN PHYSIQUE

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

L’énergie interne comporte différentes contributions : d’abord (m) l’énergie cinétique microscopique Ek , associée au mouvement des très nombreuses particules qui composent chaque élément de volume, indépendamment du mouvement éventuel de l’élément par rapport au référentiel du laboratoire, ensuite l’énergie potentielle associée aux forces intérieures fondamentales E p,in , de nature microscopique ou macroscopique, enfin la somme des énergies de masse des particules, telles qu’elles s’introduisent naturellement en relativité (cf. Chapitre 13) : X (m) U = Ek + E p,in + m α c2 , α

c étant la constante d’Einstein (cf. Chapitre 1). Le bilan énergétique du premier principe montre que, en l’absence des termes d’échange par travail et par chaleur, l’énergie totale d’un système se conserve, d’où l’autre nom « principe de conservation de l’énergie » donné à ce principe 3 . En 1845, le physicien anglais James Joule proposa de vérifier le premier principe de la température, sur une cascade d’eau de hauteur h = 245 m, cela en mesurant la variation de température entre le haut et le bas de la cascade 4 . Comme l’échange d’énergie avec l’extérieur est nul, ainsi que la variation d’énergie cinétique, la conservation de l’énergie donne simplement : 1U +1E p,ex = 0 soit MCv 1T −Mgh = 0 et 1T =

gh ≈ 0,57 °C CV

puisque g ≈ 9,8 m.s−2 et C V ≈ 4,186 J. C’est le résultat obtenu par Joule, qu’il obtint évidemment en degré Farenheit : 0,57×9/5 ≈ 1 °F (cf. Chapitre 7).

3. La conservation de l’énergie fait évidemment penser à l’expression historique de Lavoisier sur la masse, « Rien ne se crée, rien ne perd, tout se transforme ». 4. J. Joule, Philosophical Magazine, vol. 27, p. 205, London, 1845.

79

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

Quelques années plus tard, en 1847, l’Allemand Hermann Helmoltz publie un mémoire, dans lequel il énonce clairement la conservation de l’énergie d’un système isolé ; il y souligne l’absence de création d’énergie totale pour un système et la seule conversion possible des différentes formes d’énergie. Malheureusement, il utilise le mot « Kraft », qui signifie force en allemand, au lieu de « Energie » 5 . Actuellement, on préfère écrire le premier principe de la thermodynamique sous la forme d’un bilan énergétique : la variation de l’énergie totale d’un système présente un terme d’échange E (e) , égal à la somme du travail et de la chaleur, et un terme de création E (c) qui est nul : 1E = E (e) + E (c)

(nc) avec E (e) = Wex +Q

et E (c) = 0

L’hypothèse de l’existence d’un terme de création d’énergie, en dehors de l’échange d’énergie par travail ou par chaleur, conduit à des évolutions jamais observées, appelées mouvements perpétuels de première espèce. On voit que le premier principe de la thermodynamique rapproche les concepts de travail et de chaleur, lesquels furent introduits séparément au cours de l’histoire, avec des unités physiques différentes, le joule (J) pour le travail, la calorie (cal) pour la chaleur. Ce sont tous deux des échanges d’énergie, qui peuvent se transformer totalement l’un en l’autre lorsque l’énergie reste constante ; c’est ce que montra expérimentalement Joule en 1847 ; il en déduisit un coefficient de conversion des deux unités dont la valeur est J ≈ 4,186 J.cal−1 . De nos jours, en dehors de quelques domaines restreints, dans lesquels les scientifiques restent encore attachés, soit par paresse soit par coquetterie élitiste, à des pratiques obscures anciennes, on mesure travail et chaleur avec la même unité, le joule, ou l’un de ses multiples le kilojoule (kJ), le mégajoule (MJ), le gigajoule (GJ) ou le térajoule (TJ), respectivement mille, un million, un milliard, mille milliards de joules. 5. Über die Erhaltung de Kraft, H. Helmoltz, Berlin, 1847.

80

LA PENSÉE EN PHYSIQUE

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

TRANSFORMATIONS ÉNERGÉTIQUES L’énergie ne pouvant être créée, mais seulement transformée, l’expression souvent employée, « production d’énergie », se réfère en réalité à la création d’un type particulier d’énergie, autrement dit à la transformation d’une forme d’énergie en une autre, souvent plus commode d’utilisation ou moins polluante. Dans les centrales hydroélectriques, c’est l’énergie potentielle de pesanteur de l’eau des lacs artificiels qui est transformée en travail électrique, au pied des montagnes. Le bilan énergétique s’écrit 1E p,ex = W (nc) , puisque l’on peut supposer dans ce cas que 1U = 0, 1Ek = 0 et Q = 0. Dans les réactions chimiques, telles que la combustion d’hydrocarbures, c’est de l’énergie d’origine électromagnétique qui est mise en œuvre, celle issue de la rupture de toutes les liaisons C-C (carbonecarbone) et C-H (carbone-hydrogène) et celle associée à la formation des nouvelles liaisons C-O (carbone-oxygène) et H-O (hydrogèneoxygène). Ces réactions présentent un grand intérêt en raison essentiellement de l’énergie qu’elles permettent de disposer dans la vie courante (cuisson des aliments, chauffage, transport, etc.). Ainsi, la combustion du méthane gazeux fournit aisément une grande quantité d’énergie, environ 800 kJ.mole−1 (cf. Chapitre 1), mais au prix d’une production de dioxyde de carbone (CO2 ), néfaste pour le climat, et d’une destruction définitive des liaisons C-H et C-O contenues dans les combustibles fossiles. Dans les capteurs solaires, c’est l’énergie électromagnétique rayonnée par notre étoile, le Soleil, qui sert à réchauffer le liquide caloporteur, souvent l’eau, qui circule dans un conduit ; cette énergie d’agitation thermique est transférée à une réserve d’eau contenue dans une enceinte. Lorsque les récepteurs sont des panneaux semiconducteurs photovoltaïques, une puissance électrique est disponible à la sortie. Précisons que cette énergie électromagnétique rayonnée par le Soleil n’est pas due à l’effondrement gravitationnel de ce dernier, comme on l’a cru initialement, mais à l’énergie issue de la fusion 81

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

nucléaire des protons (noyaux d’hydrogène), qui se produit à une température de 20 MK (1 MK = un million de degrés). L’énergie libérée, sous forme de rayonnement notamment, provient alors du défaut de la somme des énergies de masses des particules, qui est d’environ 25 MeV pour cette réaction de fusion (cf. Chapitre 13). Cette dernière résume en réalité plusieurs réactions nucléaires dans lesquelles interviennent successivement les noyaux 12C, 13 N, 13 C, 14 N, 15 O, 15 N. Comme le carbone 12 C apparaît à la fois au début et à la fin de ces réactions, en jouant seulement un rôle de catalyseur, cette fusion de protons traduit le cycle du carbone, dit de Bethe, du nom du physicien américain, d’origine allemande, Hans Bethe, qui l’a mis en évidence. Examinons deux conséquences des marées océaniques (cf. Chapitre 4) que l’on peut déduire du théorème de l’énergie mécanique et du premier principe de la thermodynamique dans le référentiel R. Pour la Terre, le théorème donne : 1(Ek + E p,ex + E p,in ) = Wv , où Ek désigne l’énergie cinétique, E p,ex l’énergie potentielle des forces extérieures, telles que les forces de marée, et E p,in l’énergie potentielle des forces intérieures ; Wv , qui est le travail des forces de viscosité, est négatif. Le premier principe donne, lui : 1(Ek + E p,ex +U ) = W + Q, où U désigne l’énergie interne, W et Q les échanges énergétiques respectivement par travail et par chaleur ; ces derniers sont nuls puisqu’il n’y a pas d’échange d’énergie avec le milieu interplanétaire. On obtient alors, en soustrayant les équations précédentes : 1(U − E p,in ) = −Wv . Comme U est la somme de l’énergie cinétique microscopique Ek(m) , due à l’agitation thermique, et de l’énergie potentielle E p,in , des (m) forces intérieures, il vient finalement : 1Ek = −Wv > 0. Le premier effet des marées sur la Terre est l’élévation de la température de cette dernière. On peut estimer cette élévation 1T sur une rotation complète de la Terre autour de son axe, puisque, E p,in étant une fonction d’état, 1E p,in = 0, et qu’en vertu du premier principe : 1Ek = −1U = −M⊕ cv 1T, cv ≈ 5 500 kg.m−3 étant la capacité thermique massique de la Terre. Si on assimile cette dernière à une 82

LA PENSÉE EN PHYSIQUE

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

sphère homogène, on trouve 2 2 2 Ek = M⊕ R⊕ ⊕ 5

d’où

4 1T = − 5

2 2 R⊕ ⊕ cv

!

1⊕ ⊕

Comme la période de rotation de la Terre augmente d’environ 1,7 ms par siècle, 1⊕ / ⊕ ≈ −70 nrad.s−1 , on obtient, 1T ≈ 0,62 µK, ce qui est négligeable 6.

ÉNERGIE DES SYSTÈMES VIVANTS Pour un être vivant, qui est un système ouvert car il échange non seulement de l’énergie avec l’extérieur mais aussi de la matière, on dira qu’il a de l’énergie s’il est capable de fournir du travail, c’està-dire d’exercer une force en déplaçant son point d’application, ou de la chaleur, en augmentant par exemple l’agitation thermique des corps situés dans son voisinage. Évidemment, ce système acquiert cette capacité à partir de la nourriture qu’il a précédemment ingurgitée, précisément de l’énergie libérée par les réactions chimiques, notamment d’oxydation, qui contribuent au métabolisme de son organisme interne. Pour un être humain sédentaire, on admet généralement, qu’en dehors des périodes de croissance ou de décomposition cadavérique, il lui est nécessaire, pour le bon fonctionnement de son organisme, de dépenser quotidiennement une énergie comprise entre 7,5 MJ et 13 MJ, ce qui correspond à un flux d’énergie, ou puissance, variant entre 87 W et 150 W. Cette puissance dépensée sert précisément à contracter les muscles de tous les organes vitaux. Elle augmente évidemment avec l’activité : par exemple, la marche à pied exige une puissance de 350 W, le vélo sur route de 400 W et le tennis (en simple) de 800 W. Cette puissance est fournie par la nourriture absorbée, de l’ordre de 0,5 kg par jour pour un adulte, à la suite des réactions 6. EJP, 36, 2015.

83

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

chimiques entre les aliments et l’oxygène de l’air. Notons que l’organisme humain, pour bien fonctionner, doit aussi échanger, en dehors du rayonnement électromagnétique et de l’énergie par chaleur, de la matière avec l’extérieur, sous forme de déchets matériels (sueur, excréments, etc.). Il est habituel de constater qu’en fournissant davantage de travail au milieu extérieur par une suractivité, on a chaud. En effet, même si cette suractivité entraîne une diminution de l’énergie interne par travail, elle implique aussi une activité spécifique des muscles, lesquels provoquent une accélération du métabolisme chimique qui fournit de la chaleur. Évidemment, ce métabolisme ne peut se déclencher qu’à la condition que l’individu se soit bien alimenté antérieurement. Bilan énergétique d’un randonneur Au cours d’un déplacement, à vitesse constante, sur une route montante, l’énergie mécanique d’un randonneur, somme de son énergie cinétique et de son énergie potentielle de pesanteur, augmente, alors que le travail des forces de frottement qu’exerce le sol sur lui est négatif. Sans le travail positif des forces intérieures entre les différentes parties de son corps déformable, le randonneur serait incapable de poursuivre son ascension. Précisément, supposons qu’il grimpe lentement au sommet d’une côte, s’alimente, puis redescend. Le bilan de l’ascension s’écrit, dans la première phase d’ascension : 1U1 + 1E p,ex,1 = W f,a , 1U1 étant la variation de son énergie interne, 1E p,ex,1 celle de son énergie potentielle et W f,a le travail négatif des forces de frottement. Il en résulte une diminution de U1 , puisque 1E p,ex,1 > 0. Une fois arrivé au sommet, dans une deuxième phase, le randonneur augmente son énergie interne U2 en ingurgitant des denrées qui lui apportent la chaleur Q, à la suite du métabolisme chimique : 1U2 = Q. Dans la troisième phase de descente, le bilan s’écrit, si W f,d est le travail négatif des forces de frottement qu’a exercé le sol sur les chaussures : 1U3 + 1E p,ex,3 = W f,d . Il en résulte le bilan global suivant, puisque 84

LA PENSÉE EN PHYSIQUE

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

la variation totale de l’énergie interne, ainsi que celle de l’énergie potentielle, sont nulles : W f,a + Q + W f,d = 0. Ainsi, la chaleur reçue lors de la phase d’alimentation a permis au randonneur de compenser le travail total des forces de frottement exercées par le sol, à la fois au cours de l’ascension et de la descente. Bilan énergétique d’une danseuse sur glace On a tous vu une danseuse sur glace augmenter sa vitesse de rotation autour d’un axe vertical en ramenant ses bras le long du corps, soit en les levant soit en les baissant (Fig. 1). La question que l’on se pose souvent est l’origine de l’augmentation de cette vitesse.

Figure 1 Conservation du moment cinétique d’une danseuse et augmentation de son énergie cinétique.

Pour y répondre, précisons que le référentiel d’analyse est la salle de spectacle liée au référentiel terrestre R, dans lequel l’axe Oz est vertical ascendant. Le contact avec le sol en O est supposé parfait, c’est-à-dire que les forces de contact ne dissipent aucune énergie, ce qui implique que la composante selon l’axe Oz du moment des actions de contact soit nulle. Dans R, galiléen avec une excellente approximation pour ce problème, les forces extérieures ou leurs moments associés qui interviennent sont le poids et les actions qu’exerce le sol sur la danseuse, le contact étant supposé ponctuel en O. Les seules forces intérieures qui

85

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

travaillent peuvent être réduites à celles qui se manifestent au niveau des aisselles. Comme le moment cinétique d’un corps en rotation, de vitesse angulaire , autour d’un axe, a pour expression I , I étant son moment d’inertie par rapport à cet axe (cf. Chapitre 3), l’application du théorème du moment cinétique, en projection sur l’axe vertical Oz, donne : X 1L Oz = M Oz,ex 1t

avec

L Oz = I ,

P L Oz étant le moment cinétique selon l’axe Oz, M Oz,ex la somme des moments des forces extérieures le long de cet axe. Le poids étant une force verticale, son moment par rapport à l’axe vertical Oz est nul, même si le centre de masse de la danseuse ne se trouve pas exactement sur cet axe. Il en résulte, puisque la liaison en O est parfaite, que le moment cinétique suivant l’axe vertical est constant, soit : Ii i = I f  f , les indices i et f étant utilisés pour initial et final respectivement. Comme I f < Ii lorsque la danseuse ramène les bras le long du corps, la vitesse de rotation augmente ( f > i ). L’énergie cinétique de la danseuse augmente, puisque : 1Ek =

If 2 Ii Ii  f − 2i = i ( f − i ) > 0. 2 2 2

Pour expliquer l’origine de cette augmentation, il suffit d’appliquer le théorème de l’énergie mécanique, lequel, contrairement au théorème précédent, fait apparaître aussi le travail des forces intérieures, précisément celui des forces qui se développent aux aisselles, le travail des autres forces étant négligeable : (nc) 1(Ek + E p ) = Wc(nc) + Win

où E p = Mgz C est l’énergie potentielle de pesanteur, g le champ de pesanteur terrestre et z C la coordonnée du centre de masse de la (nc) (nc) danseuse le long de la verticale ; Wc et Win sont les travaux des 86

LA PENSÉE EN PHYSIQUE

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

forces non conservatives, celui des forces de contact en O et celui des (nc) forces intérieures. La liaison étant parfaite (Wc = 0), il vient : 1Ek =

Ii (nc) i ( f − i ) = Win − Mg1z C . 2

Selon que la danseuse lève les bras ou les baisse, 1z C est positif ou négatif. L’augmentation de son énergie cinétique est due essentiellement au travail des forces intérieures. Dans le cas d’un mouvement de rotation, il est habituel de faire apparaître les forces centrifuges, celles qui tendent à nous éloigner de l’axe, ce qui est nécessaire lorsque l’étude est menée, non dans le référentiel du laboratoire R, mais dans le référentiel R′ qui tourne avec la danseuse (cf. Chapitre 4). L’analyse détaillée montre que le travail de ces forces, qui n’existent que dans R′ , est opposé à l’énergie cinétique acquise dans R. Constater ce résultat est instructif, mais ce n’est pas une explication, car on doit rester dans le même référentiel d’analyse, celui R associé aux observateurs du spectacle offert par la danseuse 7 . Les cuisiniers affirment distinguer un œuf dur d’un œuf cru en les faisant tourner sur leur table de travail, autour d’un axe vertical. L’œuf dur garde pratiquement sa vitesse angulaire, car son moment d’inertie ne change pas ; l’œuf cru, au contraire, s’immobilise rapidement car, en tournant, les masses intérieures s’éloignent de l’axe de rotation et augmentent son moment d’inertie. Une autre variante pédagogique consiste à illustrer la conservation de la projection verticale du moment cinétique du système constitué d’une personne portant des masses identiques à bout de bras et assise sur un tabouret (Fig. 2) ; ce dernier tourne parfaitement autour d’un axe vertical. Lorsque la personne, initialement les bras tendus, ramène ses bras le long du corps, la vitesse de rotation finale  f du système, assimilé à un solide, est plus élevée que sa vitesse de rotation initiale i . On a, en effet, en raison de la conservation 7. EJP, 37, 2016.

87

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

Figure 2

Expérience du tabouret d’inertie.

de la composante du moment cinétique suivant l’axe de rotation : Ii i = I f  f , d’où  f > i , puisque le moment d’inertie diminue I f < Ii . En revanche, son énergie cinétique augmente puisqu’elle varie de Ii 2i /2 à I f 2f /2, ce qui correspond à une augmentation de Ii i ( f − i )/2. Cette augmentation d’énergie cinétique est due au travail des forces intérieures qui a été nécessaire à la personne pour ramener ses bras étendus le long de son corps. Le vitalisme Il n’est probablement pas inutile de rappeler, à propos du concept d’énergie, ce qu’a été historiquement le vitalisme, doctrine selon laquelle le vivant n’est pas réductible aux lois physico-chimiques. La vie serait alors de la matière animée par une énergie vitale, qui s’ajouterait aux autres énergies physico-chimiques qui permettent d’expliquer le comportement de la matière. Contre le mécaniste Démocrite, le premier vitaliste de la pensée occidentale fut Aristote, qui identifia l’âme au « principe moteur » des êtres vivants. Selon ce dernier, cette âme pouvait être divisée en trois parties : végétative (âme des végétaux), sensitive (âme des animaux sensibles) et intellective (âme des êtres intelligents). C’est historiquement la première hypothèse vitaliste.

88

LA PENSÉE EN PHYSIQUE

YOUNG ET MAYER : LE CONCEPT D’ÉNERGIE

La naissance du christianisme coïncide avec un abandon du vitalisme, car, dans cette doctrine, le sens et la destination de l’homme deviennent des préoccupations purement théologiques. Le vitalisme réapparaîtra vers la fin de la Renaissance, avec le retour du rationalisme scientifique et la recherche sur l’origine, le principe et le dessein de la vie. Deux grands scientifiques français s’opposent au vitalisme, Jean-Baptiste de Lamarck, en militant activement pour interpréter la vie en termes de phénomènes physico-chimiques, et Claude Bernard en soulignant l’incompatibilité du vitalisme et des méthodes expérimentales, déterminantes dans la validation d’une théorie. Le vitalisme déclina alors rapidement. D’abord, en 1828, lorsque put être créée en laboratoire la synthèse d’un composé organique, l’urée. Ensuite, les expériences du Français Louis Pasteur sur les microbes et la génération spontanée ont constitué une étape décisive. En effet, un des faits auxquels se reportaient les vitalistes d’alors était qu’en scellant hermétiquement des pots remplis de farine, apparaissaient après quelques mois de petits vers de farine (Tenebrio molitor). Pasteur montra que les phénomènes observés pouvaient s’expliquer par la présence de larves microscopiques dans la farine, avant même l’introduction de cette dernière dans les pots. Aujourd’hui, des recherches chimiques, physiques et biochimiques sur les origines de la vie fournissent des explications pouvant justifier l’émergence de la vie à partir de la matière inanimée. L’un des derniers défenseurs du vitalisme fut Henri Bergson, pourtant rare philosophe du xxe siècle à avoir tenté de prendre en compte les découvertes scientifiques de son temps. Cependant, il ne convainc pas les biologistes modernes, notamment les Français Jacques Monod et François Jacob dont les travaux conduisent à privilégier une explication essentiellement physico-chimique de la vie.

89

6 Kepler et Newton : planètes et satellites

Entre la chute des corps étudiée par Galilée (cf. Chapitre 2) et la théorie de Newton sur le mouvement de la Lune autour de la Terre, il y a une proximité intellectuelle que seul un savant exceptionnel pouvait entrevoir. C’est ce qui n’a pas échappé à Paul Valéry lorsqu’il disait : « Il fallait être Newton pour s’apercevoir que la Lune tombe sur la Terre, alors que tout le monde voit bien qu’elle ne tombe pas 1 ». L’étude du mouvement des planètes du système solaire relève du mouvement d’un système de N corps en interaction. Or l’analyse d’un tel système s’avère très complexe car, outre le nombre de corps qui peut être grand, les équations du mouvement de chacun d’entre eux font apparaître les coordonnées de tous les autres. Le système d’équations à résoudre est alors inextricable. Cependant, lorsque N est très grand, comme c’est le cas en thermodynamique, où N est de l’ordre du nombre d’Avogadro N A ≈ 6,02 × 1023 mol−1 , l’approche est facilitée par la statistique pour des raisons à la fois techniques et fondamentales, car on ne s’intéresse finalement dans ce cas qu’à des 1. Paul Valéry, Mélange 1939, La Pléiade, p. 384.

91

KEPLER ET NEWTON : PLANÈTES ET SATELLITES

valeurs moyennes. Si le nombre de corps n’est pas très grand, comme dans le cas du système Soleil-planètes, on s’appuie sur la dissymétrie du problème : en raison de sa très grosse masse, le Soleil a un rôle particulier ; on ramène alors le problème initial à N − 1 problèmes à deux corps « Soleil-planète » en considérant que l’influence des autres planètes peut être considérée comme une perturbation. On comprend dès lors tout l’intérêt que présente l’étude du problème à deux corps, d’autant plus que ce dernier peut se réduire à celui d’un seul corps, dont la masse est d’autant plus proche de celle de la planète que celle de l’étoile est plus grande ; dans le cas du couple Soleil-Terre, le rapport des masses est trois dix millionième (3 × 10−6).

LOIS HISTORIQUES DE KEPLER Les lois du mouvement des planètes autour du Soleil furent énoncées par l’Allemand Johannes Kepler, à partir d’une série d’observations minutieuses, faites par l’astronome danois Tycho Brahe, durant une grande partie de sa vie. Elles furent publiées bien après la mort de Brahe en 1601, car ce dernier était peu enclin à conforter les idées nouvelles du chanoine polonais Nicolas Copernic, défenseur de l’héliocentrisme : les deux premières lois, en 1609, dans Astronomia nova, selon un ordre inversé, la deuxième puis la première ; la troisième ne le fut que bien après, en 1618, dans son livre Harmonice mundi, après une réflexion sur une hypothétique relation entre la musique et le mouvement des planètes. 1. Les centres des planètes décrivent des ellipses dont l’un des foyers est occupé par le Soleil. 2. Les rayons vecteurs balaient des aires égales en des durées égales. 3. Les rapports des carrés des périodes de révolution sur les cubes des demi-grands axes sont indépendants de la planète. En août 2006, l’Union astronomique internationale a précisé la définition d’une planète du système solaire : i) c’est un corps céleste

92

LA PENSÉE EN PHYSIQUE

KEPLER ET NEWTON : PLANÈTES ET SATELLITES

qui est en orbite autour de son étoile, le Soleil, ii) elle a une masse suffisante afin qu’elle soit ronde, iii) elle a « nettoyé » le voisinage de son orbite. Cette nouvelle définition a exclu Pluton ; aussi répertorie-ton aujourd’hui, dans le système solaire, huit planètes, qui sont, classées par distance au Soleil croissante (Fig. 1) : Mercure, Vénus, Terre, Mars, Jupiter, Saturne, Uranus, Neptune.

Figure 1

Planètes du système solaire.

Une loi phénoménologique donnant la distance du Soleil à la planète, en unité astronomique (distance Terre-Soleil ST = 149,6 × 109 m), fut d’abord énoncée en 1766 par Johann Titius, puis publiée par Johann Bode en 1772 : rn = 0,4 + 0,3 × 2n , où n = −∞ correspond à Mercure, n = 0 à Vénus, n = 1 à la Terre, n = 2 à Mars, n = 4 à Jupiter, n = 5 à Saturne et n = 6 à Uranus. Cependant, cette loi ne donne pas de planète pour n = 3 et surtout ne convient pas pour Neptune. Les lois expérimentales précédentes concernent aussi les comètes périodiques telles que la comète de Halley, de période 64 années, 93

KEPLER ET NEWTON : PLANÈTES ET SATELLITES

que l’on a revue en 1986. Plus récemment, la comète Hale-Bopp, découverte en juillet 1995, a été observée en mars 1997, dans la région stellaire située entre Cassiopée et Le Cygne ; sa trajectoire est une ellipse très allongée, avec une durée de révolution de 2 400 ans. Très récemment, une nouvelle comète a pu être détectée par le télescope spatial NEO-WISE (Wide Infared Survey Explorer), en orbite circulaire à l’altitude de 525 km, puis observée à l’œil nu. Le fait que les huit planètes évoluent dans des plans proches les uns des autres est attribué à leur formation à partir d’un disque de matière situé dans le plan équatorial du Soleil.

PROBLÈME DE KEPLER Dans le problème dit de Kepler, l’énergie potentielle d’interaction ne dépend que de la distance r = O A qui sépare le centre de la planète considérée A (masse m) du centre attractif O, avec la forme caractéristique suivante E p (r ) = K /r dans laquelle la constante d’interaction K est strictement négative. Avec l’interaction coulombienne entre deux particules chargées, étudiée par le Français Charles Coulomb, l’analogie est totale, mise à part la constante d’interaction qui peut être dans ce cas négative ou positive. Conservation du moment cinétique La force correspondante est centrale, c’est-à-dire qu’elle est constamment portée par le vecteur r. Comme son moment au centre O est nul, le moment cinétique en O, L = O A × mv A , est constant dans le référentiel galiléen R considéré. Les vecteurs O A et v A devant être constamment perpendiculaires à L, la trajectoire de A est contenue dans le plan perpendiculaire à L passant par O. Le mouvement du centre de la planète est donc plan (Fig. 2a). Dans la suite, nous choisissons l’axe Oz du référentiel R suivant L O et nous appellons Ox y le plan dans lequel s’effectue le mouvement. En fonction des coordonnées radiale r et angulaire ϕ, le moment

94

LA PENSÉE EN PHYSIQUE

KEPLER ET NEWTON : PLANÈTES ET SATELLITES

Figure 2

a) Conservation du moment cinétique de la planète. b) Loi des aires.

cinétique constant s’écrit : L O = Lez

avec

L = mr 2

1ϕ = Cte 1t

ce qui implique une variation de ϕ toujours dans le même sens, puisque r 2 > 0 : l’angle augmente ou diminue constamment. Pour des raisons historiques, on exprime parfois la conservation du moment cinétique à l’aide de la constante des aires C = L/m, qui n’est autre que le moment cinétique par unité de masse, ou à l’aide de la vitesse aréolaire Va = 1A/1t, qui est la vitesse avec laquelle le rayon vecteur balaie l’aire du plan Ox y (Fig. 2b) : Va = L/(2m) = C/2. La théorie de Newton permet donc d’expliquer aisément la deuxième loi de Kepler, laquelle implique que la vitesse en A1 est plus grande qu’en A2 plus proche du centre attractif O. Conservation de l’énergie mécanique En l’absence de force de frottement, l’écriture de la conservation de l’énergie mécanique du système Soleil-planète donne : Em = Ek + E p = Cte, Ek étant l’énergie cinétique de la planète, le centre attractif pouvant être considéré comme fixe ; l’énergie potentielle de gravitation a pour expression E p = K /r avec K = −Gm ⊙ m P étant la constante de l’interaction dans laquelle on reconnaît la constante de Newton G, la masse m ⊙ du Soleil et celle m P de la planète, le signe moins traduisant le caractère attractif de l’interaction. Notons que 95

KEPLER ET NEWTON : PLANÈTES ET SATELLITES

l’énergie potentielle, qui est négative, augmente lorsque la distance r augmente et qu’elle devient négligeable à très grande distance. Vitesse d’évasion, objet obscur, étoile noire La vitesse d’évasion, ou vitesse de libération, est la vitesse vl pour laquelle tout corps, dans le voisinage d’un centre gravitationnel attractif, peut s’éloigner infiniment de ce dernier. Son énergie mécanique, Em = m p vl2 /2 − Gm ⊙ m p /r , somme de son énergie cinétique positive et de son énergie potentielle négative est alors nulle. On en déduit l’expression de la vitesse d’évasion, à la distance r du centre attractif : vl =



2Gm ⊙ r

1/2

.

Sur Terre, cette vitesse vaut : 42,3 km.s−1 , à comparer à la vitesse du centre de masse de la Terre sur son orbite autour du Soleil qui vaut 30 km.s−1 . Lorsque la distribution sphérique de matière de l’étoile, de masse m ∗ , est telle que la vitesse d’évasion d’un corps dans son voisinage est supérieure à la constante d’Einstein, même la lumière ne peut être émise par ce corps ; l’étoile est noire. Il en résulte : (2Gm ∗ /r )1/2 ≥ c. On en déduit que r doit être inférieur à r S = 2Gm ∗ /c2 , appelé rayon de Schwarzchild de l’étoile (cf. Chapitre 14). Par exemple, le Soleil serait une étoile noire si sa masse, qui vaut m ⊙ ≈ 2 × 1030 kg, était concentrée dans une boule de rayon r inférieur à r S,⊙ = 3 km, bien plus faible que son rayon r⊙ = 696 000 km. Ce résultat fut établi dès le xviiie siècle par le révérend anglais John Michell, astronome amateur, puis repris par le Français Pierre Simon de Laplace, sous le vocable de objet obscur. En astrophysique, un trou noir est une région de l’espace-temps de la relativité générale, dont la courbure est telle que même la lumière ne peut s’en échapper (cf. Chapitre 14) ; cette définition fut proposée en 1967 par l’astrophysicien américain John Wheeler.

96

LA PENSÉE EN PHYSIQUE

KEPLER ET NEWTON : PLANÈTES ET SATELLITES

Trajectoire Les équations de conservation précédentes, relatives au moment cinétique et à l’énergie mécanique, permettent d’en déduire la nature du mouvement. On obtient en effet l’équation suivante, qui est celle d’une conique (intersection d’un cône par un plan) d’expression : p r= 1 + e cos(ϕ − ϕ0 )



p=

L2 Gm ⊙ m 2P

et

 e = 1+

1/2 2 pEm Gm ⊙ m p

sont respectivement le paramètre et l’excentricité de la conique. Le mouvement des planètes correspond à une valeur de l’excentricité inférieure à l’unité, et donc à une trajectoire elliptique, ce qui restitue la première loi de Kepler. Notons que l’énergie mécanique Em est alors négative, c’est-à-dire que l’énergie cinétique est inférieure à la valeur absolue de l’énergie potentielle. Certains écarts entre les prévisions théoriques et les observations n’ont pas entamé le succès de la théorie de Newton. En effet, le Français Urbain Le Verrier et le Britannique John Adams attribuèrent séparément les écarts constatés dans la trajectoire de la planète Uranus à la présence perturbante d’une planète extérieure ; ils « inventèrent » ainsi la planète Neptune, dont Le Verrier prédit la position en 1846, ce qui permit à l’astronome berlinois Johann Galle de la découvrir dans la nuit du 23 septembre de cette même année ! Au xxe siècle, on observa une avance inexpliquée du périhélie de la planète Mercure ; un collaborateur de Le Verrier tenta d’interpréter ce désaccord par la présence d’une planète hypothétique, Vulcain, située entre le Soleil et Mercure. Mais aucune observation ne confirma cette hypothèse ; aussi Vulcain fut-il abandonné, d’autant plus vite qu’Einstein trouva une nouvelle interprétation de cette avance dans le cadre de la théorie de la relativité générale (cf. Chapitre 14). Période de révolution La vitesse aréolaire Va = r 2 ϕ/2 ˙ étant une constante, la durée mise par le centre du corps A pour parcourir l’ellipse est une constante 97

KEPLER ET NEWTON : PLANÈTES ET SATELLITES

qui vaut T = S/Va = πab/(L/2m), a et b étant les longueurs des deux axes orthogonaux de la trajectoire. En utilisant les propriétés géométriques de l’ellipse (relation entre e, a, b et p), on trouve que le rapport : T2 4π 2 ≈ a3 Gm ⊙ dépend essentiellement de la masse du Soleil. Il est donc le même pour toutes les planètes du système solaire ; c’est là précisément l’interpétation newtonienne de la troisième loi de Kepler. Relation entre énergie mécanique et demi-grand axe On montre que l’énergie mécanique ne dépend que du grand axe de l’ellipse décrite, selon : Em = −Gm ⊙ m P /(2a). On en déduit la relation suivante entre la vitesse v du centre de la planète et la distance r qui la sépare du Soleil :   1 m⊙m P m⊙m P 2 1 m P v2 − G = −G d’où v2 = Gm ⊙ − . 2 r 2a r a La vitesse de la planète est donc maximale au point Pr , appelé périhélie (proche de hélios, le Soleil) ; elle est minimale à l’aphélie Pa , point le plus éloigné du Soleil. Cas où l’excentricité est nulle Lorsque l’excentricité est nulle, l’ellipse se réduit à un cercle de centre O et de rayon r0 = p. En effet, si e = 0, alors :

E p = −G

m⊙m P r0

Em = −G

m⊙m P 2r0

et Ek = G

m⊙m P . 2r0

On a alors la relation simple suivante entre Em , E p et Ek : Em = −Ek = E p /2. L’excentricité de la trajectoire du centre de la Terre est proche de 0 : e = 0,0017 ; c’est la raison pour laquelle Kepler pensait initialement que cette trajectoire était un cercle.

98

LA PENSÉE EN PHYSIQUE

KEPLER ET NEWTON : PLANÈTES ET SATELLITES

Conservation du vecteur de Laplace La nature en K /r de l’énergie potentielle implique une force d’interaction avec le centre O, d’expression K /r 2 , ce qui permet d’établir, à partir de la deuxième loi de Newton, qu’il existe une seconde constante vectorielle du mouvement du corpuscule A, différente du moment cinétique : 3 = p × L + K mer avec K = −G M m. Ce vecteur constant, homogène au produit d’une énergie par une longueur, comme la constante d’interaction, est appelé le vecteur de Laplace, du nom de Laplace qui l’a introduit dans son traité d’astrophysique. Ce vecteur 3 étant perpendiculaire à L, il est contenu dans le plan de la trajectoire de A. En outre, il est porté par le grand axe de l’ellipse, et orienté du centre attractif vers le péricentre, point de la trajectoire le plus proche. Pour s’en apercevoir, il suffit de se placer par exemple en certains points de la trajectoire, le péricentre Ar (point le plus rapproché du centre attractif), l’apocentre Ae (point le plus éloigné) ou les deux points B et B ′ situés sur l’axe perpendiculaire à l’axe de l’ellipse, en son centre C (Fig. 3) ; en chacun de ces points, on a représenté p, p × L, K mer et 3. C’est précisément ce dernier vecteur constant qui détermine, par sa direction invariable, la position de l’axe de l’ellipse dans son plan, et, par sa valeur normalisée 3/(|K |m) qui est l’excentricité de la conique. La signification concrète de la constante vectorielle de Laplace est ainsi établie.

Figure 3

Représentation du vecteur de Laplace.

99

KEPLER ET NEWTON : PLANÈTES ET SATELLITES

L’état mécanique de A suppose connues les trois composantes de position et les trois composantes de sa quantité de mouvement, soit six quantités en tout et donc cinq pour la trajectoire, puisqu’un seul de ces paramètres suffit à situer A sur sa trajectoire. De même, le nombre total d’équations du mouvement est de cinq : une pour l’énergie E , trois pour le moment cinétique L et trois pour le vecteur 3, mais reliées par deux contraintes, la relation de définition de 3et son orthogonalité avec L ; le mouvement est donc complètement déterminé. Exoplanètes Les exoplanètes sont des planètes orbitant autour d’étoiles lointaines, à l’extérieur du système solaire comme le préfixe l’indique. On a soupçonné leur existence dès le xvie siècle, mais ce n’est qu’en 1995 que les astrophysiciens suisses Michel Mayor et Didier Queloz ont découvert la première d’entre elles, autour de l’étoile 51 Pegasi b, grâce à la méthode dite des vitesses radiales. Cette dernière s’appuie sur l’effet Doppler-Fizeau (cf. Chapitre 14) : en effet, l’étoile émet un rayonnement radial dont la fréquence peut varier, si son mouvement est perturbé par une planète qui orbite autour d’elle ; de ce décalage spectral, on peut déduire l’existence de la planète et certaines de ses caractéristiques. C’est ainsi que l’on a découvert la plupart des 4 000 exoplanètes, fin 2 019. Pour celles de faible masse qui orbitent autour d’étoiles plus lointaines, des spectromètres plus performants sont nécessaires ; on utilise alors d’autres méthodes plus élaborées, comme celle par synthèse d’ouverture (cf. Chapitre 11) ou celle du transit de la planète devant son étoile ; dans ce cas, la variation de l’éclairement de cette dernière, au cours du déplacement de la planète permet de la détecter. L’engouement pour les exoplanètes dépasse le seul cadre scientifique, car cet aspect de l’astrophysique ravive les éternelles interrogations humaines, de nature philosohique et religieuse : « La vie existe-t-elle hors du système solaire ? », « L’humain est-il seul dans l’Univers? », etc.

100

LA PENSÉE EN PHYSIQUE

KEPLER ET NEWTON : PLANÈTES ET SATELLITES

SATELLITES DE LA TERRE La Terre possède un satellite naturel, la Lune, situé à une distance, bord à bord, d’environ 384 000 km. La période de révolution autour de la Terre, par rapport au référentiel géocentrique, est dite sidérale et vaut 27,3 jours. La période définie par la conjonction de la Terre, de la Lune et du Soleil, dans le référentiel terrestre, est de 29,5 jours. Cette dernière coïncide avec la période de rotation propre de la Lune, autour de son axe de révolution ; c’est la raison pour laquelle la Lune présente en moyenne la même face à la Terre. Depuis 1958, de nombreux satellites artificiels ont été envoyés autour de la Terre. Leurs mouvements satisfont à des « lois de Kepler ». Le point Pr le plus proche de la Terre, nommé Gê ou Gaia dans la mythologie, est le périgée, le point Pa le plus éloigné est l’apogée. Mouvement circulaire d’un satellite La vitesse de satellisation d’un corps, autour de la Terre, est la vitesse vs pour laquelle son mouvement est circulaire et donc uniforme. On l’obtient aisément en appliquant la loi de Newton au satellite (masse m), à la distance r0 du centre de la Terre :   v2 mm ⊕ Gm ⊕ 1/2 m s =G 2 d’où vs = . r0 r0 r0 avec m ⊕ ≈ 6 × 1024 kg. Pour la Lune, on trouve, puisque sa trajectoire est pratiquement un cercle de rayon r0 ≈ (6 400 + 384 000) km : vs ≈ 1 km.s−1 et donc une durée orbitale Ts = 2πr0 /vs ≈ 28,3 jours à comparer à la période sidérale de 27,3 jours. Pour les satellites SPOT (Satellite sPécialisé dans l’Observation de la Terre) et l’ISS (International Space Station), qui sont situés aux altitudes respectives h spot ≈ 832 km et h iss ≈ 400 km, les vitesses de satellisation sont proches, puisque ces distances sont faibles devant le rayon terrestre R⊕ ≈ 6 400 km ; on trouve « en effet » respectivement

101

KEPLER ET NEWTON : PLANÈTES ET SATELLITES

7 432 m.s−1 et 7 671 m.s−1 pour ces vitesses, et 1,69 h et 1,55 h pour les durées de révolution correspondantes. Il est possible dans ce contexte d’expliquer l’affirmation contreintuitive suivante : la vitesse d’un satellite augmente lorsqu’il est soumis à la force de freinage de frottement sur les couches de l’air raréfié de l’atmosphère. En effet, cette force de frottement étant opposée à la vitesse, le travail correspondant est négatif. Il en résulte, en appliquant le théorème de l’énergie, que l’énergie mécanique du satellite diminue (1Em = W f < 0). Comme le mouvement circulaire est peu perturbé, on peut admettre que les relations établies précédemment entre les différentes énergies sont encore valables : Em = −Ek = E p /2 ; l’énergie cinétique Ek doit donc augmenter. Ce résultat paradoxal doit être attribué au rôle joué par l’énergie potentielle et à notre référence inconsciente à des mouvements, avec force de frottement, dans lesquels l’énergie potentielle ne joue aucun rôle. Ici l’augmentation de Ek sert à compenser la trop forte diminution de E p . Le graphe de la figure 4 permet de visualiser ces résultats.

Figure 4 Augmentation de l’énergie cinétique d’un satellite en orbite terrestre, soumis à une force de freinage atmosphérique.

Satellite géostationnaire Un satellite est géostationnaire s’il est fixe par rapport au référentiel terrestre R = T x yz. Le vecteur vitesse de son centre de masse S par 102

LA PENSÉE EN PHYSIQUE

KEPLER ET NEWTON : PLANÈTES ET SATELLITES

rapport au référentiel géocentrique Rg = T x 0 y0 z 0 doit donc s’écrire (Fig. 5) : v S/Rg = ⊕ × T S ce qui implique qu’il soit perpendiculaire à la fois à , qui est porté par T z o , et à T S. Comme le plan de la trajectoire doit contenir le centre de force T, il coïncide avec le plan équatorial de la Terre. D’autre part, le mouvement est circulaire, car la distance T S est constante dans ce référentiel. Enfin, d’après la troisième loi de Kepler, on a : T2 4π 2 4π 2 = 2 3 ≈ 3 Gm ⊕ r0 ⊕ r 0

Figure 5

d’où r0 ≈



Gm ⊕ 2⊕

1/3

.

Satellite géostationnaire.

Compte tenu des valeurs de  ≈ 7,3 × 10−5 rad.s−1 et m ⊕ ≈ 6 × 1024 kg, on obtient r0 ≈ 42 000 km et donc une altitude h 0 ≈ 35 600 km, en prenant pour rayon de la Terre 6 400 km. Par exemple, le satellite météosat-11, d’environ deux tonnes, a été placé sur orbite géostationnaire, en juillet 2015, par la fusée Ariane 5, à partir de la base de Kourou en Guyane 2 . Les satellites géostationnaires présentent l’avantage d’observer en continu une zone précise de la Terre, toujours 2. Le site de Kourou en Guyane française est à 5° de latitude nord, ce qui confère aux satellites, lancés vers l’est, une augmentation par rapport au référentiel géocentrique, de 464 m.s−1 , de leur vitesse initiale par rapport à la Terre ; en outre, le tir vers l’est est orienté vers l’océan, ce qui éloigne tout danger pour la population.

103

KEPLER ET NEWTON : PLANÈTES ET SATELLITES

la même, mais l’inconvénient, en raison de leur haute altitude, de fournir des images avec une résolution spatiale au mieux égale à 1 km. Pour cette raison, on utilise aussi des satellites d’orbite polaire, à une altitude d’environ 700 km. Énergie de satellisation L’énergie de satellisation d’un satellite est son énergie mécanique lorsque son mouvement autour de la Terre est circulaire et uniforme. À la distance r0 du centre de la Terre, on a vu que cette énergie mécanique s’écrivait Em = −Gm ⊕ m/(2r0 ). Voyons comment déterminer l’énergie qu’il faut communiquer à un engin spatial pour le satelliser autour de la Terre à une distance r0 de son centre. L’énergie cinétique initiale étant due uniquement au mouvement de rotation de la Terre, l’énergie mécanique initiale a pour expression :

Em,i = Ek + E p =

m 2 2 Gmm ⊕ ⊕ R⊕ cos2 λ − , 2 R⊕

R⊕ étant le rayon de la Terre, λ la latitude du lieu et ⊕ la vitesse de rotation de la Terre autour de l’axe des pôles. Comme l’énergie mécanique finale est −Gmm ⊕ /(2r0 ), on en déduit l’apport d’énergie nécessaire à la satellisation :   1 1 m 2 1Em = Em, f − Em,i = −Gmm ⊕ − − 2⊕ R⊕ cos2 λ. 2r0 R⊕ 2 Pour un corps lancé depuis Kourou en Guyane (r0 = R⊕ et cos λ ≈ 1), cet apport énergétique par kg de masse satellisée vaut : 31,14 MJ.kg−1 . Vitesse d’évasion des satellites terrestres La vitesse d’évasion des satellites terrestres a pour expression : vl =

104



2Gm ⊕ r

LA PENSÉE EN PHYSIQUE

1/2

=



2 vs = 1,414 vs

KEPLER ET NEWTON : PLANÈTES ET SATELLITES

ce qui donne, pour un engin spatial, au sol, vl ≈ 11,2 km.s−1 . Si la vitesse communiquée est inférieure à la vitesse d’évasion, la trajectoire du satellite est une ellipse qui passe par le point de lancement. Il est instructif de comparer la vitesse d’évasion à la vitesse caractéristique des molécules des gaz atmosphériques ; pour le dioxygène, la théorie statistique de l’Écossais James Maxwell donne, à une température T = 300 K, vq,O = (3RT /Mm )1/2 ≈ 484 m.s−1 , Mm étant la masse molaire de l’oxygène ; pour les molécules de diazote vq,N ≈ 517 m.s−1 . En revanche, pour le dihydrogène vq,H ≈ 1 934 m.s−1 . Comme vq,O < vs < vq,H , on explique ainsi l’abondance du dioxygène, dans l’atmosphère terrestre, plus grande que celle du dihydrogène. Si la vitesse d’évasion dans le voisinage de la Terre atteignait la valeur limite c, même la lumière ne pourrait s’échapper de l’attraction terrestre ; la Terre se comporterait alors comme un trou noir. Pour cela il faudrait que sa masse soit bien plus grande ou son rayon bien plus petit, précisément égal au rayon de Schwarzchild de la Terre r S,⊕ = 2Gm ⊕ /c2 ≈ 9 mm ! Mise en orbite terrestre d’un satellite. Mission Apollo XI Pour mettre sur orbite terrestre un satellite, on doit procéder en deux étapes. Dans la première, dite balistique, l’engin s’éloigne de la Terre sur une ellipse de foyer T jusqu’au point choisi de la trajectoire, par exemple l’apogée. Dans la seconde, la satellisation, on communique au satellite un accroissement de vitesse qui lui permet d’avoir une trajectoire, le plus souvent circulaire, autour de la Terre. Lors de la mission d’alunissage Apollo XI, du 21 juillet 1969, dont on a fêté le cinquantenaire en 2019, une cabine spatiale ainsi que le troisième étage SIV-B de la fusée Saturne V ont été satellisés autour de la Terre, sur une trajectoire circulaire (Fig. 6). L’allumage de cet étage a permis à la cabine spatiale, avec son module lunaire, d’atteindre une vitesse voisine de la vitesse d’évasion terrestre, et ainsi d’aborder le voyage Terre-Lune. La satellisation autour de la Lune exigea un 105

KEPLER ET NEWTON : PLANÈTES ET SATELLITES

Figure 6

Mission d’alunissage Apollo XI.

ralentissement de la cabine spatiale, car la vitesse de satellisation lunaire est environ cinq fois plus faible que celle terrestre. Ce freinage indispensable, que l’on effectue à l’aide de rétro-fusées, est une opération délicate, car il est effectué au moment où les communications hertziennes sont gênées par la présence de la Lune entre la cabine spatiale et la Terre.

POINTS DE LAGRANGE En 1722, le mathématicien français Joseph Lagrange, montra qu’un corps A, en interaction gravitationnelle avec deux deux autres corps A1 et A2 , de masses respectives m 1 et m 2 bien plus élevées, pouvait occuper cinq positions singulières de l’espace avoisinant, appelées depuis points de Lagrange. Ces cinq points suivent évidemment le mouvement de la planète autour du Soleil. Dans le référentiel lié au Soleil et à la planète, trois de ces points L 1 , L 2 , L 3 , situés sur la ligne A2 A1 , correspondent à des positions d’équilibre instable, alors que les deux autres L 4 et L 5 , qui forment avec A1 et A2 un triangle équilatéral (Fig. 7), sont des positions d’équilibre stable. Dans le système Soleil-Terre, le point L 1 est un endroit où des objets spatiaux ont déjà été placés. Le point L 2 est actuellement le site où se trouve le satellite Planck destiné à l’observation astrophysique ; comme il présente l’avantage d’être dans une région de 106

LA PENSÉE EN PHYSIQUE

KEPLER ET NEWTON : PLANÈTES ET SATELLITES

Figure 7

Les cinq points de Lagrange.

température sensiblement constante, il a été choisi pour installer, dès 2021, un observatoire spatial, avec de nouveaux télescopes dont le projet Euclid. Dans le système Soleil-Jupiter, les points L 4 et L 5 permettent d’expliquer la présence stable des astéroïdes troyens. Le système Terre-Lune présente, lui aussi, cinq points de Lagrange analogues aux précédents. Parmi les trois premiers, L 2 est un site intéressant car il donne accès en permanence à la face cachée de la Lune ; L 1 permettrait, lui, de scinder le voyage Terre-Lune en deux étapes. On a pensé aux deux autres positions L 4 et L 5 , qui sont stables, pour installer des stations de ravitaillement en vue de missions lunaires, voire plus lointaines.

107

7 Kelvin et Onnes : température, très basses températures

La température d’un corps est souvent associée à la chaleur, au point d’être souvent confondue avec elle. Pourtant elle en diffère fondamentalement, car la chaleur est un transfert d’énergie entre le corps et son environnement (cf. Chapitre 5), ce transfert ne caractérisant pas l’état de ce corps, contrairement à la température. C’est d’ailleurs ce que rappelle l’étymologie latine du mot « temperatura » qui signifie manière d’être. La température est l’un des paramètres qui permettent de définir l’état d’un système, par exemple le volume d’une enceinte contenant un gaz, comme l’enveloppe d’un ballon de football, et la pression en son sein (cf. Chapitre 3). La confusion entre chaleur et température s’explique par le lien que l’on constate entre le transfert énergétique par chaleur entre deux corps et leur écart de température. Mais la distinction apparaît clairement, lorsqu’on observe le transfert d’énergie nécessaire pour transformer de l’eau bouillante en vapeur, et le maintien de sa température autour de 100 ◦ C à la pression atmosphérique. 109

KELVIN ET ONNES : TEMPÉRATURE, TRÈS BASSES TEMPÉRATURES

On constate même cette confusion dans les mots calorimétrie et thermométrie utilisés par les physiciens, qui signifient respectivement mesure de la chaleur et mesure de la température, alors qu’ils sont de même étymologie, chaleur en latin (calor) et en grec (therm). Dans ce contexte, il serait judicieux d’utiliser le néologisme « tempéramétrie » pour désigner l’ensemble des techniques de mesure des températures.

TEMPÉRATURE Aspect historique L’élaboration du concept de température a été longue et difficile. Initialement, on mesurait la température à l’aide d’une grandeur mécanique, telle que le volume d’un liquide (mercure, alcool, etc.) dans une colonne cylindrique ; on imposait arbitrairement les températures de deux points fixes, celle de la glace fondante et celle de l’eau bouillante, toutes deux à la pression ambiante. On admettait alors la relation expérimentale de proportionnalité entre variation de température 1θ et variation relative de volume 1V /V : 1θ = α 1V /V , α étant le coefficient de dilatation. La température, ainsi définie, ne présente aucun caractère universel, puisqu’elle dépend du liquide employé ; seules, évidemment, les indications 0 et 100 coïncident. Cependant, en utilisant la dilatation de différents gaz, sous faible pression, on a constaté que le coefficient α avait la même valeur pour tous, d’où l’intérêt des thermomètres à gaz, sous faible pression, pour accéder à une mesure universelle de la température. Définition physique de la température L’approche expérimentale précédente, éclairée par une analyse microscopique, a permis d’aboutir à la définition suivante du concept de température : la température d’un système est le degré d’agitation des particules microscopiques qui le constituent. Précisément,

110

LA PENSÉE EN PHYSIQUE

KELVIN ET ONNES : TEMPÉRATURE, TRÈS BASSES TEMPÉRATURES

c’est l’énergie cinétique moyenne E k des centres de masse des particules plus ou moins complexes qui le forment. Pour des raisons historiques, on introduit la température thermodynamique T qui lui est directement proportionnelle selon la relation : Ek = 3k B T /2, dans laquelle k B ≈ 1,38 × 10−23 J.K−1 est la constante de Boltzmann (cf. Chapitre 1). Le facteur 3 provient des trois directions de l’espace dans lesquelles les particules physiques peuvent se déplacer ; quant au facteur 1/2, il est directement lié à la définition de l’énergie cinétique d’une particule. Ainsi, une température thermodynamique nulle s’identifie à une énergie cinétique nulle et par conséquent au repos complet des molécules ; en quantique, ce repos est exclu en raison des inégalités d’Heisenberg (cf. Chapitre 18), d’où l’inaccessibilité d’une température thermodynamique nulle. On exprime mieux cette impossibilité en considérant son inverse, précisément la quantité β = 1/(k B T ) qui tend vers l’infini lorsque T se rapproche de zéro. L’unité de la température absolue ainsi définie est le kelvin (K), précisément la fraction 1/273,16 de la température TY = 273,16 K du point triple de l’eau ; cette température est unique, ainsi que la pression correspondante ( pY = 600 Pa), en raison de la coexistence des trois phases, gazeuse, liquide et solide, du constituant. Le nom de l’unité a été choisi en hommage au physicien écossais du xixe siècle, William Thomson, anobli en Lord Kelvin, du nom de la rivière qui coule près de Glasgow, sa ville natale. Il existe d’autres échelles de température encore utilisées : ce sont principalement les échelles Celsius et Fahrenheit. L’échelle Celsius, du nom du Suédois Anders Celsius, est définie par simple translation de l’échelle de température thermodynamique : θC ≡ T − 273,15, ce qui donne pour la température du point triple de l’eau : θY = 0,01 ◦ C. L’échelle Fahrenheit, introduite par l’Allemand Daniel Fahrenheit en 1724, que les Anglo-Saxons utilisent encore aujourd’hui, se déduit de l’échelle Celsius par la transformation simple : θ F = 1,8 θC + 32. Dans ce contexte, rappelons le titre du film que le cinéaste français François Truffaut tira du roman de science-fiction de l’Américain Ray 111

KELVIN ET ONNES : TEMPÉRATURE, TRÈS BASSES TEMPÉRATURES

Tableau 1

Correspondance entre les différentes échelles de température.

T ( K) 0 255,4 273,15 273,16 308,7 373,15

θC −273,15 −17,8 0 0,01 35,5 100

θF −459,67 0 32 32,018 96 212

Bradbury Fahrenheit 451 ; c’est la température de combustion du papierlivre (232,8 ◦ C) exprimée en degré Fahrenheit. Le choix des valeurs 0 ◦ F et 96 ◦ F, correspondant aux températures −17,8 ◦ C et 35,5 ◦ C, provient respectivement de la température la plus faible que l’on puisse obtenir avec un mélange eau-sel, à l’embouchure de la Tamise, et d’une estimation de la température moyenne du corps humain. Le tableau 1 donne la correspondance entre ces deux échelles pour quelques températures particulières : la température de congélation de l’eau 0 K, celle de l’eau salée (0 ◦ F), la température de la glace fondante à pression normale (0 ◦ C), la température du point triple de l’eau (273,16 K), une température voisine de celle du corps humain (96 ◦ F) et la température de vaporisation de l’eau à la pression normale (100 ◦ C). Notons que, compte tenu de la relation définitoire de la température à partir de l’énergie cinétique moyenne des centres de masse des molécules, l’unité logique de température devrait être, non pas le degré Celsius, ni le degré Fahrenheit, ni même le kelvin, mais l’énergie k B T qui s’exprime en joule. Ainsi, dans une salle surchauffée, on ne devrait pas dire : « il fait trop chaud ici, il fait 25 ◦ C », encore moins « il fait trop chaud ici, il fait 77 ◦ F », même pas « il fait trop chaud ici, il fait 302 K » (sans prononcer le mot degré devant K , mais « il fait trop chaud ici, il fait 25,7 meV » ou mieux encore « il fait trop chaud ici, il fait 4,16 zJ », le zeptojoule zJ valant 10−21 J (cf. Chapitre 1). 112

LA PENSÉE EN PHYSIQUE

KELVIN ET ONNES : TEMPÉRATURE, TRÈS BASSES TEMPÉRATURES

Relation entre température et chaleur La confusion fréquente entre chaleur et température nécessite que l’on rappelle la différence entre les deux concepts : le premier, la chaleur, est le transfert d’énergie Q, autre que le travail de forces macroscopiques, à travers la surface d’un corps ; ce transfert ne définit pas l’état du corps, même s’il contribue à le modifier ; au contraire, le second, la température, est l’un des paramètres qui permettent de définir l’état du corps. Il existe cependant des liens entre chaleur et température, qui s’expriment à travers les deux premiers principes de la thermodynamique. En effet, l’application du premier principe (cf. Chapitre 5) sur un système soumis à une pression constante, comme c’est souvent le cas lorsqu’on opère sous la pression atmosphérique ambiante, donne : 1U = Q − p1V , en l’absence de transfert d’énergie par travail. En introduisant le concept d’enthalpie H = U + pV , comme le fit le Hollandais Kamerlingh Onnes vers 1930, à partir du mot grec « thalpein » qui signifie chauffer, on obtient : 1H = C p 1T , C p étant la capacité thermique du corps, à pression constante. Cette dernière quantité étant proportionnelle à la masse M du corps considéré, il est judicieux de définir la capacité thermique massique, à pression constante, c p = C P /M, il vient : Q = Mc p 1T . Nous verrons ultérieurement le second lien entre chaleur et température, en relation étroite avec le concept d’entropie (cf. Chapitre 8). DIFFUSION DE LA TEMPÉRATURE Le long d’une barre, dont la surface latérale est isolée énergétiquement, et dont les extrémités sont à des températures différentes fixées T1 et T2 < T1 (Fig. 1), on constate que la température T en un point de la barre est comprise entre T1 et T2 . L’agitation thermique intermédiaire correspondante prouve l’existence d’un échange d’énergie d’une extrémité à l’autre de la barre, cela en l’absence de forces mécaniques moyennes. Ce mode de transfert d’énergie, sans travail, est précisément la chaleur. 113

KELVIN ET ONNES : TEMPÉRATURE, TRÈS BASSES TEMPÉRATURES

Figure 1

Conduction thermique le long d’une barre métallique.

Cette analyse expérimentale ne prend nullement en compte la structure atomique, moléculaire ou ionique de la matière. Aussi estil naturel de tenter de retrouver les propriétés macroscopiques des corps, souvent complexes, à partir de celles microscopiques beaucoup plus simples. Cette attitude, dite réductionniste, est apparue très tôt dans l’histoire, déjà avec Épicure dans la lettre à Hérodote (300 ans avant notre ère). En raison de ses capacités explicatives, elle s’est poursuivie avec Maxwell et Boltzmann au xixe siècle ; son développement a permis un approfondissement des concepts macroscopiques de pression, identifiée à une valeur moyenne des transferts de quantité de mouvement (cf. Chapitre 3), ou de température, qui est, comme on l’a déjà dit, une mesure de l’énergie cinétique moyenne des particules. En outre, elle présente aussi des capacités prédictives, comme nous le verrons notamment avec le concept d’entropie associé à celui de température (cf. Chapitre 8). La diffusion de la température le long d’une longue barre métallique a été étudiée par le Français Joseph Fourier, puis publiée en 1815 dans son livre Théorie analytique de la chaleur, malgré les réticences de grands scientifiques, tels que Laplace et Lagrange. Cette théorie, appelée historiquement théorie de la chaleur, est en réalité celle de la diffusion de l’énergie interne et donc celle de la température qui lui est directement reliée. En effet, on effectue un bilan d’énergie interne d’un élément de barre, dans lequel apparaît un courant d’énergie interne qui dépend de la température. Fourier fit l’hypothèse que le courant 114

LA PENSÉE EN PHYSIQUE

KELVIN ET ONNES : TEMPÉRATURE, TRÈS BASSES TEMPÉRATURES

énergétique était proportionnel à l’opposé −1T /1x du gradient de température, selon la coordonnée x le long de la barre. L’équation obtenue diffère fondamentalement d’une équation de propagation par son caractère irréversible, c’est-à-dire sa profonde modification lorsqu’on inverse le sens de la variable temps. Aussi l’expression « propagation de la chaleur », pourtant employée par Fourier, lui-même, est-elle impropre et devrait-elle systématiquement être remplacée par diffusion de la température par conduction thermique. On peut préciser la distinction entre diffusion et propagation en considérant l’exemple de la diffusion de température dans le sol ; l’analyse précise montre que, si la température en surface varie selon une loi sinusoïdale, de pulsation ω, l’amplitude des variations est amortie exponentiellement le long de la verticale descendante Ox, selon une loi en exp(−x/δ), et qu’elle est retardée d’une durée x/(ω δ). Il s’agit là d’une diffusion, et non d’une propagation. Par exemple, dans le cas des fluctuations quotidiennes de température, ω = ⊕ = 7,3×10−5 rad.s−1 et δ = 8,7 cm, ce qui donne une fluctuation de 0,5 ◦ C à une profondeur de 25 cm, pour une fluctuation de 10 ◦ C en surface. Pour les fluctuations annuelles de température, ω = ⊕ /365,25 ≈ 2 × 10−7 rad.s−1 et δ = 1,7 m ; c’est pour cette raison qu’au fond d’un puits ou dans une cave enterrée, la température est pratiquement constante tout au long de l’année. L’énergie interne des corps peut aussi se propager, mais selon un autre processus, le rayonnement électromagnétique (cf. Chapitre 15).

BASSES ET TRÈS BASSES TEMPÉRATURES La production des basses températures (entre 100 K et quelques K) et des très basses températures (inférieures à quelques K) présente un intérêt à la fois technique et fondamental. En effet, aux basses températures, la plupart des gaz atmosphériques, principalement le dioxygène O2 et le diazote N2 , sont liquides, ce qui permet de les

115

KELVIN ET ONNES : TEMPÉRATURE, TRÈS BASSES TEMPÉRATURES

transporter en grande quantité dans des récipients thermiquement isolés, appelés cryostats. En outre, comme l’agitation thermique des atomes et des molécules masque des phénomènes physiques plus fins, les physiciens se sont attendus, à très basse température, à l’émergence de singularités. C’est ainsi que Onnes découvrit, en 1911, dans le premier laboratoire des très basses températures qu’il monta à Leiden (Leyde), la supraconductivité du mercure, dès que la température devenait inférieure à 4,15 K : ce phénomène se traduit par l’effondrement de la résistance électrique des conducteurs et par l’expulsion du champ magnétique des matériaux. Procédés de liquéfaction des gaz Un corps pur gazeux devient liquide lorsqu’on le comprime en maintenant sa température constante, encore faut-il que cette température soit inférieure à une certaine température dite critique, différente selon les corps. Au cours de cette transformation, appelée changement d’état ou transition de phase, la pression reste constante, comme la température. Si on tente d’augmenter la pression, on observe une transition de l’état gazeux à l’état liquide ; cette transition libère de l’énergie, alors que la transition inverse en consomme. En effet, l’interaction attractive entre les molécules étant plus forte dans le liquide que dans le gaz, il faut fournir de l’énergie à un liquide pour le transformer en gaz. La chaleur massique minimale lv nécessaire pour réaliser, à une température et une pression constantes, la vaporisation de l’unité de masse d’un corps sous forme liquide, est l’enthalpie massique. On désigne généralement par L la chaleur latente relative à une masse quelconque de corps et par L m la chaleur latente molaire. L’enthalpie massique de vaporisation de l’eau (H2 O) est élevée (lv ≈ 2 257 kJ.kg−1), ainsi que celle de l’ammoniac (NH3 ) très utilisé dans les machines frigorifiques (lv ≈ 1 369 kJ.kg−1). Le froid que l’on ressent en sortant d’un bain s’explique par la vaporisation des gouttes d’eau sur la peau, à la pression atmosphérique ambiante. 116

LA PENSÉE EN PHYSIQUE

KELVIN ET ONNES : TEMPÉRATURE, TRÈS BASSES TEMPÉRATURES

En 1823, l’Anglais Michael Faraday liquéfia le premier du chlore, en rassemblant une compression et un refroidissement, selon le montage de la figure 2. Dans la branche G d’un tube à essai recourbé et très résistant, il introduisit des cristaux de réactifs produisant du chlore, puis il ferma l’autre extrémité L qu’il plongea dans la glace ; sous l’action de la pression du gaz, du chlore liquide apparut alors dans L. On liquifie l’ammoniac de façon analogue dans les réfrigérateurs et les pompes à chaleur à absorption (cf. Chapitre 8).

Figure 2

Liquéfaction du chlore par Faraday.

Le processus à suivre pour obtenir de très basses températures, inférieures à quelques kelvins, présente plusieurs étapes. En multipliant des détentes, dites de Joule et Kelvin, le long de conduites à travers un robinet, qui sont caractérisées par une enthalpie constante, Onnes a pu liquéfier l’hélium, sous 1 bar, pour la première fois en 1908 ; la température atteinte était de 4,2 K. Auparavant, en 1877, le Français Louis Cailletet avait liquéfié l’oxygène (T = 90,2 K), puis l’azote (T = 77,4 K). En 1894, l’Anglais John Dewar obtint de l’hydrogène liquide (T = 20,4 K) ; dans ce cas, on doit préalablement abaisser sa température au-dessous d’une certaine température dite d’inversion, condition pour laquelle une détente de Joule et Kelvin, à travers une conduite, entraîne un refroidissement et non un réchauffement. Après avoir liquéfié l’hélium 4 (4 He), l’isotope le plus répandu, dont le noyau est formé de deux protons et deux neutrons, Onnes essaya d’atteindre des températures encore plus basses, en diminuant la pression de vapeur au-dessus de l’hélium liquide, à l’aide de pompes. 117

KELVIN ET ONNES : TEMPÉRATURE, TRÈS BASSES TEMPÉRATURES

Cette technique est utilisée de nos jours, lorsqu’on veut obtenir des températures comprises entre 1 K et 4 K. En pompant la vapeur d’hélium, on provoque la vaporisation de l’hélium liquide, ce qui refroidit le liquide. Le refroidissement entre 1 et 0 K Dans le but d’atteindre des températures inférieures à 1 K, deux physiciens, l’un canadien William Giauque et l’autre hollandais Peter Debye, proposèrent séparément, en 1908, une méthode entièrement nouvelle, s’appuyant sur les propriétés magnétiques des matériaux. Pour cela, ils placèrent un barreau d’un matériau dit paramagnétique, tel que le sulfate de gadolinium Gd2 (SO4 )3 , dans un champ magnétique extérieur B. Sous l’action de ce champ, le barreau acquiert une aimantation M orientée suivant B. On refroidit le matériau en procédant en deux étapes : dans la première, on l’aimante à température constante, cela en appliquant le champ magnétique tout en maintenant le système en équilibre thermique avec l’extérieur. Comme les moments magnétiques de la matière s’orientent selon B, le système perd de l’énergie en cédant de la chaleur. Dans une seconde étape, on désaimante le matériau, en supprimant le champ B, sans que le matériau puisse recevoir de la chaleur ; il en résulte une baissse de sa température. Or, à très basse température, la capacité thermique à aimantation constante CM de ce matériau s’effondre au point que le rapport entre le champ magnétique et la température demeure pratiquement inchangé : B f /T f ≈ Bi /Ti . Pour une température initiale de 2 K, obtenue en plongeant le matériau dans de l’hélium, sous pression réduite, on atteint T f = 5 mK en abaissant le champ magnétique de 4 T à 10 mT. On obtient des températures encore plus basses, de l’ordre du microkelvin (1 µK), en procédant comme précédemment, mais sur des corps dont le paramagnétisme est dû à des spins nucléaires (cf. Chapitre 20). Cette méthode, semblable à la précédente, mais techniquement plus difficile à mettre en œuvre, a permis aux Anglais 118

LA PENSÉE EN PHYSIQUE

KELVIN ET ONNES : TEMPÉRATURE, TRÈS BASSES TEMPÉRATURES

Franz Simon et Nicolas Kurti d’obtenir, en 1956, une température de quelques µK pour des noyaux de cuivre. Actuellement les températures atteintes avec ce procédé sont d’environ 50 nK. Notons que ces températures ne concernent que les noyaux, et non les électrons et le réseau du cristal qui, eux, sont à des températures plus élevées, de l’ordre de 10 µK. Refroidissement des atomes par freinage optique Dans la recherche des propriétés des corps aux très basses températures, et donc dans la production de ces dernières, qui date de la fin du xixe siècle, des progrès considérables ont été accomplis depuis 1975, puisque l’obtention d’un gaz atomique à une température de l’ordre de 0,5 nK est désormais envisagée. La technique utilisée s’appuie sur la définition même de la température, qui est, soulignons-le, une mesure de l’énergie cinétique moyenne des centres de masse des atomes ou des molécules, selon la relation : mvq2 3 3 RT hE k i = = kB T = , 2 2 2 Mm vq étant la vitesse quadratique moyenne des entités considérées, R = N A k B (cf. Chapitre 1) et Mm la masse molaire du corps. La détermination de cette vitesse vq = (3RT /Mm )1/2 permet d’accéder à la température T du gaz atomique considéré. Il en résulte que, pour atteindre de très basses températures, il est nécessaire de diminuer cette énergie cinétique, en exerçant sur les atomes des forces de frottement visqueux, par exemple celles de la forme F v = −αv. La réalisation de telles forces, à l’échelle atomique, s’appuie sur l’interaction des atomes avec un rayonnement électromagnétique, selon un mécanisme d’absorption et d’émission de lumière. La relation précédente permet de comprendre la signification de la borne inférieure de l’échelle absolue de température, qui est en principe le 0 K : les atomes seraient alors immobiles, ce qui est impossible à réaliser dans une enceinte, en raison des inégalités spatiales

119

KELVIN ET ONNES : TEMPÉRATURE, TRÈS BASSES TEMPÉRATURES

d’Heisenberg (cf. Chapitre 18), d’où l’inaccessibilité de cette limite inférieure 1. Le freinage des atomes par des lasers (cf. Chapitre 19) est le résultat de leurs multiples absorptions des photons issus de ces sources ; les atomes transitent ainsi vers des états excités, puis se désexcitent ensuite en émettant des photons. Cependant, le freinage qu’occasionne l’absorption d’un seul photon par un atome est négligeable, puisque la quantité de mouvement 1pa , transmise à un atome, de masse m a , par un photon visible, dont l’énergie est de quelques eV, n’entraîne qu’une faible diminution de sa vitesse. Par exemple, pour un atome de rubidium, qui absorbe un photon de 2 eV, on a : 1pa = pγ =

Eγ c

d’où 1va ≈

Eγ ≈ 7,5 mm.s−1, ma c

ce qui est très faible devant la vitesse quadratique moyenne vq d’un atome dans un gaz monatomique en équilibre ; en effet, à la température T = 300 K, vq = (3k B T /m a )1/2 ≈ 300 m.s−1 . Il est donc indispensable, pour réaliser un freinage significatif, de provoquer une multitude d’absorptions, toutes orientées dans la direction du faisceau laser excitateur ; au contraire, les émissions spontanées se produisent, elles, dans toutes les directions de l’espace. Pour cela, on utilise un rayonnement laser résonnant, c’est-à-dire tel que l’énergie des photons absorbés soit égale à l’énergie d’une transition atomique déterminée. Comme le nombre par seconde de ces cycles d’absorption et d’émission successifs peut être très grand, de l’ordre de 1/τs ≈ 108 s−1 , la décélération finale peut atteindre des valeurs très importantes ; par exemple |a| = 1va 1N/1t = 7,5×105 m.s−2 , soit environ 105 g ! On se rapproche d’une vitesse moyenne de l’atome nulle en utilisant plusieurs faisceaux lasers, précisément deux dans 1. En revanche, il n’existe pas de borne supérieure pour la température, car l’énergie cinétique des centres de masse des entités microscopiques, qui vaut (γ − 1)mc2 lorsque la vitesse n’est pas négligeable devant c (cf. Chapitre 13), n’est pas bornée, contrairement à la vitesse.

120

LA PENSÉE EN PHYSIQUE

KELVIN ET ONNES : TEMPÉRATURE, TRÈS BASSES TEMPÉRATURES

chacune des trois directions de l’espace, comme le montre la figure 3. Les prévisions précédentes sur le freinage sont modifiées par l’effet Doppler-Fizeau, c’est-à-dire l’influence de la vitesse des atomes sur la réalisation de l’égalité entre la pulsation du rayonnement incident et la pulsation associée à l’écart énergétique 1E des deux niveaux atomiques concernés.

Figure 3

Refroidissement d’une vapeur à l’aide de six lasers.

Avec six lasers, les physiciens ont pu obtenir sur des atomes de césium, de sodium et de rubidium, formant une vapeur, des vitesses de l’ordre de quelques centimètres par seconde. Cette technique de refroidissement a été initiée et mise au point par le Français Claude Cohen-Tannoudji, et par les Américains Steve Chu et Williams Phillips. Une des applications est la réalisation d’horloges extrêmement précises. Nous verrons plus loin (cf. Chapitre 19) que, dans les lasers, on réalise, de façon artificielle, des températures absolues négatives !

121

8 Clausius et Boltzmann : le concept d’entropie

On a vu que la chaleur et la température étaient des concepts fondamentalement différents, alors qu’ils étaient souvent confondus. Rappelons que la chaleur n’est pas une énergie, mais seulement un transfert d’énergie qui ne peut caractériser l’état d’un système (cf. Chapitre 5), alors que la température est au contraire un paramètre d’état (cf. Chapitre 7). Cependant, combinées, ces deux grandeurs contribuent à l’émergence d’un concept nouveau, l’entropie, introduit par le physicien allemand Rudolf Clausius en 1851. Il l’a appelé ainsi en raison, d’une part de sa proximité phonétique avec le mot énergie, d’autre part de sa racine grecque trope, qui signifie direction, comme celle de la flèche du temps, orientée du passé vers le futur. Alors que premier principe de la thermodynamique conduit à rapprocher les deux transferts d’énergie que sont le travail et la chaleur, le deuxième principe tend, lui, au contraire, à les distinguer.

123

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

Le rapprochement a culminé avec l’expérience historique de Joule, dans laquelle du travail mécanique, fourni à un système par l’intermédiaire de forces de frottement solide, se transformait en chaleur, ce qui provoque une augmentation de la température du système. C’est en comparant la valeur de cette chaleur, mesurée à partir de la variation de température, à celle du travail mécanique fourni au système que Joule en déduisit la transformation du travail en chaleur, et ainsi l’équivalence énergétique des deux types de transfert d’énergie. En revanche, il est vite apparu impossible d’obtenir du travail à partir d’une seule source thermique. La raison profonde réside dans la différence de nature entre le travail, qui est un transfert ordonné d’énergie, par l’intermédiaire des forces moyennes qui s’exercent sur la surface du système, et la chaleur qui est, au contraire, un transfert désordonné d’énergie, précisément en raison de l’absence de forces moyennes correspondantes. C’est cette distinction subtile que souligne le deuxième principe de la thermodynamique. Historiquement, il existe plusieurs énoncés du deuxième principe, notamment ceux issus du fonctionnement des machines thermiques (machines à vapeur ou machines frigorifiques), au début de l’ère industrielle, entre 1810 et 1860, et donc imprégnés d’une science de la chaleur dominée par la technique. Nous avons choisi ici l’énoncé actuel qui met en avant, d’emblée, le concept d’entropie, en relation étroite avec celui de temps. DEUXIÈME PRINCIPE ET ENTROPIE L’énoncé du deuxième principe de la thermodynamique, tel qu’il fut proposé dans les années 1950 par le physico-chimiste belge, d’origine russe, Ilya Prigogine, est le suivant : Pour tout système fermé, il existe une grandeur non conservative, appelée entropie S, telle que sa variation, entre deux dates successives t1 et t2 > t1 , s’écrive sous la forme d’une somme de deux termes, 1S = S (e) + S (c) 124

LA PENSÉE EN PHYSIQUE

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

Le premier S (e) traduit l’échange d’entropie avec le milieu extérieur, alors que le second S (c) est un terme de création, toujours positif. Le terme d’échange S (e) est l’entropie reçue algébriquement, à travers la surface fermée S qui délimite le système ; si S (e) > 0, l’échange lui apporte de l’entropie, si S (e) < 0, au contraire l’échange lui en retire. À cela, contribuent uniquement la chaleur Q reçue et la température Ts de la surface du système, précisément sous la forme du rapport Q/Ts , ce qui détermine l’unité de cette grandeur, le joule par kelvin. Si la température n’est pas uniforme sur la surface, on doit sommer toutes les contributions locales à travers chaque élément de surface. On voit que, si on avait adopté comme unité de température le joule, comme le suggère la signification subtile de ce concept (cf. Chapitre 7), l’entropie serait un nombre sans dimension physique, ce qui est conforme à l’interprétation statistique de ce concept, comme nous le verrons un peu plus loin. Quant au terme de création S (c) , il a le même signe que l’intervalle de temps t2 −t1 , d’où son lien définitoire avec la flèche du temps, dont on constate le sens en observant l’évolution des phénomènes macroscopiques réels. À l’échelle microscopique, la perception du temps diffère fondamentalement, car les lois de la physique sont réversibles, c’est-à-dire invariantes par changement de signe de la variable temps. Le temps qui semble s’écouler du passé vers le futur s’appuie donc sur la thermodynamique des systèmes macroscopiques, science essentiellement de nature statistique par la température et par l’entropie. La mise en cause de l’inégalité S (c) > 0, jamais observée, conduit à la définition des transformations irréelles, dites perpétuelles de deuxième espèce. L’égalité S (c) = 0 correspond à des transformations limites qualifiées de réversibles, pour lesquelles le sens de l’écoulement du temps n’aurait aucune influence. Dans ces cas macroscopiques irréels, pour lesquels le temps thermodynamique n’existerait pas, le bilan se réduirait à 1S = S (e) = Q/Ts . On voit ainsi que, contrairement à ce qui est parfois affirmé, ce n’est pas l’échange thermique Q qui

125

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

joue un rôle déterminant dans la flèche du temps, mais la création d’entropie S (c) 1 . L’intérêt des transformations réversibles est considérable, car elles permettent d’effectuer un bilan entropique pour toute transformation réelle entre deux états distincts ; en effet, la variation de l’entropie, fonction d’état comme l’énergie, ne dépend que des états initial et final. L’utilisation des transformations réversibles ne justifie en rien l’affirmation selon laquelle la thermodynamique serait une thermostatique. Le succès de cette partie importante de la physique dans l’interprétation de phénomènes dynamiques, tels que le fonctionnement des tuyères, suffit à lui seul pour écarter cette restriction. Ce qui importe essentiellement, c’est de pouvoir définir sans ambiguïté les concepts de température et de pression, dont le fondement est de nature statistique, d’où l’intérêt de l’hypothèse dite de l’équilibre local. Nous étudierons au chapitre 9 le cas des systèmes ouverts qui, contrairement aux systèmes fermés, peuvent aussi échanger de la matière avec le milieu extérieur. Bilans particuliers d’entropie Le bilan entropique précédent suggère de considérer deux cas particuliers importants d’évolutions réelles, celui d’un système isolé et celui d’un régime stationnaire. i) Pour un système isolé, on a : S (e) = 0 d’où 1S = S (c) > 0. Ainsi, l’entropie d’un système isolé ne peut qu’augmenter ; son évolution cesse lorsque son entropie est maximale : le système est alors en équilibre thermodynamique. ii) Pour un système fermé en régime stationnaire, 1S = 0, d’où : S (c) = −S (e) . Il y a alors compensation de l’entropie produite continuellement par une entropie cédée au milieu extérieur. C’est le cas aussi des systèmes vivants qui, pour maintenir leur entropie sensiblement constante, malgré une production d’entropie 1. Carlo Rovelli Sept brèves leçons de physique, 2014, p. 60.

126

LA PENSÉE EN PHYSIQUE

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

toujours présente, doivent nécessairement fournir de l’entropie au milieu extérieur ; s’ils sont fermés, cette cession d’entropie ne s’opère qu’en cédant de l’énergie par chaleur. Nous reviendrons sur le sujet car tout système vivant est ouvert par définition (cf. Chapitre 9). Causes physiques de création d’entropie La première des causes physiques de création d’entropie doit être attribuée aux forces de frottement, visqueux ou solide, dont le travail se transforme soit en énergie interne, soit en chaleur. La seconde est, en l’absence de forces extérieures, la non-uniformité de certaines grandeurs, telles que la température ou le nombre de particules par unité de volume. Précisément, si l’on met en contact deux corps, de températures différentes, on constate l’existence d’un transfert d’énergie par chaleur du corps chaud vers le corps froid (cf. Chapitre 7). De même, dans un système dont le nombre volumique n v de particules n’est pas uniforme, on observe, en son sein, un flux de diffusion de particules, orienté des zones de forte concentration vers celles de faible concentration, selon une loi linéaire approchée, analogue à celle de Fourier (cf. Chapitre 7), dans laquelle apparaît le gradient de n v , changé de signe. On l’appelle la loi de Fick, du nom du physiologiste allemand Adolf Fick qui l’a établie vers 1850. Calculons la création d’entropie, associée au mélange d’un litre d’eau à la température 10 ◦ C (283 K) et d’un litre d’eau à la température 30 ◦ C (303 K). Le système pouvant être supposé isolé, le transfert thermique de l’eau chaude vers l’eau froide donne une température finale égale à la moyenne arithmétique 20 ◦ C (293 K). La création d’entropie est alors la somme des variations d’entropie de chaque masse d’eau ; les variations de volume étant négligeables, cette création s’écrit : S (c) = 1S = 1S1 + 1S2

avec

1S1 = C V ln



Tf T1



et

1S2 = C V ln



Tf T2



127

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

où C V est la capacité thermique à volume constant de chaque masse d’eau, et ln le logarithme népérien (cf. Annexe 1). Comme C V ≈ 4,18 J.K −1, le calcul donne S (c) ≈ 420 J.K −1 . ÉNONCÉS HISTORIQUES DU DEUXIÈME PRINCIPE Trois énoncés du deuxième principe de la thermodynamique, tous issus de l’époque industrielle au xixe siècle, ont une grande portée historique. Le premier, qui date de 1824, est de l’ingénieur français Sadi Carnot ; il figure dans un petit livre d’une centaine de pages, Réflexions sur la puissance motrice du feu, accueilli dans l’indifférence générale, car il est publié à compte d’auteur et s’adresse à un public non spécialisé. Comme nous le verrons un peu plus loin, l’énoncé s’appuie sur une machine qui fonctionne entre deux sources thermiques, mais laisse apparaître deux faiblesses majeures. Le deuxième énoncé, celui de l’Allemand Rudolf Clausius en 1850, et le troisème de l’Écossais William Thomson (cf. Chapitre 8) en 1852, sont plus facilement accessibles. Énoncé de Clausius La chaleur ne passe pas spontanément d’un corps froid à un corps chaud. Pour établir cette affirmation à partir de l’énoncé de base précédent, il suffit de considérer un système S isolé, constitué de deux systèmes Sc et S f , de températures respectives Tc et T f < Tc , (indice c pour chaud, et indice f pour froid), l’ensemble ne pouvant échanger de l’énergie que par chaleur (Fig. 1). Les bilans énergétique et entropique, entre deux instants successifs, donnent d’une part : 1U = 0

d’où 1U = 1Uc + 1U f = Q c + Q f ,

et d’autre part, puisque l’irréversibilité est due à la mise en contact des surfaces des deux systèmes de températures différentes : 128

LA PENSÉE EN PHYSIQUE

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

Figure 1

Énoncé de Clausius : contact d’un corps chaud et d’un corps froid.

1S = S (c) > 0

avec 1S = 1Sc + 1S f =

Qc Qf + Tc Tf

Il en résulte que les chaleurs Q c et Q f , reçues par Sc et S f respective ment, sont opposées, et donc que : Q f 1/T f − 1/Tc ≥ 0. Comme Tc > T f , Q f = −Q c > 0. Le corps le plus chaud Sc cède de la chaleur au corps le plus froid S f . Il est certes possible de transférer aussi, par chaleur, de l’énergie d’un corps froid à un corps chaud, mais de façon non spontanée, en fournissant du travail ou de la chaleur ; c’est ainsi que fonctionnent les machines, dites inversées, que sont les réfrigérateurs et les pompes à chaleur. Énoncé de Kelvin Un système en contact avec une seule source ne peut, au cours d’un cycle, que recevoir du travail et fournir de la chaleur. Pour retrouver cet énoncé à partir de la formulation choisie du deuxième principe de la thermodynamique, il suffit d’exprimer les bilans énergétique et entropique du système après un cycle (Fig. 2a). En désignant par Q et W la chaleur et le travail reçus (algébriquement) et Ts la température de la source thermique avec laquelle la machine est en contact, on obtient, pour une évolution cyclique réelle : 1E = 0 = W + Q

et 1S = 0 =

Q + S (c) Ts

avec

S (c) > 0.

129

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

Figure 2 a) Énoncé de Kelvin : machine thermique cyclique, en relation avec une seule source. b) Détente d’un gaz dans un cylindre.

Il en résulte, Ts étant positif (cf. Chapitre 7), que Q est négatif et W positif, ce qui établit l’énoncé précédent. Dans le cas irréel d’une évolution réversible, la création d’entropie S (c) serait nulle, ce qui entraînerait Q = 0 et donc W = 0. Un gaz parfait qui se détend dans un cylindre fermé par un piston, d’une pression pi = 10 bar à la pression finale atmosphérique p f = 1 bar, tout en gardant la température de la source unique qu’est le milieu extérieur, fournit du travail (W < 0) et donc reçoit de la chaleur (Q > 0), puisque 1E = 0 (Fig. 2b). Cependant, cette évolution n’est pas cyclique : elle s’arrête lorsque la pression du gaz atteint la valeur de la pression atmosphérique. De la même façon, il serait impossible à un navire de recevoir continûment le travail qui lui est nécessaire pour se déplacer sur l’eau en absorbant simplement de la chaleur prise à l’eau de mer. MACHINES DITHERMES Les machines thermiques fonctionnent généralement grâce à un fluide auquel on fait subir des transformations cycliques, ce qui permet un échange d’énergie avec le milieu extérieur, sous forme de travail et de chaleur. Les machines les plus simples sont dithermes, car elles fonctionnent entre deux sources thermiques, de températures différentes, Tc pour la source chaude et T f < Tc pour la source 130

LA PENSÉE EN PHYSIQUE

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

froide. Comme le fluide décrit des cycles, les variations d’énergie totale E et d’entropie S sont nulles après un cycle. Par conséquent, si W est le travail reçu par le fluide au cours d’un cycle, Q c la chaleur reçue de la source chaude et Q f celle reçue de la source froide, on a : 1E = 0 = W + Q c + Q f

et 1S = 0 = S (e) + S (c) =

Qc Qf + + S (c) Tc Tf

avec évidemment S (c) positif. Le cycle initialement introduit par Carnot est constitué de deux portions isothermes, de températures égales aux températures des sources, séparées par deux autres portions, dites adiabatiques, pour lesquelles les parois du système sont infranchissables à tout transfert d’énergie par chaleur. L’efficacité η d’une telle machine thermique est naturellement définie par le rapport de deux transferts d’énergie, celui défini par la vocation de la machine sur celui nécessaire pour la faire fonctionner. Fonction motrice Dans un moteur ditherme, la source chaude fournit de la chaleur et la source froide en reçoit, ce qui permet à la machine de fournir du travail à l’extérieur (Fig. 3a) : Q c positif, Q f négatif et W négatif. On définit alors son efficacité ηm par le nombre positif :

Figure 3 Échanges d’énergie dans une machine ditherme. a) Machine motrice (W < 0, Q c > 0, Q f < 0). b) Machine inversée (W > 0, Q c < 0, Q f > 0).

131

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

ηm =

−W Qc

d’où

ηm =

Qc + Q f Tc − T f < , Qc Tc

si l’on prend en compte le bilan entropique. Par exemple, si T f = 300 K et Tc = 400 K, alors ηm est inférieur à 0,25. Cette limitation de l’efficacité motrice d’une machine thermique, fonctionnant entre deux sources, constitue l’énoncé de Carnot : Tous les moteurs dithermes ont une efficacité inférieure à une valeur maximale qui ne dépend que des températures des deux sources. Cet énoncé a été considéré pendant longtemps, comme la base du deuxième principe de la thermodynamique. Aujourd’hui, on lui préfère l’énoncé mettant en avant d’emblée le concept d’entropie, considérant, à juste titre, que ce dernier a une portée beaucoup plus vaste que la seule efficacité d’un moteur thermique. En outre, l’analyse de Carnot est entachée de deux hypothèses difficilement acceptables, celle d’un fluide associé à la chaleur, le « calorique », et la « conservation de la chaleur », car Q c provenant de la source chaude ne se retrouve pas intégralement dans la source froide. En présence de pertes par frottement, que l’on doit évidemment prendre en compte dans une machine réelle, l’efficacité serait inférieure aux valeurs données précédemment. On énonce souvent le théorème de Carnot en utilisant, à la place d’efficacité, le mot inadapté de rendement, ce que l’on attribue à tort à Carnot. Il vaudrait mieux réserver le mot rendement au rapport de l’efficacité réelle sur l’efficacité maximale, qui est toujours inférieur à l’unité ; cette dernière, inatteignable, correspond au fonctionnement limite réversible du moteur. Les moteurs thermiques réels diffèrent notablement d’un moteur de Carnot, car on ne peut les réduire à des machines dithermes. Généralement, ils reçoivent de la chaleur d’un ensemble de sources chaudes, constitué par une chambre à combustion, dans laquelle les gaz se détendent brutalement en fournissant du travail, puis sont rejetés vers un ensemble de sources froides. 132

LA PENSÉE EN PHYSIQUE

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

Mentionnons le moteur de Stirling, inventé puis construit par l’ingénieur et pasteur anglais Robert Stirling en 1818, dont la motivation principale était d’ordre humanitaire : il avait été témoin de beaucoup d’accidents d’ouvriers travaillant sur les machines à vapeur. La caractéristique principale de ce moteur est que, contrairement aux autres, il forme un système fermé : le fluide, de l’air par exemple, est contenu dans une enceinte fermée et chauffée par une source thermique extérieure ; la combustion est donc externe, ce qui est une précaution sanitaire, et autorise tous les types de combustibles, notamment les déchets forestiers, animaux et industriels. On comprend, dès lors, l’engouement pour ce moteur écologique, depuis quelques années. Fonction inversée Comme leur nom l’indique, les machines inversées fonctionnent comme des moteurs thermiques, mais les échanges d’énergie sont de sens opposés (Fig. 3b). En fournissant du travail à la machine (W > 0), on permet à la source froide de céder de la chaleur (Q f > 0), et à la source chaude d’en recevoir (Q c < 0). Ces machines sont appelées des réfrigérateurs, lorsqu’on s’intéresse à l’intérieur de l’enceinte (la source froide), qui cède de la chaleur à l’extérieur. Ce sont des pompes à chaleur, lorsque le centre d’intérêt est la pièce à chauffer (la source chaude) qui reçoit de la chaleur, prise à l’extérieur (la source froide). Il en résulte une grande similitude dans les éléments constitutifs de ces deux types de machines inversées. On définit l’efficacité ηr d’un réfrigérateur par le rapport : ηr =

Qf W

d’où

ηr = −

Qf Tf < Qc + Q f Tc − T f

si l’on tient compte du bilan entropique. L’efficacité d’un réfrigérateur est donc limitée supérieurement par une valeur maximale qui ne dépend que de la température des deux sources. Par exemple, si, dans un réfrigérateur T f = −13 ◦ C (260 K) et Tc = 67 ◦ C (340 K), alors ηr est inférieur à 3,25. Dans une telle machine, la source froide est 133

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

l’évaporateur, car, en cet endroit, on place le fluide (de l’ammoniac ou du dioxyde de carbone) en état de se vaporiser, et ainsi de prélever de la chaleur à son environnement immédiat, lequel est constitué par les aliments situés à l’intérieur de l’enceinte calorifugée (Fig. 4a). La source chaude est le condenseur, placé, lui, à l’extérieur de l’enceinte, ainsi appelé car, en son sein, le fluide s’y condense et donc au contraire cède de l’énergie par chaleur. Ce choix particulier de transfert d’énergie par changement d’états s’impose naturellement en raison de la grande valeur des échanges thermiques correspondants (cf. Chapitre 7) ; ces derniers ne sont rendus possibles que par le travail fourni par un compresseur. Un détendeur D permet de fermer le circuit suivi par le fluide.

Figure 4

a) Réfrigérateur à compresseur. b) Réfrigérateur à absorption.

On peut réaliser un réfrigérateur en fournissant de l’énergie, non par travail mais par chaleur, par l’intermédiaire d’une source thermique auxiliaire, appelée bouilleur (Fig. 4b) ; la machine ainsi réalisée, qui est donc dépourvue de compresseur, est dite à absorption, car on y provoque les changements d’états d’un mélange liquidevapeur du fluide considéré (de l’ammoniac le plus souvent). Le fonctionnement de telles machines s’appuie sur la liquéfaction de l’ammoniac (cf. Chapitre 7) et l’absorption du gaz par le liquide en solution, d’où son nom. Comme précédemment le détendeur D permet de fermer le conduit contenant le fluide. Ces réfrigérateurs 134

LA PENSÉE EN PHYSIQUE

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

sont généralement moins encombrants que les précédents ; en outre, ils peuvent être alimentés électriquement (secteur ou batterie) ou par chauffage au gaz. Comme pour un réfrigérateur, on définit l’efficacité η p d’une pompe à chaleur par le rapport : ηp =

−Q c W

d’où

ηp =

Qc Tc < , Qc + Q f Tc − T f

si l’on tient compte du bilan entropique. L’efficacité d’une pompe à chaleur est donc limitée supérieurement par une valeur maximale qui ne dépend que de la température des deux sources. Par exemple, si dans une pompe à chaleur, T f = −10 ◦ C (263 K) et Tc = 20 ◦ C (293 K), alors η p est inférieur à 9,77. L’intérêt d’un tel système de chauffage saute aux yeux, si on le compare au chauffage électrique dans lequel toute la puissance électrique dépensée est transformée en chaleur par le passage d’un courant électrique dans un composant électrique, selon l’effet Joule. Dans l’exemple considéré, pour une même puissance électrique dépensée, l’apport de chaleur à la source chaude est 9,77 fois plus grand. En réalité, l’efficacité réelle est plus faible, comprise entre 3 et 4. Comme précédemment, il est préférable de définir les rendements par les rapports des efficacités. INTERPRÉTATION STATISTIQUE DE L’ENTROPIE Pour approcher la signification profonde du concept d’entropie, plaçons-nous dans le cas d’un système isolé pour lequel 1S = S (c) > 0. Cela ne restreint en rien la généralité de l’analyse, puisque l’on peut toujours se ramener à un tel système en changeant les frontières. Ce système évolue spontanément vers des états caractérisés par l’uniformité de ses paramètres d’état, la température, la pression et le nombre volumique de particules. Ainsi, un système formé de parties initialement à des températures différentes, tendra vers un état de température uniforme. De même, un gaz, initialement confiné dans l’un des deux compartiments d’un 135

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

récipient isolé, occupe tout le volume, dès que l’on supprime la cloison qui les sépare (Fig. 5) : les molécules, initialement regroupées en raison de la contrainte exercée par la paroi, se répartissent dans tout le volume offert, une fois la paroi enlevée, de telle sorte que le nombre de particules par unité de volume soit uniforme.

Figure 5 Répartition des molécules d’un gaz dans un récipient avant et après la suppression de la cloison qui sépare ses deux compartiments.

En 1872, Boltzmann eut l’idée d’exprimer cette évolution vers l’uniformité en termes de désordre : un système isolé évolue naturellement vers un désordre maximal, que l’entropie permet de mesurer. Dans l’exemple du gaz dans le récipient à deux compartiments, le système présente un désordre qui passe d’une valeur minimale, lorsque toutes les molécules sont rassemblées dans un seul compartiment, à une valeur maximale, lorsque, au contraire, les molécules sont également réparties dans les deux compartiments. L’interprétation microscopique de l’augmentation de l’entropie d’un système isolé est une question essentielle à laquelle Boltzmann répondit en pointant la contradiction apparente entre la réversibilité dynamique des collisions à l’échelle moléculaire et l’irréversiblité thermodynamique du système à l’échelle macroscopique. En effet, selon les lois de la mécanique de Newton appliquées aux molécules, les phénomènes observés sont réversibles, puisque les forces de frottement sont de nature macroscopique. Il est alors en principe possible de retrouver l’état initial d’un système de particules (positions et quantités de mouvement) en inversant le sens des vitesses. En réalité, 136

LA PENSÉE EN PHYSIQUE

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

il n’en est rien en raison de la très grande sensibilité aux conditions initiales qui affecte les nombreuses collisions que subit une même particule. L’irréversibilité apparaît alors fondamentalement comme un phénomène émergeant macroscopique, comme d’ailleurs le temps lui-même qu’elle permet de définir. Définition de l’entropie statistique L’entropie statistique d’un système, dans un état macroscopique déterminé, a été définie par Boltzmann à partir de la sommation suivante portant sur les différents états microscopiques µ, de probabilité Pµ , compatibles avec l’état macroscopique considéré : X S =− Pµ ln Pµ . kB µ L’influence de la constante k B est celle d’un simple coefficient multiplicatif permettant de faire coïncider dimensionnellement l’entropie statistique de Boltzmann et l’entropie thermodynamique de Clausius. Pour le faire disparaître, il suffirait de mesurer la température T , non en kelvin, comme cela a été historiquement construit, mais en joule, conformément à l’expression k B T issue de l’analyse microscopique qui donne à la température sa signification profonde (cf. Chapitre 7). En 1948, le mathématicien américain Claude Shannon introduisit, dans le cadre de sa théorie de l’information, l’entropie d’une source d’informations, constituée de plusieurs messages, avec des probabilités de transmission différentes. Il définit l’entropie comme précédemment, mais sans introduire la constante de Boltzmann et en utilisant le logarithme en base 2, lbPµ (cf. Annexe 1). Il n’y a donc pas de différence fondamentale entre l’entropie de Shannon et l’entropie de Boltzmann. Pour progresser dans son interprétation, Boltzmann ajouta l’hypothèse suivante : l’état observé d’un système isolé, en équilibre, est l’état macroscopique le plus probable, c’est-à-dire celui pour lequel le nombre d’états microscopiques est maximal. Si  désigne ce nombre d’états, 137

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

la probabilité d’un état microscopique est : Pµ =

1 

d’où

S = ln  kB

qui donne l’expression microscopique de l’entropie d’un système isolé. À la mort de Boltzmann en 1906, par suicide, Max Planck fit graver sur sa tombe la formule S = k log W , dans laquelle log désigne ln (cf. Annexe 1) et W , première lettre de Wahrscheinlichkeit, qui signifie probabilité en allemand, remplace . Entropie et désordre Dans l’exemple physique du récipient à deux compartiments (Fig. 5), dont on escamote la cloison, l’entropie est maximale lorsque les nombres de particules dans chaque compartiment sont égaux. De même, dans celui d’un alliage Cu-Zn, un petit volume de l’alliage contient autant d’atomes de cuivre que d’atomes de zinc, lorsque l’entropie est maximale. Or le rassemblement de toutes les particules du gaz dans un seul compartiment du réservoir, ou la présence exclusive d’atomes de cuivre dans l’alliage, traduisent un ordre en position maximal et donc une entropie nulle. C’est ce qui a conduit Boltzmann à relier désordre et entropie d’un système. Dans les deux cas, le désordre en position est maximal. Dans d’autres cas, comme le magnétisme, où des boussoles microscopiques, appelées moments magnétiques des atomes, s’orientent selon la direction d’un champ magnétique extérieur (cf. Chapitre 20), l’ordre en orientation est maximal sous l’action du champ ; le désordre et donc l’entropie sont alors nuls. Entropie statistique et information manquante Dans un système à deux états 1 et 2, le système macroscopique est dans un seul état microscopique, lorsque toutes les particules sont dans

138

LA PENSÉE EN PHYSIQUE

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

l’état 1 ; l’ordre est alors total et l’entropie nulle, ainsi que le manque d’information sur le système. En revanche, lorsque les particules sont également réparties dans les deux états 1 et 2, l’entropie est maximale, comme le manque d’information, car, à un même état macroscopique, correspondent un grand nombre d’états microscopiques qu’on ne peut distinguer entre eux : on ne sait pas précisément quel est l’état microscopique qui est réalisé ; notre ignorance sur le système est maximale. Ce résultat est compatible avec la définition de l’entropie d’un système dans la théorie de l’information de Shannon : l’entropie est la valeur moyenne de l’information contenue dans chaque message provenant du système et détecté par l’observateur. Comme de tels messages ne sont pas envisagés en thermodynamique, on dit que l’entropie mesure l’information manquante. Fluctuation d’entropie : mouvement brownien Le mouvement brownien, du nom du botaniste écossais Robert Brown qui l’a observé pour la première fois en 1827, est le mouvement désordonné et incessant de petites particules en suspension dans un fluide, sous l’action de leur bombardement par les molécules du fluide. Ce fait paraît en contradiction avec l’énoncé de Kelvin du deuxième principe de la thermodynamique, car le fluide, de température uniforme, semble dans ce cas fournir du travail aux particules en suspension, cela en permanence. Cette contradiction fut levée par Einstein en 1910, à partir des fluctuations du nombre d’états microscopiques accessibles. En effet, de telles fluctuations entraînent des fluctuations de l’entropie de k B /2, et donc des fluctuations d’énergie d’amplitude k B T /2. Entropie de mélange. Paradoxe de Gibbs Reprenons l’exemple du récipient constitué de deux compartiments identiques, en considérant qu’ils contiennent un même nombre N de molécules de gaz parfaits monoatomiques différents, par exemple 139

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

de l’hélium et de l’argon (Fig. 5). Lorsqu’on escamote la cloison de séparation, le volume accessible à toute molécule double, ce qui multiplie par 2 N le nombre d’états accessibles de chaque gaz. On en déduit l’augmentation de l’entropie de chacun des gaz et donc la variation d’entropie 1Sm du système :   k B ln2 N = N k B ln2

d’où 1Sm = 2N k B ln2

soit 1Sm = 2n R ln2

en introduisant R = N A k B et le nombre de moles n = N/N A . L’application de ce résultat à deux gaz identiques, par exemple de l’hélium dans chaque compartiment, donne aussi, pour le mélange, une variation d’entropie de 2n R ln2, alors que la situation physique réelle n’a pas changé. C’est le paradoxe de Gibbs (prononcer Guibbs) que l’on attribue au maintien injustifié de l’hypothèse de discernabilité des molécules, alors que les molécules des gaz sont identiques et non localisées. On lève ce paradoxe en postulant au contraire l’hypothèse d’indiscernabilité des particules identiques non localisées. L’indiscernabilité est précisément l’une des hypothèses fondamentales admises dans les théories statistiques quantiques. Mort thermique de l’Univers L’application du deuxième principe de la thermodynamique à l’Univers, considéré comme un système isolé, a conduit l’Allemand Hermann von Helmholtz, à énoncer, en 1854, le paradoxe de la mort thermique de l’Univers. En effet, la transposition de l’interprétation précédente à l’Univers conduit naturellement à l’uniformité, c’est-àdire à la disparition de toute structure (galaxies, étoiles, etc.), et donc à sa mort thermique ! Or, les observations et l’analyse physique en astrophysique conduisent, au contraire, à penser que l’Univers s’est progressivement structuré, depuis un état homogène de particules, il y a environ 13,8 milliards d’années, jusqu’à maintenant où la matière s’est regroupée en une multitude d’étoiles et de galaxies. Ce paradoxe a été levé en analysant le rôle particulier de la gravitation qui est une interaction constamment attractive. En effet, 140

LA PENSÉE EN PHYSIQUE

CLAUSIUS ET BOLTZMANN : LE CONCEPT D’ENTROPIE

l’énergie gravitationnelle associée, qui est généralement négligeable devant l’énergie d’agitation thermique dans le cas d’un gaz confiné dans un récipient, devient essentielle lorsque le système de particules est autogravitant, c’est-à-dire soumis à la seule attraction gravitationnelle entre elles, comme c’est ici le cas. Si le confinement spatial observé constitue effectivement un facteur de diminution de l’entropie, l’effondrement gravitationnel provoque corrélativement, d’une part une augmentation du désordre des vitesses des particules dans le cœur des objets astrophysiques, d’autre part la création de trous noirs (cf. Chapitres 6 et 14), lesquels sont des sources considérables d’entropie. Finalement, l’entropie de l’Univers, considéré comme un système isolé, augmente, ce qui exclut sa mort thermique, mais évidemment pas celle du système solaire dans 5 milliards d’années environ, et encore moins celle de l’humanité probablement bien avant ! L’entropie est-elle une grandeur anthropique? Autrement posée, la question serait : l’entropie d’un système dépend-elle de l’observateur ? La réponse est oui, tant que l’on ne précise pas la taille d’un état microscopique. Si cette taille est précisée, comme c’est le cas dans l’analyse quantique (cf. Chapitre 18), la réponse est non. En effet, dans le cas d’un gaz parfait monoatomique, l’entropie dépend certes du nombre de moles n = N/N A , de la température T , du volume V , comme le prévoit la théorie classique, mais aussi d’une constante directement reliée à la masse m des molécules, à k B , à N A et à la constante de Planck h (cf. Chapitre 1). L’expression complète de l’entropie d’un tel système a été établie en 1912, par l’Allemand Otto Sakur et le Néerlandais Hugo Tetrode, et confirmée expérimentalement, dans le cas de l’argon, avec un excellent accord :     V 3 S = n R ln + lnT + K n 2

avec

K =

3 ln 2



2πmk B h2



− ln N A +

5 . 2

141

9 Euler et Zeuner : systèmes ouverts en mécanique et en thermodynamique

Les lois de la mécanique et de la thermodynamique ont été énoncées dans le cas des systèmes fermés, c’est-à-dire des systèmes qui échangent avec l’extérieur exclusivement du travail ou de la chaleur. Les systèmes isolés sont ceux qui, en outre, n’échangent rien avec l’environnement ; l’énergie est alors constante. Au contraire, les systèmes ouverts peuvent échanger avec l’extérieur, non seulement de l’énergie, par travail ou chaleur, mais aussi de la matière. Ils jouent un rôle essentiel en physique, car ce sont les plus intéressants, par exemple les fusées, les avions à réaction et surtout les êtres vivants. Pour les étudier, on choisit d’abord le contenu matériel d’une surface fermée 6, dite de contrôle, à travers laquelle s’opèrent des échanges d’énergie et de matière. On applique ensuite les résultats connus relatifs aux systèmes fermés, en considérant une quantité constante de matière, constituée du contenu matériel de 6, qui varie au cours du temps, et de la contribution des échanges de 143

EULER ET ZEUNER : SYSTÈMES OUVERTS EN MÉCANIQUE...

matière avec l’extérieur, de telle sorte que la masse de l’ensemble soit constante 1 . Il en résulte un terme complémentaire dans les équations du mouvement, et dans celles relatives à l’énergie et à l’entropie (cf. Chapitres 3, 5 et 8). Ainsi, le théorème de la quantité de mouvement s’écrit : 1P + {qm v}se = Sex , 1t qm = 1m/1t désignant le flux de matière échangée avec l’extérieur, appelé le débit-masse. Pour simplifier l’écriture, on suppose que les échanges à l’entrée et à la sortie sont localisés en deux points seulement, Ae à l’entrée et As à la sortie. De même, le théorème du moment cinétique a pour expression, en un point fixe O du référentiel galiléen considéré : 1L O + {qm O A × v}se = M O,ex , 1t A étant l’un des points de 6 par lesquels l’échange de matière s’opère. La généralisation des théorèmes de mécanique à des systèmes ouverts est attribuée au Suisse Leonhard Euler, surtout connu pour sa contribution considérable en mathématique. De même, des termes complémentaires doivent être pris en compte, dans les énoncés du premier et du deuxième principes de la thermodynamique. Il vient, pour le premier principe : 1E + {qm e}se 1t = W + Q,

E étant l’énergie totale du système (interne, cinétique, potentielle) et e l’énergie totale massique associée à l’échange de matière. Quant au

1. Cette variation de la masse d’un système ne doit pas être confondue avec celle associée au concept superflu de masse variable parfois introduit en relativité (cf. Chapitre 13).

144

LA PENSÉE EN PHYSIQUE

EULER ET ZEUNER : SYSTÈMES OUVERTS EN MÉCANIQUE...

deuxième principe, il s’écrit : 1S + {qm s}se 1t = S (e) + S (c) , où S (e) est l’entropie échangée par l’intermédiaire de la chaleur reçue, et S (c) l’entropie créée, toujours positive, entre deux instants successifs. Cette généralisation en thermodynamique est due au physicien et ingénieur allemand du xixe siècle Gustav Zeuner. Dans l’étude des systèmes ouverts, une erreur de débutant consiste à oublier les masses éjectées dans le bilan des différentes grandeurs, quantité de mouvement, moment cinétique, énergie et entropie.

MÉCANIQUE DES SYSTÈMES OUVERTS Fusée, comète et avion turbo-réacteur Une fusée est un système matériel ouvert qui se déplace, dans le vide ou non, en éjectant de la masse, en général des gaz brûlés (Fig. 1). Ce système satisfait donc à l’équation écrite précédemment selon laquelle le taux de variation de la quantité de mouvement, augmenté de la contribution des masses échangées avec l’extérieur, est égal à la somme des forces extérieures.

Figure 1

Propulsion d’une fusée.

145

EULER ET ZEUNER : SYSTÈMES OUVERTS EN MÉCANIQUE...

Il est simple et commode de se placer, non dans le référentiel du laboratoire R, mais dans celui R′ , lié à l’armature de la fusée, dans lequel la surface de contrôle 6 est fixe et la quantité de mouvement stationnaire, les mouvements à l’intérieur de la fusée n’ayant qu’une influence négligeable ( P ′ = 0). Il suffit d’ajouter aux forces, dues à la présence d’autres corps, les forces d’inertie, lesquelles se réduisent à celles d’entraînement dans le cas d’un mouvement de translation (cf. Chapitre 4). Il en résulte l’équation suivante du mouvement : {qm v ′ }se = Sex − M a, où Sex désigne la somme des forces extérieures exercées par l’environnement, explicitement le poids M g et la résultante aérodynamique R. Comme v′e = 0 et v ′ = u, vitesse d’éjection des gaz brûlés, on en déduit : M a = M g + R − qm u. Ce dernier terme −qm u, opposé à la vitesse d’éjection des gaz par rapport à la fusée, est appelé la force de poussée. Dans le cas du lanceur Ariane 6 (Fig. 2), de moyenne puissance, dont la masse totale est 530 t, cette force au décollage est obtenue grâce au moteur Vulcain et aux moteurs d’appoint qui développent ensemble une poussée de 8 MN (1 MN = 106 N). La résultante aérodynamique R est proportionnelle au carré de la vitesse : R = C x ρa Sv2 /2 ; dans cette expression, ρa est la masse volumique de l’air, S l’aire de la surface de la section de la fusée, dans un plan perpendiculaire à sa vitesse, et C x un facteur sans dimension qui dépend de la géométrie de cette surface et de l’air environnant. On montre que le gain de vitesse que procure la force de poussée, même en supposant la résultante aérodynamique nulle, est insuffisant pour communiquer à une masse, située dans le voisinage de la Terre, une vitesse égale à la vitesse de libération de 11,2 km.s−1 (cf. Chapitre 6), d’où la nécessité d’une fusée à plusieurs étages. Pour obtenir cette vitesse, on utilise des fusées gigognes constituées 146

LA PENSÉE EN PHYSIQUE

EULER ET ZEUNER : SYSTÈMES OUVERTS EN MÉCANIQUE...

Figure 2

Caractéristiques du lanceur européen Ariane 6.

généralement de plusieurs étages qui se séparent du reste de la fusée lorsque leur réserve de comburant et de carburant est épuisée. L’accroissement global de vitesse est alors la somme des accroissements de vitesse de chaque étage. Un autre exemple de système à masse variable est fourni par une comète qui perd une partie de sa masse en se rapprochant du Soleil. L’analyse est analogue à celle de la fusée ; dans ce cas, u = 0 et la somme des forces se réduit à l’attraction gravitationnelle : Mc a = Mc G , expression dans laquelle G désigne le champ de gravitation solaire dans lequel est plongée la comète (cf. Chapitre 6). Enfin, les avions à turbo-réacteurs se déplacent à la vitesse v, en recevant de l’air qu’ils rejettent, avec une vitesse u par rapport à l’avion, après injection de carburant et combustion (Fig. 3). Comme la masse de combustible brûlé est très faible devant celle de l’air transféré, on peut la négliger. Dans le référentiel non galiléen R′ , lié à l’avion, on a, comme pour la fusée, les forces de pression ayant une résultante nulle :

147

EULER ET ZEUNER : SYSTÈMES OUVERTS EN MÉCANIQUE...

Figure 3

Avion à turbo-réacteurs.

qm (v s − v e ) = M g + R − M a, avec v e tel que 0 = v e + v et v s = u. Il vient donc : M a = M g + R − qm (u + v). La quantité −qm (u+v) est la force propulsive. Pour un avion de masse 4 t, se déplaçant à la vitesse v = 720 km.h−1 , soit v = 200 m.s−1 , avec une vitesse d’éjection de u = 600 m.s−1 et un débit-masse qm = 90 kg.s−1 , la force propulsive vaut qm (u − v) = 36 kN. Tabouret d’inertie avec abandon de masse Dans l’expérience du tabouret d’inertie illustrant la conservation de la projection verticale du moment cinétique et la variation d’énergie cinétique (cf. Chapitre 5), on a vu que la personne, assise sur le tabouret, augmentait sa vitesse de rotation angulaire en ramenant le long de son corps ses bras initialement tendus. Une légère variante de cette expérience initiale consiste à munir initialement la personne de deux masses identiques, tenues à bout de bras, et à lui demander de les abandonner (sans vitesse par rapport à elle), les bras restant tendus (Fig. 4). Il y a toujours conservation du moment cinétique du système, selon l’axe de rotation, mais il faut considérer le système total, et ne pas oublier les deux masses supplémentaires, avant et après leur abandon, car un tel oubli affecterait le bilan de moment cinétique et impliquerait 148

LA PENSÉE EN PHYSIQUE

EULER ET ZEUNER : SYSTÈMES OUVERTS EN MÉCANIQUE...

Figure 4

Tabouret d’inertie avec abandon de masse.

une augmentation de la vitesse de rotation du tabouret 2. Cette conservation entraîne celle de la vitesse de rotation angulaire du tabouret. C’est bien ce que l’on constate expérimentalement. Tourniquet à eau ou à air Analysons le mouvement d’un tourniquet à fluide (eau ou air), tel que celui représenté sur la figure 5. Le fluide pénètre dans le tourniquet selon l’axe de rotation et en sort par les deux extrémités des deux bras transversaux, avec une vitesse d’éjection u perpendiculaire aux bras. Pour simplifier, on néglige l’influence des frottements solides, c’est-àdire que l’on suppose la liaison autour de l’axe vertical de rotation Oz parfaite, et que l’on ne tient pas compte des forces de viscosité avec l’air extérieur.

Figure 5

Schéma d’un tourniquet à air.

2. Newton et la relativité, 1986, PUF, pages 116-118.

149

EULER ET ZEUNER : SYSTÈMES OUVERTS EN MÉCANIQUE...

En projection selon l’axe vertical Oz, l’équation du mouvement de rotation donne : 1L z + {qm (O A × v)z }se = 0, 1t car le moment des forces le long de cet axe est nul. En régime stationnaire, seul le terme d’échange joue un rôle. En outre, la contribution du mouvement du fluide à l’entrée est nulle car la vitesse de pénétration s’effectue selon l’axe. Quant à celle à la sortie, elle est décisive et s’écrit 2qm b(−u + b ), qm étant le débit-masse, b la longueur des bras, ρ la masse volumique du fluide, s la section des ajutages et  la vitesse angulaire de rotation du tourniquet. Le signe moins devant u vient du sens de l’éjection opposé à celui de la vitesse de l’extrémité du bras ; le facteur 2 traduit la concordance des contributions égales des deux bras. Il en résulte qu’en régime stationnaire, la vitesse de rotation est  = u/b. Dans le cas concret d’un tourniquet à air, plus commode à utiliser, b = 7 cm, et u = 7 m.s−1 , d’où 0 = 100 rad.s−1 , soit environ 16 tours par seconde. Si la vitesse d’éjection du fluide u fait l’angle β (Fig. 5) avec l’horizontale perpendiculaire à la direction des bras du tourniquet, cette vitesse de rotation devient  = u cos β/b. Notons que le terme en  dans l’équation du mouvement vient de l’échange de masse avec l’extérieur, et non d’une éventuelle force de viscosité, dont le moment par rapport à l’axe vertical serait de la forme −αd . Le mode inverse du tourniquet, en admission et non plus en expulsion, a intrigué de grands scientifiques, notamment l’Allemand Ernst Mach et l’Américain Richard Feynman 3 . Mach avança, à partir de considérations subtiles, mais peu explicites, que le tourniquet en mode d’admission ne devait pas tourner. Le problème posé fut popularisé par Feynman, mais la réponse de ce dernier manqua de clarté, d’où, 3. BUP, 2018, vol.112.

150

LA PENSÉE EN PHYSIQUE

EULER ET ZEUNER : SYSTÈMES OUVERTS EN MÉCANIQUE...

depuis, la publication de plusieurs articles contradictoires sur le fonctionnement en mode d’admission du tourniquet. On justifie l’absence de rotation dans le mode d’admission, par la forme du jet qui diffère de celle en mode d’expulsion. Selon Mach, dans une première phase d’admission de l’eau, il n’y a pas de transfert de quantité de mouvement ; en revanche, dans une seconde phase, de l’eau est expulsée sous forme de jet, avec un transfert de quantité de mouvement. C’est ce cycle qui permet aux calamars des eaux océaniques de se déplacer comme s’ils expulsaient de l’eau uniquement ; une succession cyclique d’expulsions et d’admissions d’air ne se distingue pas d’une expulsion continue d’air. Une étude expérimentale soignée a permis de confirmer que le tourniquet de Mach-Feynman en mode d’admission ne tournait pas.

THERMODYNAMIQUE DES SYSTÈMES OUVERTS Bilan énergétique Comme en mécanique, définissons le système ouvert par le contenu matériel d’une surface de contrôle 6, supposée fixe dans le référentiel du laboratoire considéré. Le bilan d’énergie s’écrit, en tenant compte de l’échange : 1E + {qm (ek + u + e p,ex )}se 1t = W + Q, ek étant l’énergie cinétique massique des quantités échangées, u l’énergie interne massique et e p,ex l’énergie potentielle extérieure massique. En régime stationnaire, 1E = 0, d’où l’équation : {qm (ek + u + e p,ex )}se 1t = W p + Wu + Q, où l’on a séparé le travail W p des forces de pression, indispensable pour faire pénétrer et sortir les masses, des autres travaux notés globalement Wu ; l’indice rappelle que ce travail est souvent qualifié d’utile. Les travaux de ces forces de pression qui s’exercent sur les masses entrante 151

EULER ET ZEUNER : SYSTÈMES OUVERTS EN MÉCANIQUE...

et sortante ont pour expressions respectives pe ve 1m e et − ps vs 1m s . Il en résulte, en introduisant l’enthalpie massique h = u + pv : {qm (ek + h + e p,ex )}se 1t = Wu + Q. Bilan entropique En supposant que la température à la surface de contrôle 6 du système est uniforme et de valeur T0 , le bilan s’écrit, si on introduit l’entropie massique s du fluide transféré : 1S + {qm s }se 1t =

Q + S (c) . T0

En régime stationnaire, 1S = 0. Par conséquent : {qm s }se 1t =

Q + S (c) . T0

Si, en outre, l’évolution s’opère sans échange d’énergie par chaleur, le bilan se réduit à : {qm s }se 1t = S (c) On voit que la création positive d’entropie implique un transfert entropique de l’entrée vers la sortie. Le calcul de ce transfert permet d’obtenir le terme de création d’entropie ; cette création est nulle en l’absence de viscosité, ce qui rend l’écoulement isentropique. Application à la détente de Joule-Kelvin et aux tuyères La détente de Joule et Kelvin permet de tester les propriétés des gaz parfaits en les faisant circuler dans une conduite rigide. Avec des gaz réels, on observe une chute de température que l’on utilise avantageusement pour obtenir de basses températures (cf. Chapitre 7). On la préfère à la détente de Joule et Gay Lussac, dans laquelle on offre à un gaz un volume double de son volume initial ; en effet, avec cette dernière, la chute de température d’un gaz réel est fugace et donc difficile à mesurer. Pour réaliser une détente 152

LA PENSÉE EN PHYSIQUE

EULER ET ZEUNER : SYSTÈMES OUVERTS EN MÉCANIQUE...

de Joule et Kelvin, on calorifuge la conduite et on impose au gaz de traverser un obstacle en régime stationnaire, ce qui provoque une diminution de pression (Fig. 6a). Comme il n’y a ni travail utile ni chaleur reçus, le bilan énergétique donne : {qm (ek + h + e p,ex )}se = 0

soit

hs = he,

si ek + e p,ex ne change pas entre l’entrée et la sortie. Comme l’enthalpie d’un gaz parfait ne dépend que de la température, cette dernière ne varie pas après une détente de Joule et Kelvin. C’est ce que confirme l’expérience : avec des gaz suffisamment dilués, la variation de température est négligeable, mais avec des gaz réels, cette variation peut provoquer une baisse significative, pourvu que la température initiale du gaz soit inférieure à une certaine température, appelée température d’inversion.

Figure 6

a) Détente de Joule et Kelvin d’un gaz. b) Détente dans une tuyère.

Dans une tuyère divergente, d’axe de révolution Oz, rigide et calorifugée, le fluide (mélange d’air et de gaz brûlés) se détend (Fig. 6b). D’après le bilan énergétique du premier principe, en régime stationnaire, il vient, si l’axe de la tuyère est horizontal : (ek + h)s = (ek + h)e

soit

1 2 (v − ve2 ) = −(h s − h e ). 2 s

Lorsque la vitesse des gaz augmente en sortie, l’enthalpie diminue et donc la température. Par exemple, pour de l’air entrant à une vitesse 153

EULER ET ZEUNER : SYSTÈMES OUVERTS EN MÉCANIQUE...

ve = 300 m.s−1 et sortant à la vitesse ve = 500 m.s−1 , la baisse de température est de l’ordre de 80 K. Quant au bilan entropique, il s’écrit S (c) = {qm s}se 1t, ce qui permet d’évaluer le terme de création d’entropie en calculant la variation d’entropie massique du fluide entre l’entrée et la sortie. Application aux systèmes vivants Un être vivant est un système ouvert, puisqu’il échange avec l’extérieur, non seulement de l’énergie, mais aussi de la matière, précisément de la nourriture qu’il ingurgite et des déchets qu’il évacue. Ce sont les réactions chimiques que subissent les aliments consommés qui contribuent au bon fonctionnement du métabolisme interne de son organisme. Les bilans énergétique et entropique s’écrivent comme pour tous les systèmes ouverts. En régime stationnaire (1E = 0 et 1S = 0), ce qui est réalisé pour un être vivant, en bonne santé, pendant la durée 1t d’une expérimentation, les bilans se réduisent à : {qm e}se 1t = W + Q

et {qm s}se 1t = S (e) + S (c)

Les termes d’échange jouent alors un rôle décisif. Si, en outre, on suppose qu’il n’y a pas d’échange thermique, alors : {qm e}se 1t = W

et {qm s}se 1t = S (c)

L’interprétation de la première équation est immédiate : si {qm e}se < 0, c’est-à-dire si l’être vivant s’est suffisamment alimenté, ce dernier est en mesure de fournir du travail au milieu extérieur (W < 0). La seconde équation permet de trouver les sources de la production d’entropie, toujours positive. Dans son livre Qu’est-ce que la vie ?, le physicien et philosophe autrichien Edwin Schrödinger, célèbre pour sa contribution décisive en physique quantique (cf. Chapitre 18), introduit dans les échanges le concept de néguentropie Ng , opposé à celui d’entropie S ; le bilan 154

LA PENSÉE EN PHYSIQUE

EULER ET ZEUNER : SYSTÈMES OUVERTS EN MÉCANIQUE...

précédent s’écrit alors : S (c) = {qm n g }es 1t n g étant la néguentropie massique, opposée à l’entropie massique s. On voit que la création positive d’entropie est assurée par l’absorption suffisante de néguentropie, pendant la durée 1t. C’est ainsi que les animaux supérieurs se maintiennent en vie en consommant des composés organiques complexes, qu’ils rejettent ensuite sous des formes simples et appauvries.

155

10 Huygens et Fermat : rayons lumineux et mirages

L’optique est une branche de la physique appelée ainsi car, en grec, Optikos signifie relatif à la vision, ce qui était une préoccupation des Grecs. Elle est principalement l’ensemble des phénomènes perçus par l’œil, avec pour cause unique la lumière. Elle a été étudiée très tôt dans l’histoire des sciences, au point que tous les principes sur lesquels elle repose sont connus depuis le xixe siècle, notamment ceux de l’optique des rayons lumineux, dite aussi géométrique, qui en est une approximation. Évidemment, furent d’abord établies les lois simples auxquelles obéissent les rayons lumineux. Ce sont les Grecs, émigrés à Alexandrie, à l’embouchure du Nil, qui étudièrent les premiers la réflexion de la lumière par les miroirs, vers 300 avant notre ère, principalement Euclide, surtout connu pour ses Éléments mathématiques. Cependant, on attribue à Héron d’Alexandrie, qui vécut quatre siècles après, la justification des lois de la réflexion. Entre 100 et 170, l’astronome Claude Ptolémée poursuit ce travail dans son livre Optique, avec l’étude de 157

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

la réfraction et de la couleur ; curieusement il admet l’hypothèse d’Euclide, selon laquelle un flux lumineux émerge des yeux pour atteindre les objets, et non l’inverse ! Après la chute de la pensée grecque, puis celle de Rome en 476, vint la période arabe, durant laquelle les travaux des penseurs grecs furent traduits, sous l’impulsion de Ibn Ishaq (fils d’Isaac). En 984, Ibn Sahl démontra la loi de la réfraction, puis étudia les instruments formés de miroirs et lentilles. Toute la contribution des Arabes à l’optique est rappelée par Ibn al Haytham (connu aussi sous le nom de Alhazen), dans son traité sur la vision Kitab al-Manazir, notamment l’abandon de l’hypothèse euclidienne et son renversement. Les lois de l’optique des rayons lumineux seront retrouvées bien plus tard, séparément par l’Anglais Thomas Harriot en 1602, puis le Néerlandais Wilford Snell en 1621 et le philosophe français René Descartes en 1637. Elles sont connues en France sous le nom de lois de Snell-Descartes. C’est Descartes qui donne, le premier, une justification indiscutable de l’arc-en-ciel. En 1657, le Toulousain du Capitole, Pierre de Fermat, retrouve les lois de la réflexion et de la réfraction, à partir d’un principe variationnel, selon lequel la durée que met la lumière pour parcourir toute distance est minimale. Les mirages optiques, fréquemment observés notamment dans les déserts sahariens, sont alors interprétés par la courbure des rayons lumineux associée à la non-homogénéité de l’atmosphère terrestre. L’aspect ondulatoire de la lumière est introduit en 1665, par l’Anglais Robert Hooke pour qui la lumière est une vibration de très haute fréquence, qui se propage à la manière du son dans l’air, dans un certain milieu hypothétique, l’éther. Cette idée est développée par le Néerlandais Christian Huygens, mais contrariée par Newton, adepte d’une théorie corpusculaire. Ce n’est qu’au début du xixe siècle que l’Anglais Thomas Young s’appuie sur la théorie ondulatoire pour étudier les phénomènes d’interférence (cf. Chapitre 12). En 1818, le Français Augustin Fresnel propose une synthèse des idées de Huygens 158

LA PENSÉE EN PHYSIQUE

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

et de Young pour expliquer le phénomène de diffraction, c’est-à-dire l’éparpillement de la lumière autour des obstacles, et donc la présence de lumière dans les ombres (cf. Chapitre 11). Enfin, en 1873, l’Anglais James Maxwell achève la théorie électromagnétique de la lumière, et conclut que la lumière, dans le domaine visible, peut être décrite par une ou plusieurs ondes électromagnétiques sinusoïdales qui vibrent avec une fréquence proche de ν ≈ 5 × 1014 Hz et qui se propagent toutes, dans le vide, à la vitesse c ≈ 3×108 m.s−1 ; il précise, en outre, que l’onde est transversale, c’est-à-dire que les grandeurs vectorielles qui la caractérisent, vecteur champ électrique E et vecteur champ magnétique B, sont perpendiculaires à la direction de propagation. Au début du xxe siècle, seule reste inexpliquée l’émission de lumière par les atomes. La réponse est donnée avec l’aspect corpusculaire de la lumière et la théorie quantique de l’émission : les atomes, préalablement excités par suite de collisions entre eux, se désexcitent en émettant des photons (cf. Chapitre 16). Si ν est la fréquence de l’onde, l’énergie des photons est E = hν et leur quantité de mouvement p = h ν/c, où h ≈ 6,63 × 10−34 J.s est la constante de Planck (cf. Chapitres 1 et 15). Cette énergie est de l’ordre de quelques électronvolts (1 eV ≈ 1,6 × 10−19 J). PRINCIPE DE HUYGENS ET FRESNEL Le principe de Huygens et Fresnel est à la base de la propagation d’une onde lumineuse, dans le vide ou dans un milieu matériel isotrope, c’est-à-dire un milieu tel qu’aucune direction ne soit privilégiée (en grec, iso signifie identique et trope direction), contrairement aux milieux anisotropes, comme certains cristaux. Onde Un exemple simple d’onde est fourni par la façon dont une vibration acoustique est transmise de proche en proche, dans un milieu matériel, par exemple l’air, l’eau, le bois ou l’acier. Dans ces cas, les déplacements des particules physiques formant le milieu se 159

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

transmettent dans une direction, avec une célérité cφ ; ces déplacements dépendent à la fois du temps et de la variable spatiale x par l’intermédiaire de la quantité t − x/cφ : on retouve un peu plus loin, à un instant ultérieur, ce qu’il y avait à un endroit, un peu plus tôt. Cette quantité étant directement reliéé à la phase totale de l’onde qui se propage (cf. Annexe 1), cφ est appelée la vitesse de phase. Ajoutons que cette vitesse dépend des caractéristiques du milieu, et surtout qu’elle est d’autant plus grande que les corps sont plus denses. Ainsi, la propagation du son dans le vide est nulle, dans l’air de l’ordre de 330 m.s−1 , dans l’eau d’environ 1 500 m.s−1 et dans un solide d’une valeur de 3 000 m.s−1 . Parmi toutes les ondes, celles dites monochromatiques (ou sinusoïdales, ou harmoniques) s’écrivent (cf. Annexe 1) :    x 9 = am cos 2πν t − , cφ où am est l’amplitude, ν la fréquence et 2πν(x/cφ ) sa phase à l’orgine des durées. Lorsque l’argument est t + x/cφ , l’onde n’est pas progressive, mais régressive ; c’est ce type d’onde qui permet d’expliquer la réflexion d’une onde le long d’une corde dont une extrémité est maintenue immobile 1 . On écrit souvent la fonction 9 précédente, plus simplement, en introduisant la pulsation temporelle ω et la pulsation spatiale k selon l’axe de propagation Ox : 9 = am cos(ωt − kx)

avec ω = 2πν

et k = 2π

ν 2π = cφ λ

si on fait apparaître la période spatiale λ = cφ T et donc sa période temporelle T = 1/ν. Par exemple, l’onde acoustique sinusoïdale, de 1. Dans les années 1960, un physicien, pourtant réputé, avait émis l’hypothèse qu’une telle onde régressive pouvait expliquer les phénomènes de prémonition auxquels il semblait croire, ce qui surprit la communauté scientifique ; comme cette hypothèse ne fut jamais confortée, ni par l’analyse ni par l’expérience, elle fut rapidement écartée.

160

LA PENSÉE EN PHYSIQUE

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

fréquence ν = 3,4 kHz, a une longueur d’onde λ = cφ /ν qui vaut 10 cm. En dehors de sa fréquence et des quantités qui lui sont directement reliées, les grandeurs importantes associées à une onde monochromatique progressive sont l’amplitude am , dont le carré est l’intensité I de l’onde, et le retard de phase φ = kx = 2π νx/cφ ; l’ensemble {am ,φ} forme l’amplitude complexe de l’onde que l’on représente par le nombre complexe ψ (cf. Annexe 1). Ce retard de phase kx s’écrit souvent k · r, en introduisant le vecteur position r de composantes x, y, z et le vecteur d’onde k de composantes k, 0, 0. Ainsi : 9 = am cos(ωt − k · r) Ces ondes monochromatiques sont caractérisées par leurs extensions infinies dans l’espace et dans le temps. Elles jouent un rôle déterminant en raison de leur capacité à représenter toutes les autres, par simple superposition linéaire ; c’est ce que découvrit Fourier, en 1815, en étudiant le transfert d’énergie le long d’une barre métallique, latéralement calorifugée (cf. Chapitre 7). Une onde optique est définie de la même manière, encore est-il nécessaire de préciser que la vibration, qui est transmise dans l’espace, est un champ électromagnétique, de nature vectorielle, qui se propage d’autant mieux que le milieu de transmission se rapproche du vide, ce qui distingue fondamentalement une onde optique d’une onde acoustique. Dans le vide, la vitesse de propagation de cette dernière est nulle, alors qu’elle atteint la valeur maximale égale à la constante d’Einstein avec la lumière : c ≈ 3 × 108 m.s−1 ; dans le verre, cette vitesse est de l’ordre de 0,66 c, et dans l’eau d’environ 0,75 c. Pour l’onde lumineuse monochromatique, de couleur rouge, issue du laser hélium-néon, d’un usage répandu, la longueur d’onde dans le vide vaut λ = 632,8 nm (cf. Chapitre 19). Dans l’espace, on distingue essentiellement les ondes monochromatiques planes, pour lesquelles la surface d’onde, c’est-à-dire 161

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

l’ensemble des points de l’espace dans un même état vibratoire, est un plan, et les ondes monochromatiques sphériques pour lesquelles cette surface est une sphère. Énoncé du principe La lumière se propage de proche en proche. Dans un milieu isotrope, chaque point atteint par la lumière se comporte comme une source secondaire d’ondelettes sphériques qui s’additionnent. La surface enveloppe de ces ondelettes forme une surface d’onde. Pour construire, à partir de la surface d’onde 61 à l’instant t1 , la surface d’onde 62 à l’instant ultérieur t2 = t1 + 1t, il faut tracer, en chaque point A1 de 61 , une sphère de centre A1 dont le rayon est tel que la durée de propagation de l’onde lumineuse soit égale à 1t (Fig. 1). Notant 1s la distance parcourue par l’onde pendant la durée 1t et cφ sa vitesse de propagation, on a évidemment : 1t = 1s/cφ .

Figure 1

Propagation de la lumière de proche en proche.

Indice d’un milieu. Chemin optique L’indice n d’un milieu est le rapport de la vitesse de la lumière dans le vide sur sa vitesse dans le milieu considéré : n = c/cφ . C’est donc un nombre sans dimension qui est supérieur à l’unité. Comme il dépend 162

LA PENSÉE EN PHYSIQUE

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

de la fréquence, donnons sa valeur dans quelques milieux particuliers, pour une longeur d’onde moyenne du spectre visible (550 nm) : n ≈ 1 dans l’air, n ≈ 1,33 dans l’eau, n ≈ 1,5 dans le verre. En introduisant l’indice, la durée 1t, qui permet de définir 62 à partir de 61 sur la figure 1, s’écrit : 1s n1s 1t = = . cφ c On voit que la durée 1t de propagation est, à la constante d’Einstein près, la quantité n1s que l’on appelle le chemin optique entre 61 et 62 . En bref, le chemin optique est la durée de propagation mesurée en mètre, le facteur de conversion étant c. Dans une propagation entre deux points A et B, la durée totale du parcours de la lumière est la différence des instants initial et final : t B − t A . Le produit de cette durée par c est le chemin optique correspondant L = c(t B − t A ). En général, l’indice varie d’un point à un autre d’un même milieu. Mais, on considère le plus souvent des milieux homogènes caractérisés par une même valeur de l’indice. Nous verrons un peu plus loin que l’on explique les mirages optiques précisément en prenant en compte la non-uniformité de l’indice dans un milieu. En outre, on se limite dans la plupart des cas aux milieux isotropes, c’est-à-dire à ceux dans lesquels la lumière se comporte de la même façon dans toutes les directions de l’espace. Lorsqu’on veut prendre en compte la propagation de l’onde dans un milieu matériel, on introduit souvent sa longueur d’onde dans ce milieu : λn = cφ /ν = λ/n. Comme n ≥ 1, λn ≤ λ : les milieux matériels tassent les longueurs d’ondes, ce qui prouve qu’en dehors de la fréquence et donc de la période, c’est la longueur d’onde dans le vide λ = c/ν qui peut caractériser la vibration de l’onde. L’indice d’un milieu dépend de la fréquence de la lumière selon la loi de Cauchy (du nom du mathématicien français du xixe siècle Augustin Cauchy) n = A + B/λ2 , où A et B dépendent du milieu considéré. Cette dépendance de l’indice avec la longueur d’onde λ 163

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

Tableau 1

Indice de réfraction de quelques milieux.

Milieu Vide Air sec ( p = 1 bar, T = 273 K) Vapeur d’eau ( p = 1 bar, T = 373 K) Eau Glace Verres

n 1 1,000 29 1,000 26 1,33 1,31 1,5 à 1,7

est appelée la dispersion. On la réalise aisément avec un prisme en verre éclairé par de la lumière blanche ; on observe alors, à la sortie du prisme, les différentes radiations monochromatiques du domaine visible, le rouge (630 nm), moins dévié que le bleu (480 nm). Newton fut le premier à avoir observé puis interprété la dispersion en éclairant un prisme avec la lumière du Soleil, puis à l’avoir recomposé. Dans le tableau 1, on donne la valeur de l’indice de quelques milieux pour une longueur d’onde moyenne dans le vide de 590 nm (jaune). On constate que l’indice augmente avec la masse volumique du milieu.

DIFFRACTION Considérons le faisceau lumineux cylindrique et monochromatique, issu d’un laser He-Ne, de longueur d’onde λ = 632,8 nm, préalablement élargi par un système optique (Fig. 2). Les plans normaux à la direction du faisceau incident sont des surfaces d’onde planes 6. En l’absence de diaphragme, il est facile de construire la surface d’onde 62 à partir de celle 61 , placée plus près de la source. Interposons, sur le faisceau, un diaphragme D ayant la forme d’une fente de largeur D. Le rôle de ce diaphragme, placé près de 61 , est d’annuler les contributions des ondelettes issues des points masqués de la surface d’onde. Ces contributions manquent sur l’écran d’observation, au point de provoquer un éparpillement de la lumière selon 164

LA PENSÉE EN PHYSIQUE

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

Figure 2

Diffraction d’une onde lumineuse plane par un diaphragme.

un axe transversal Ox perpendiculaire à l’axe Oz du faisceau incident. Cet éparpillement peut être caractérisé par l’angle de diffraction θ que fait la direction émergente avec l’axe Oz. On admet que cet angle est significatif s’il satisfait à l’inégalité suivante : D

2π 1 sin θ ≥ λ 2

ce qui s’écrit 1x 1kx ≥

1 2

en posant 1x = D et en introduisant 1kx = k sin θ, projection du vecteur d’onde émergent k suivant la direction Ox perpendiculaire à Oz. Si la longueur d’onde λ du faisceau est négligeable devant D, la lumière se répartit sur l’écran, pratiquement à l’intérieur d’une bande de largeur D, projection sur l’écran du diaphragme. En revanche, si λ n’est pas négligeable devant D, l’onde issue du diaphragme D n’est plus plane ; on observe de la lumière en dehors du volume défini par la fente et le vecteur ez porté par Oz. Cet éparpillement de la lumière, dû à la limitation matérielle du faisceau incident, constitue précisément la diffraction. Une analyse fine montrerait que la fente n’intervient que par la limitation matérielle du faisceau, et n’implique donc pas d’interaction physique entre le faisceau et le bord de la fente.

165

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

Approximation du rayon lumineux Si, dans l’expérience précédente, on réduit la largeur D de la fente, jusqu’à quelques millimètres, on peut négliger la diffraction ; la lumière reste localisée dans le cylindre défini par D et ez . On appelle rayon lumineux la droite que l’on peut imaginer en réduisant davantage les dimensions de la fente, tout en négligeant la diffraction. Le rayon lumineux s’identifie alors à la normale aux surfaces d’onde 6. Il s’agit bien là d’une idéalisation, puisqu’on ne peut fermer le diaphragme sans observer, au contraire, une augmentation de la diffraction. Retenons que, dans un milieu homogène et isotrope, le rayon lumineux est défini par la direction du faisceau incident. On peut préciser quantitativement le concept de rayon lumineux en faisant apparaître le rapport de la longueur d’onde λ sur la largeur D de la fente. En effet, à la sortie du diaphragme D , l’onde incidente a une étendue spatiale, suivant la dimension transversale x, limitée par D . Or l’expérience montre qu’une telle limitation, 1x = D, implique une modification significative de la répartition de l’éclairement, en raison de la diffraction. Précisément, cette répartition est de la forme : I = I0



sin(πu D) πu D

2



u=

sin θ , λ

θ étant l’angle de diffraction, c’est-à-dire l’écart angulaire par rapport à la direction Oz. On peut adopter comme critère de prise en compte de la diffraction l’inégalité suivante : πD

sin θ 1 > λ 4

soit

D 1k x >

1 2

puisque 1k x = k sin θ =

2π sin θ λ

On voit que, si λ/D ≪ 1, la diffraction peut être négligée. L’optique des rayons lumineux apparaît alors comme l’approximation de l’optique ondulatoire, pour les très faibles longueurs d’ondes. 166

LA PENSÉE EN PHYSIQUE

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

Figure 3 Répartition de l’intensité d’une onde lumineuse plane diffractée par une fente de largeur D, en fonction de u = sin θ/λ.

RÉFRACTION DE LA LUMIÈRE La réfraction est le changement de direction que subit un rayon lumineux à la traversée de la surface qui sépare deux milieux homogènes. Elle a été étudiée par Snell, Descartes, Fermat, Huygens et Fresnel ; les deux premiers ont donné la loi des sinus reliant les angles d’incidence et de réfraction aux indices n 1 et n 2 , le second la justifia par une analogie trompeuse entre propagation de la lumière et propagation du son, et le troisième la retrouva par une nouvelle méthode dite variationnelle, comme nous le verrons un peu plus loin ; enfin, les deux derniers l’intégrèrent dans le cadre général d’une théorie ondulatoire. Loi de Snell-Descartes Cette loi, qui date de 1627 pour le Néerlandais Wilford Snell et de 1637 pour Descartes, a pour expression : n 1 sin i 1 = n 2 sin i 2 i 1 et i 2 étant les angles que font les rayons incident et réfracté avec la normale à la surface de séparation. On voit que, dans le passage 167

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

de la lumière d’un milieu vers un milieu d’indice plus élevé (plus réfringent), l’angle émergent est plus faible (Fig. 4a). C’est l’inverse si le second milieu est moins réfringent (Fig. 4b) ; dans ce dernier cas, l’angle de réfraction atteint une valeur limite lˆ lorsque i 1 = π/2 ; au-delà, la réfraction est remplacée par une simple réflexion caractérisée par l’égalité des angles incident et réfléchi.

Figure 4 Réfraction d’un rayon lumineux. a) vers un milieu plus réfringent. b) vers un milieu moins réfringent.

La réfraction joue un rôle important dans les phénomènes atmosphériques. Ainsi, autour des disques solaire et lunaire, on observe parfois des halos de diamètres apparents 22◦ ou 46◦ . En raison de leur grand diamètre, ils se distinguent nettement des couronnes de diffraction qui, elles, ont un diamètre nettement plus faible, environ une dizaine de degrés, lié uniquement à la taille des gouttelettes d’eau dans l’atmosphère. On explique la présence de ces halos par la réfraction de la lumière à travers les faces des cristaux de glace, présents dans les nuages. Ces cristaux, de longueur 50 µm, ont une géométrie particulière qui permet de retrouver les angles caractéristiques précédents. C’est aussi la réfraction de la lumière par les gouttelettes d’eau, en suspension dans l’atmosphère, après une pluie fine, combinée à la dispersion et à la réflexion, qui permet d’expliquer la formation 168

LA PENSÉE EN PHYSIQUE

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

de l’arc-en-ciel. En effet, l’indice de l’eau liquide variant avec la longueur d’onde, les angles de réfraction dépendent de la couleur des radiations qui composent la lumière du Soleil : il y a dispersion, d’où l’aspect coloré de l’arc-en-ciel. Il intrigua de grands scientifiques, dont Descartes 2 , qui en expliqua la géométrie en arc, associé à l’observateur, le dos au Soleil (Fig. 5). L’arc principal se produit après deux réfractions, séparées par une réflexion, dans une goutte d’eau ; son rayon apparent est d’environ 42◦ . Un deuxième arc apparaît, lorsqu’une seconde réflexion s’ajoute à la première ; il en résulte un second arc inversé par rapport au premier, et un rayon apparent d’environ 51◦ . C’est Newton qui interpréta l’aspect coloré de l’arc par la dispersion de la lumière solaire, et c’est l’Anglais George Airy qui proposa dès 1835 une interprétation complète du phénomène observé.

Figure 5

Arc-en-ciel.

2. La Pléiade, p. 232.

169

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

Prisme Le prisme est un milieu réfringent, transparent, homogène, isotrope, limité par deux dioptres plans qui forment un dièdre. Il est aujourd’hui surtout employé pour modifier la direction de propagation de la lumière ; cependant, il est encore utilisé, comme système dispersif, pour analyser les radiations lumineuses monochromatiques d’un rayonnement lumineux, car l’angle de déviation qu’il impose au rayon lumineux incident dépend de l’indice n et donc de la longueur d’onde λ. Sur la figure 6a, on voit que l’angle de déviation augmente lorsqu’on passe du rouge au violet ; en 6b, on a représenté la relation expérimentale entre l’indice n d’un verre et la longueur d’onde λ de la composante spectrale considérée.

Figure 6 Prisme. a) La déviation augmente du rouge au violet. b) Variation de l’indice avec la longueur d’onde.

FORME NEWTONIENNE DES LOIS DE L’OPTIQUE Il existe une forme newtonienne des lois de l’optique des rayons lumineux. Cette forme permet de souligner les analogies entre la deuxième loi de Newton et la loi fondamentale de l’optique des rayons lumineux, telles qu’elles furent mises en évidence par l’Irlandais William Hamilton dès les années 1830. Dans un milieu matériel non homogène et isotrope, c’est-à-dire caractérisé respectivement par un indice n qui n’est pas uniforme, mais des propriétés qui ne dépendent pas de la direction de la lumière 170

LA PENSÉE EN PHYSIQUE

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

(isotropie), la trajectoire d’un rayon lumineux est curviligne, comme celle d’un corpuscule soumis à une force qui n’est pas dirigée selon sa vitesse initiale (cf. Chapitre 3). Si on désigne par s l’abscisse curviligne d’un point courant sur cette trajectoire du rayon et par u le vecteur unitaire porté par la tangente à la trajectoire, la forme newtonienne des lois de l’optique des rayons lumineux est la suivante : 1(n u) = grad n, 1s dans laquelle grad n est un vecteur donnant le sens et la valeur de l’augmentation la plus rapide de l’indice du milieu. Cette relation permet notamment d’établir l’équation d’un rayon lumineux à l’intérieur d’une fibre optique, laquelle présente un intérêt technique dans les communications, car elle permet de transférer une grande quantité d’informations, tout en évitant les problèmes que pose la propagation dans l’atmosphère : perturbations créées par l’absorption moléculaire, diffusion de la lumière par les particules en suspension et turbulence atmosphérique. Les fibres sont souvent étudiées du seul point de vue de l’optique des rayons lumineux, car le rapport λ/a de la longueur d’onde λ du rayonnement lumineux sur leur rayon a est suffisamment faible ; une valeur typique de ce rayon est a = 10 µm. Dans ces fibres, l’indice diminue de façon continue de la valeur n c au cœur de la fibre, sur l’axe optique, à la valeur n g dans la gaine, lorsqu’on s’éloigne de l’axe. L’équation précédente restitue la propagation rectiligne de la lumière lorsque le milieu matériel est homogène ; en effet, l’indice étant alors uniforme, grad n est nul, ce qui donne : 1(nu) 1u =n =0 1s 1s La quantité nu est donc uniforme. Comme n l’est aussi, u est inchangé (vectoriellement), ce qui établit la propagation rectiligne. On trouve

171

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

ici, sans surprise, l’équivalent optique de la première loi de Newton (cf. Chapitre 3). La courbure d’un rayon lumineux est directement reliée à la variation de l’indice, précisément au vecteur grad n. On peut vérifier expérimentalement cette affirmation en éclairant, avec un faisceau lumineux étroit, une cuve contenant un mélange d’eau et de sucre (Fig. 7). À la surface, l’eau est pratiquement pure, d’indice égal à 1,33, alors qu’à la sortie l’eau est saturée en sucre et donc d’indice plus élevé ; le vecteur grad n est orienté vers le bas. Un rayon lumineux incident, issu par exemple d’un laser, qui tombe normalement en I sur la face d’entrée de la cuve, s’incurve jusqu’au point J de la face de sortie, puis émerge en ligne droite.

Figure 7

Trajectoire incurvée d’un rayon lumineux dans un milieu d’indice non uniforme.

Les mirages observés sur Terre sont une conséquence de la courbure des rayons lumineux et donc de la propagation curviligne et non rectiligne de la lumière. En effet, lorsque le sol est très chaud, l’indice n’est pas uniforme, mais augmente avec l’altitude. Le vecteur grad n est alors orienté suivant l’axe vertical ascendant. Comme le montre la figure 8, les rayons provenant d’un objet s’incurvent et atteignent un observateur en semblant provenir du sol comme s’ils avaient subi une réflexion sur une surface réfléchissante, telle une nappe d’eau. Les mirages gravitationnels sont aussi attribués à une courbure des rayons lumineux, mais la cause est d’une tout autre nature,

172

LA PENSÉE EN PHYSIQUE

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

Figure 8

Mirage dans le désert africain.

précisément de la capacité des grosses masses à dévier la lumière telle que le prévoit la théorie de la relativité générale (cf. Chapitre 14).

PRINCIPE HISTORIQUE DE FERMAT Le principe de Fermat est la forme variationnelle de la loi fondamentale précédente de l’optique des rayons lumineux. Énoncé Peu convaincu par la démonstration que donna Descartes de la loi de la réfraction, Fermat proposa en 1637 un nouvel énoncé des lois de l’optique des rayons lumineux, sous la forme séduisante suivante : La lumière se propage d’un point à un autre sur une trajectoire telle que la durée du parcours soit minimale. Cet énoncé rappelle celui du principe de moindre action en mécanique, proposé plus tard, en 1744, par le Français Pierre Moreau de Maupertuis ; selon cet énoncé, la trajectoire d’un corpuscule, qui satisfait évidemment à la deuxième loi de Newton, est aussi celle pour laquelle une certaine quantité, homogène au produit d’une énergie par une durée, l’action, est minimale. D’éminents scientifiques profondément religieux, notamment Maupertuis, ont vu dans l’énoncé du principe de Fermat en optique, ou du principe de moindre action en mécanique, une manifestation de la morale divine et du finalisme 173

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

théologique ; selon cette doctrine, la nature créée par Dieu agirait selon une loi intentionnelle ; dans ce cas, l’action serait minimale parce que « Dieu préconise l’économie ». Actuellement, aucun scientifique n’accorde de crédit à cette ancienne thèse, même s’il est communément admis que les aspects culturels et religieux peuvent jouer un rôle moteur dans l’élaboration d’une théorie scientifique. Énoncé actuel Actuellement, on énonce ce principe en substituant au temps, le chemin optique, qui lui est directement relié, à la constante d’Einstein c près, et on remplace l’adjectif minimale pour la durée par stationnaire moins restrictif. Le qualificatif stationnaire prend en compte des ambiguïtés physiques comme celles qui peuvent apparaître lorsque le milieu est homogène par morceaux. Il en est ainsi, dans un milieu homogène, entre un point lumineux A et un point B, atteint par la lumière après réflexion sur un miroir. La longueur du trajet réel suivi par la lumière peut réaliser une zone de non-variation si le miroir est un ellipsoïde de foyers A et B (Fig. 9a) ; en effet, on sait que l’ensemble des points I , tels que AI + I B est constant, se trouve sur un ellipsoïde dont les foyers sont A et B.

Figure 9

Chemin optique minimal, maximal ou stationnaire?.

Si le miroir a une concavité plus prononcée que celle de l’ellipsoïde (Fig. 9b), le chemin réel est celui qui réalise un maximum de cette somme. En revanche, si le miroir a une concavité moins prononcée (Fig. 9c), le chemin réel réalise un minimum de la somme. 174

LA PENSÉE EN PHYSIQUE

HUYGENS ET FERMAT : RAYONS LUMINEUX ET MIRAGES

L’existence de ces trois possibilités doit être attribuée à l’ambiguïté suivante : lorsque A et B sont suffisamment éloignés l’un de l’autre, on peut faire passer, par ces deux points, deux rayons lumineux, l’un réfléchi par le miroir et l’autre direct non réfléchi. Aussi, dans les milieux continus, la trajectoire du rayon lumineux, entre deux points suffisamment proches A et B, est toujours celle qui réalise le minimum du chemin optique et donc de la durée. Fermat avait finalement raison, en ne parlant que de minimum ! Signification physique du principe historique de Fermat On trouve la signification physique du principe de Fermat évidemment dans la théorie ondulatoire dont il dérive, puisqu’il concerne les rayons lumineux et donc l’approximation des longueurs d’ondes évanouissantes. Pour développer cette affirmation, il suffit de considérer un rayon lumineux, reliant deux points voisins A et B, dans un milieu isotrope, et les deux surfaces d’onde voisines passant respectivement par ces points, 6 A et 6 B (Fig. 10).

Figure 10 Signification physique du principe de Fermat : l’orthogonalité des rayons lumineux aux surfaces d’onde dans un milieu isotrope.

Réaliser une durée minimale, et donc ici une distance minimale entre les deux surfaces d’onde, c’est imposer au rayon lumineux d’être orthogonal à la fois à 6 A et à 6 B . Le fondement ondulatoire du principe de Fermat est donc, dans un milieu isotrope, l’orthogonalité des rayons lumineux aux surfaces d’onde. Ce résultat doit être aussi associé au Français Étienne Malus qui l’a établi en 1807.

175

11 Rayleigh et Fourier : images et filtrage spatial

Le mot image vient du latin imago qui désignait un masque moulé sur le visage d’une personne morte afin d’en conserver les traits. Aujourd’hui, on appelle images des représentations d’objets obtenues à l’aide d’instruments, tels que l’œil, le microscope, le télescope, l’appareil photographique ou une simple surface réfléchissante. Ces instruments sont fondés sur les lois de l’optique auxquelles satisfait l’onde lumineuse, de nature électromagnétique (cf. Chapitre 13). Les images et leurs formations concernent aussi les domaines électromagnétiques auxquels l’œil n’est pas sensible, par exemple le rayonnement infra-rouge et ultra-violet, mais aussi les rayons X et les rayons γ. De nos jours, on s’intéresse aussi à la formation des images en microscopie électronique ou en microscopie à effet tunnel ; dans ces deux techniques, le messager qui transporte l’information n’est plus la lumière, mais l’électron. Cependant, dans tous les cas, l’objet étudié modifie l’ondemessager incidente, issue de la source ; l’instrument reçoit ensuite 177

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

cette onde et la véhicule jusqu’au détecteur ; on s’efforce alors d’extraire de ce dernier l’information acquise sur l’objet par le messager (Fig. 1).

Figure 1

Schéma d’extraction d’une information sur un objet.

STÉNOPÉ On sait, depuis l’Antiquité, que l’on peut former l’image d’un objet à l’aide d’une boîte percée d’un petit trou, que l’on appelle camera oscura (chambre noire) ou sténopé (les mots grecs « stenos » et « ops » signifient respectivement étroit et œil). Si on place sur la face arrière de la chambre noire un détecteur photographique couleur, on obtient de belles représentations de ces objets (Fig. 2). On analyse la qualité de ces images, en évaluant la durée τ du trajet de la lumière entre un point objet Ao , situé sur l’axe optique Oz, perpendiculaire au plan de l’ouverture, et un point A d’un détecteur plan situé sur l’axe à la distance di de cette ouverture. Ce point A peut être considéré comme l’image Ai de Ao , si la durée τ du trajet Ao M A, M étant un point du plan de l’ouverture centrée en O, ne varie pratiquement pas lorsque M se déplace. On admet souvent le critère d’imagerie suivant : la durée de parcours de la lumière entre Ao et son image Ai doit être constant à T /4 près, T étant la période du rayonnement utilisé.

178

LA PENSÉE EN PHYSIQUE

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

Figure 2

Sténopé.

On montre que la différence des durées τ (O) et τ (M), associées aux trajets Ao O Ai et Ao M Ai de la lumière, est inférieure à (D 2 /8) (1/do + 1/di ), D étant le diamètre de l’ouverture et do la distance de l’objet au diaphragme. Il en résulte que Ai est l’image de Ao si (D 2 /8) (1/do + 1/di ) est inférieur ou égal à cT /4 soit le quart de la longueur d’onde. Pour do = 40 cm, di = 20 cm et λ = 600 nm, le diamètre D doit être inférieur à 0,4 mm. IMAGE DANS L’APPROXIMATION DES RAYONS LUMINEUX Les rayons lumineux issus de chaque point de l’objet subissent dans l’instrument une succession de réfractions ou de réflexions et finalement interagissent avec un détecteur (œil, film photographique, barrette CCD, etc.). Lorsque les rayons issus d’un point objet Ao émergent de l’instrument en convergeant vers un point Ai , on dit que Ai est l’image de Ao , ou que l’instrument est stigmatique pour le couple de points Ao Ai . On dit aussi que Ao et Ai sont des points conjugués pour l’instrument ; les origines des qualificatifs « stigmatique » et « conjugués » sont, pour le premier, « pointe » en grec (tous les rayons convergent en un point) et pour le second « même joug » en latin. Un tel stigmatisme est idéal si l’on admet que le caractère ponctuel de Ai est de même nature que celui de Ao , c’est-à-dire si l’on admet que l’instrument n’introduit aucune altération. En réalité, 179

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

l’instrument modifie toujours le caractère ponctuel de l’image, en raison de l’imperfection des composants optiques, de la diffraction (cf. Chapitre 10) et de la structure granulaire des détecteurs. Cependant, on pourra dans certaines conditions considérer que le stigmatisme approché est suffisant. Un système optique S fait converger en un point Ai les rayons lumineux issus d’un point source Ao . Ce dernier est dit réel s’il est défini par l’intersection de rayons lumineux ; de même, une image Ai est réelle si elle est l’intersection des rayons émergents. Dans le cas où ces rayons ne convergent pas mais divergent à la sortie de l’instrument, un observateur placé à la sortie n’est sensible qu’à la direction des rayons qu’il reçoit ; pour lui, les rayons émergents semblent provenir d’un point Ai , situé à l’intérieur du système dans le prolongement de la direction incidente ; cette image est dite virtuelle. Contrairement à une image réelle, une image virtuelle ne peut pas être reçue sur un écran. En termes d’optique ondulatoire, Ai est l’image de Ao si les durées de parcours de la lumière, selon les différentes trajectoires lumineuses, sont égales. Comme les points objet et image sont des surfaces d’onde ponctuelles, cela signifie que la différence de phase entre les ondes véhiculées le long de ces différentes trajectoires est la même pour tous les rayons. Expérience du bâton brisé Un exemple simple d’image virtuelle est fourni par l’expérience dite du bâton brisé : un bâton plongé dans l’eau semble être brisé à l’intersection avec la surface de séparation air-eau. En effet, l’image réelle Ai d’un objet virtuel Ao est plus proche de la surface de séparation, comme le montre la figure 3. Il ne faut évidemment pas confondre l’image redressée du bâton avec un rayon lumineux réfracté, correspondant à un rayon incident coïncidant avec le bâton ; ce rayon réfracté serait plongeant, car l’eau est un milieu plus réfringent que l’air.

180

LA PENSÉE EN PHYSIQUE

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

Figure 3

Expérience du bâton brisé.

Lentilles et loupes En dehors des miroirs plans, les instruments ne réalisent au mieux qu’un stigmatisme approché, pourvu que l’on considère uniquement des rayons lumineux voisins de l’axe optique et faiblement inclinés par rapport à ce dernier. C’est l’approximation de Gauss (prononcer gaoss), du nom du célèbre mathématicien et physicien allemand Carl Gauss, né au milieu du xviiie siècle. Cette contrainte n’est pas rédhibitoire, car on ne peut éviter la diffraction (cf. Chapitre 10) qui élargit irrémédiablement l’image d’un point donnée par un instrument. L’instrument le plus simple, permettant d’améliorer la vision des détails d’un objet, est la loupe que l’on assimile le plus souvent à une lentille en matériau plastique, mince et convergente. Lorsqu’on l’éclaire avec un faisceau de rayons parallèles à son axe, ces derniers convergent en un point Fi , d’où le nom foyer image donné à ce dernier. On caractérise la lentille par sa distance focale, c’est-à-dire dans le cas d’une lentille mince, la distance f qui sépare Fi du plan de la lentille. Le foyer objet Fo est le point symétrique de Fi par rapport au plan de la lentille (Fig. 4a). Trois rayons permettent de construire simplement l’image que donne la lentille d’un objet Ao Bo : celui qui passe par son centre O sans être dévié, celui qu’un point de l’objet envoie parallèlement à l’axe optique et qui émerge en passant par le foyer image Fi , enfin celui qui passe par le foyer objet Fo et émerge parallèlement à l’axe. 181

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

Figure 4

a) Formation de l’image d’un objet donnée par une lentille. b) Loupe.

Une question essentielle se pose alors : quelle est la taille du plus petit objet, que peut détecter cet instrument optique. L’analyse de l’influence de la diffraction a montré que la limitation d’un faisceau lumineux par un diaphragme de largeur D, impliquait nécessairement un éparpillement de la lumière caractérisé par un angle θ tel que sin θ = λ/D, d’où D = λ/ sin θ ≥ λ (cf. Chapitre 10). Ainsi, la longueur d’onde apparaît comme l’extension spatiale maximale perçue à l’aide d’un instrument d’optique. Ce résultat est connu sous le nom de critère de Rayleigh, du nom du grand physicien anglais du xixe siècle, John Strutt, anobli en raison de ses nombreux travaux en physique. Pour distinguer les détails d’un objet, un observateur place naturellement ce dernier le plus près possible de son œil, sans que cela le fatigue, c’est-à-dire au punctum proximum, soit à environ dm = 25 cm, si l’œil est normal et âgé de moins de 45 ans ; l’angle sous lequel il voit l’image est alors le plus grand possible. L’angle minimal de vision distincte de deux éléments d’un objet vaut environ 1 arcmin (minute d’arc) soit approximativement 3 × 10−4 rad. Cette limite de résolution angulaire ǫ est définie par les caractéristiques optiques de l’œil (distances focales et taille des cellules rétiniennes). Précisons que, même si on assimile souvent l’œil à une lentille, c’est en réalité un système complexe formé de plusieurs surfaces, la première étant la cornée et la dernière la rétine. En plus de la diffraction, on doit tenir compte de l’influence du détecteur ; par exemple, la rétine de l’œil est formée de cellules élémentaires de quelques microns de diamètre (∼ 4 µm) ; de même, 182

LA PENSÉE EN PHYSIQUE

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

un détecteur photographique CCD est constitué de petites cellules photoconductrices identiques de petites dimensions. Ainsi, deux points lumineux voisins, qui impressionnent la même cellule rétinienne ou la même cellule photoconductrice, ne peuvent être distingués par l’observateur, ce qui rend suffisant le stigmatisme approché. La correspondance entre la position de l’objet ( po = O Ao ) et celle de l’image conjuguée ( pi = O Ai ), donnée par la lentille plongée dans l’air (indice très proche de 1), est la suivante : 1/ pi − 1/ po = V où V est la vergence de la lentille, appelée aussi puissance, laquelle s’identifie dans l’air à l’inverse de la distance focale. Les quantités po et pi sont des grandeurs algébriques qui peuvent prendre, comme la vergence V , des valeurs positives ou négatives (cf. Annexe 1). Avec la loupe, l’observateur cherche à se rapprocher de l’objet afin d’augmenter l’angle sous lequel il le voit. Aussi, la distance focale de la loupe est-elle de l’ordre de quelques centimètres, et l’objet à observer Ao Bo est-il placé dans son plan focal objet, perpendiculaire à l’axe optique en Fo . L’œil normal reçoit alors des groupes de rayons parallèles (Fig. 4b). Or αi étant approximativement égal au rapport Ao Bo / f , tout se passe comme si on avait remplacé dm par f , qui est de l’ordre de quelques centimètres, et donc diminué dm . Aussi diton parfois que la loupe rend myope l’œil normal. En outre, comme αi ≥ ǫ, on a : Ao Bo ≥ f ǫ = 6 µm, soit environ dix fois plus que la longueur d’onde λ de la lumière utilisée, qui vaut en moyenne 550 nm. On introduit le grossissement G qui est le rapport de l’angle αi = Ao Bo / f sur l’angle θ = Ao Bo /dm sous lequel on voit cet objet à l’œil nu, à la distance dm : G = αi /θ = dm / f . Le grossissement d’une loupe est donc le rapport de la distance minimale de vision distincte sur la focale image. Par exemple, G = 5 si f = 5 cm ; une telle loupe vendue dans le commerce porte l’indication 5×. Lorsqu’on souhaite augmenter le grossissement, on doit utiliser une loupe montée sur un support rigide, afin d’éviter l’influence des vibrations gênantes pour une observation attentive. On réalise ainsi un microscope simple, par opposition au microscope composé décrit un peu plus loin. 183

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

Les images sont le plus souvent altérées par des aberrations chromatiques, dues aux différentes lumières monochromatiques qui composent généralement le rayonnement utilisé ; chacune d’entre elles donne sa propre image. Les aberrations géométriques, attribuées elles aux imperfections des surfaces des lentilles, limitent aussi la résolution. Microscopes optiques Comme la loupe ne permet pas d’atteindre la limite de résolution donnée par la diffraction, on lui préfère le microscope optique inventé par le Hollandais Zacharie Janssen, à la fin du xvie siècle. L’idée principale est d’observer, non pas l’objet directement, comme avec une loupe, mais l’image agrandie que donne, de l’objet, un autre système optique appelé l’objectif (car près de l’objet à étudier) ; la distance focale image de ce dernier est de l’ordre du centimètre. Dans les conditions de fonctionnement idéal pour l’œil normal, l’image réelle donnée par l’objectif se trouve contenue dans le plan focal objet d’un second système optique ; ce dernier, appelé oculaire (car près de l’œil), joue le rôle de loupe dans l’observation, non de l’objet directement, mais de l’image préalablement agrandie par l’objectif. On montre alors que le grossissement G du microscope est le produit du grandissement transversal de l’objectif par le grossissement de l’oculaire ; par exemple 16 × 10 = 160. Comme l’image observée dans un microscope est très agrandie, la quantité de lumière envoyée dans l’œil par chaque élément de surface est faible. Aussi est-il nécessaire d’éclairer intensément l’objet à l’aide d’un système optique annexe, réfracteur ou réflecteur, appelé condenseur, et de travailler avec une forte ouverture angulaire du faisceau incident. Le diaphragme qui détermine cette ouverture est l’une des caractéristiques du microscope ; on peut lire sur sa monture métallique, outre des symboles concernant la qualité des matériaux, deux nombres qui représentent le grandissement transversal de l’objectif et l’ouverture numérique directement reliée au diaphragme, par exemple 60× et 0,8. 184

LA PENSÉE EN PHYSIQUE

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

La limite de résolution spatiale du microscope étant toujours supérieure à la longueur d’onde du rayonnement utilisé, on comprend l’intérêt de travailler avec des rayonnements de faible longueur d’onde, comme dans un microscope UV (ultraviolet) et un microscope à rayons X. La microscopie électronique permet d’atteindre des résolutions spatiales bien plus petites par diminution de la longueur d’onde, mais, dans ce cas, l’onde n’est pas électromagnétique ; c’est une onde de probabilité associée au caractère ondulatoire des électrons utilisés comme messager de l’information (cf. Chapitre 17). En restant dans le domaine électromagnétique, il est possible d’atteindre des résolutions spatiales bien meilleures que celles des microscopes optiques, mais en utilisant la lumière émise par un laser ; c’est ce qu’on réalise avec un microscope à champ proche, dont les premiers prototypes datent de 1984. Son mode de fonctionnement diffère fondamentalement du microscope optique : alors que, dans ce dernier, l’onde est faiblement diffractée par le diaphragme d’ouverture et se propage dans la direction moyenne incidente, dans le microscope en champ proche, l’onde, à la sortie du diaphragme diffractant, est évanescente, c’est-à-dire que son amplitude diminue exponentiellement au cours de la propagation, selon l’axe optique Oz, comme exp(−αz). Dans certaines conditions, il est possible de dépasser la limite de résolution classique et d’obtenir une cartographie des détails d’une surface, avec une résolution spatiale bien plus petite que la longueur d’onde ! Télescopes Comme son nom l’indique, le télescope est un instrument qui permet de voir loin. Il est constitué essentiellement d’un objectif qui est généralement un grand miroir concave M p , appelé miroir primaire ; le foyer F p de M p est alors le foyer primaire. Ce miroir est associé le plus souvent à un miroir secondaire Ms qui peut être plan, convexe ou concave.

185

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

Le premier télescope réflecteur a été construit par Newton en 1672. Le miroir secondaire, plat, renvoyait latéralement la lumière réfléchie par l’objectif. Sur la figure 5, on a représenté l’objectif monté en Cassegrain, du nom de l’astronome et curé français Laurent Cassegrain : le miroir secondaire renvoie la lumière dans la direction incidente ; une ouverture dans la partie centrale de M p laisse passer le faisceau qui converge au foyer Cassegrain FC . Curieusement, Newton s’opposa à ce montage en le jugeant irréalisable et sans intérêt.

Figure 5

Télescope monté en Cassegrain.

Par rapport aux télescopes uniquement réfracteurs, c’est-à-dire dont l’objectif est une lentille, les télescopes réflecteurs présentent un double intérêt : ils n’ont pas d’aberration chromatique, puisque la lumière est réfléchie et donc ne pénètre pas dans le matériau constituant le miroir ; leur diamètre d’ouverture peut être très grand, car il est techniquement plus facile de réaliser de grands miroirs que de grandes lentilles. En outre, la surface du miroir primaire est en général proche d’un paraboloïde de révolution, afin d’obtenir à proximité une image de qualité d’un objet ponctuel situé à très grande distance. Sous l’action de son propre poids, un grand miroir primaire se déforme, ce qui provoque des aberrations géométriques ; de nos jours, on corrige ces dernières en modifiant convenablement la surface du miroir à l’aide d’un ensemble de pistons dont les actions sont pilotées, en temps réel, par un ordinateur ; c’est l’optique active.

186

LA PENSÉE EN PHYSIQUE

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

L’objectif donne une image réelle que l’on reçoit sur un détecteur, ou que l’on observe à l’aide d’un oculaire. Le télescope Bernard Lyot (TBL) du Pic du Midi a un diamètre D ≈ 2 m ; il n’a pas de système d’optique active, mais les déformations du miroir primaire parabolique qui dépendent de son poids sont corrigées par des leviers passifs efficaces. Depuis 1998, l’ESO (European Southern Observatory) a mis en service, au Cerro Paranal, au Chili, un ensemble de quatre télescopes de 8 m de diamètre chacun ; cet ensemble, appelé VLT (very large telescope), est équivalent à un télescope de 16 m de diamètre, puisqu’il récolte la même quantité de lumière qu’un seul télescope de diamètre double. Le foyer primaire F p d’un télescope réflecteur est situé au milieu du segment reliant son sommet S p au centre de courbure C p . Quant au foyer secondaire Fs , c’est l’image que donne, de F p , le miroir secondaire Ms . À titre d’exemple, l’objectif du TBL, monté en Cassegrain, a les caractéristiques suivantes : rayon de courbure du miroir primaire R p = 19,972 m, rayon de courbure du miroir secondaire Rs = 4,465 m et distance séparant les deux miroirs e1 = 8,184 m. Dans le cas d’une observation avec un oculaire, le système est afocal, c’est-à-dire que le foyer image de l’objectif du télescope coïncide avec le foyer objet de l’oculaire, de telle sorte que les rayons pénétrant dans l’œil émergent de l’instrument parallèlement entre eux. Dans l’exemple précédent, où la focale image de l’objectif est de l’ordre de 50 m, on obtiendrait, si on observait directement avec un oculaire, de focale image f 2 = 5 cm, un grossissement G = | f 1 / f 2 | égal à 1 000. En réalité, ce qui importe pour un télescope, c’est la résolution angulaire, c’est-à-dire le plus petit diamètre apparent décelable avec l’instrument, en raison de la diffraction (cf. Chapitre 10). Cette dernière apparaît dans la relation entre l’angle de diffraction θ, le diamètre D de l’ouverture et la longueur d’onde : D sin θ/λ ≈ 1, d’où, puisque l’angle est faible, θ ≈ λ/D. Ainsi, la limite de résolution 187

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

angulaire d’un télescope est égale au rapport de la longueur d’onde sur le diamètre de son ouverture. Pratiquement, on retient ce résultat en exprimant la résolution angulaire en seconde d’arc et le diamètre D en cm. Comme λ ≈ 500 nm et une seconde d’arc ( arcsec) vaut environ 5 µrad, on trouve : 1θ ≥ (100/Dmm ) arcsec. Cette dernière expression est souvent donnée avec, au lieu de 100, le facteur numérique 122 dû à la nature circulaire du diaphragme à l’entrée. Les mesures donnent en réalité des résultats nettement moins bons, ce que l’on attribue aux aberrations de l’objectif et surtout aux perturbations dues à la turbulence atmosphérique. Dans le cas du TBL, la résolution théorique vaut 0,05 arcsec, ce qui est bien meilleur que la résolution effective limitée par la turbulence atmosphérique. Aussi les télescopes sont-ils installés dans des sites calmes. Citons l’île d’Hawaï, où le Canada et la France ont installé le télescope CFH (Canada-France-Hawaï), de diamètre D = 3,60 m depuis 1979, et le Chili, d’une part à La Silla, où l’ESO a plusieurs télescopes, le T3,60 (D = 3,60 m) depuis 1977 et le NTT (New Technology Telescope), de diamètre D = 3,50 m depuis 1990, d’autre part au sommet du Cerro Paranal à 2 600 m d’altitude, où l’ESO a construit le VLT. On détermine expérimentalement la résolution en mesurant le diamètre angulaire de la tache lumineuse observée. On obtient pour cette quantité, que les astronomes désignent sous le nom de « seeing » (du verbe voir en anglais), une valeur qui, dans le meilleur des cas, est de l’ordre de 0,5 arcsec. Une manière de s’affranchir totalement de la turbulence atmosphérique consiste à analyser le ciel à partir d’un télescope embarqué sur un satellite orbitant autour de la Terre, au-dessus de l’atmosphère. La première mission de ce genre, a consisté à mettre sur une orbite circulaire, en avril 1990, à une altitude de 600 km, un télescope de 2,40 m de diamètre, précisément Hubble Space Telescope, du nom de l’astrophysicien américain Edwin Hubble (cf. Chapitre 14). D’abord 188

LA PENSÉE EN PHYSIQUE

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

décevante en raison d’un défaut de courbure dans la réalisation du miroir primaire, cette mission est devenue un succès après correction partielle de ce défaut à l’aide d’un système optique additionnel. Comme le coût de ces missions est finalement très élevé, la phase avant correction ayant nécessité à elle seule plus de 2 milliards d’euros, les astronomes continuent à travailler au sol, sur de très grands télescopes, de diamètre de l’ordre de 10 m, et bientôt 30 m, et ainsi développer des méthodes qui permettent de s’affranchir de la turbulence atmosphérique. L’une de ces méthodes s’appuie sur des techniques fiables de traitement d’image : on analyse soigneusement l’influence de l’instrument et de la perturbation atmosphérique dans la formation des images, puis on tente de restituer l’objet à partir de l’image détectée et des caractéristiques du système d’imagerie. Ces techniques, connues sous le nom de méthodes inverses, s’avèrent très efficaces lorsqu’on peut prendre en compte certaines informations supplémentaires, connues a priori. Une deuxième méthode, imaginée par l’astronome français Antoine Labeyrie, consiste à utiliser des durées de pose très courtes, de l’ordre de quelques millisecondes ; on enregistre ainsi une image de l’objet observé à travers une atmosphère « gelée ». L’image se présente alors sous la forme de petites taches, appelées tavelures (speckle en anglais), dont la taille angulaire est égale au diamètre angulaire théorique. Dans une troisième méthode, on analyse la déformation de la surface d’onde incidente produite par la turbulence atmosphérique et on la compense en temps réel par un miroir annexe déformable, placé sur une chaîne de rétroaction ; c’est l’optique adaptative. OPTIQUE DE FOURIER. FILTRAGE SPATIAL L’optique de Fourier est l’étude des phénomènes d’optique ondulatoire fondée sur une description qui s’appuie largement sur l’analyse mathématique de Fourier (cf. Annexe 1). Une telle analyse, bien 189

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

connue en électronique, consiste à décomposer la fonction spatiale caractéristique de l’objet optique en signaux sinusoïdaux spatiaux et à étudier l’influence de l’instrument sur chacun de ces signaux élémentaires. Nous nous limitons ici à la seule influence de la diffraction, laquelle joue un rôle majeur dans la formation des images. En outre, nous nous plaçons dans deux cas limites simples et importants : le cas des objets parfaitement incohérents et celui des objets parfaitement cohérents. Dans le premier cas, les différents points lumineux qui forment l’objet émettent des ondes indépendantes les unes des autres, d’où le qualificatif « incohérent ». Par exemple, les objets de l’astrophysique, lumineux par eux-mêmes (étoiles, etc.), sont des objets incohérents ; les intensités des ondes qui se rencontrent s’ajoutent. Dans le second, les différents points de l’objet émettent des ondes qui ne sont pas indépendantes ; il en est ainsi lorsqu’on éclaire un objet à l’aide d’une onde plane ou sphérique. Ici, ce ne sont pas les intensités des ondes reçues en un point qui s’ajoutent, mais leurs amplitudes affectées de leurs termes de phases respectifs. Historiquement, ce sont les objets incohérents qui ont intéressé d’abord les physiciens en raison de leurs implications en astrophysique ; cependant, les objets cohérents sont nombreux, en microscopie électronique, notamment lorsqu’on s’intéresse aux objets « dits faibles », tels les atomes. Éclairage incohérent Le montage typique de la formation des images en éclairage incohérent est celui habituel où une lentille, limitée par une pupille circulaire, donne une image d’un objet lumineux par lui-même (Fig. 4a). Pour simplifier, nous supposons que le système est constitué d’une lentille mince convergente, alors qu’en réalité c’est très souvent un télescope dont l’objectif est formé d’un ou plusieurs miroirs ; mais cette simplification ne restreint en rien la portée de l’analyse qui suit.

190

LA PENSÉE EN PHYSIQUE

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

En éclairage incohérent, on montre que la relation entre la répartition de l’éclairement dans les plans objet et image est, en termes mathématiques, une opération linéaire élaborée, appelée convolution. Cependant, dans l’espace associé dit de Fourier, cette relation s’exprime sous la forme d’un simple produit ; dans cet espace, on remplace ψ o (x) et ψ i (x) par leurs spectres ou composantes sinusoïdales, b (u) et ψ b (u) respectivement, u = x/(λd) étant la variable spatiale, ψ o i homogène à l’inverse d’une longueur 1 . b (u), qui permet de passer de l’objet à l’image, est la La fonction H fonction de transfert incohérente, FTI en abrégé. En normalisant cette fonction par sa valeur maximale, on obtient la fonction de transfert optique (FTO). Ainsi, comme on le fait pour des circuits électroniques, on caractérise le fonctionnement d’un instrument d’optique, en étudiant la transmission d’une composante sinusoïdale de l’intensité lumineuse de l’objet, de fréquence spatiale u. Dans le cas d’une pupille en forme de fente, de largeur D, la fonction b (u) a une forme triangulaire, avec la fréquence de transfert optique H b (u) décroît de 0 à u c,i ; spatiale de coupure u c,i = D/(λdo ). Ainsi, H les composantes sinusoïdales sont atténuées par l’instrument, au fur et à mesure que leur fréquence spatiale augmente et, au-delà de u c,i , elles sont complètement étouffées. L’instrument se comporte donc comme un filtre passe-bas. La taille minimale du détail que peut transmettre l’instrument, ou limite de résolution incohérente, est donnée par l’inverse de la fréquence spatiale de coupure : dmin,i = λd0 /D. On retrouve le critère de Rayleigh, au facteur numérique 1,22 près, que l’on sait lié à la géométrie circulaire de la pupille. Pour un objet, placé à 12 cm d’une lentille, diaphragmée par une fente de largeur D = 5 cm, la fréquence spatiale de coupure vaut, lorsque la longueur d’onde moyenne est λ = 632,8 nm : u c,i = 0,66 µm−1 d’où dmin,i = 1,5 µm.

b (u) se lit psio chapeau de u. 1. ψ o 191

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

En astronomie, la turbulence atmosphérique joue un rôle décisif dans la limitation du pouvoir de résolution des objets stellaires. La tache lumineuse ou « seeing », que donne un télescope de grand diamètre d’un objet ponctuel lointain, appelée aussi réponse impulsionnelle incohérente H , est bien plus grande que celle prévue par la diffraction. L’observation montre que tout se passe comme si le diamètre du télescope avait une valeur plus faible r0 qui vaut environ 20 cm dans le domaine visible ; en 1966, l’astrophysicien américain David Fried a interprété cette limitation en tenant compte de la turbulence atmosphérique, d’où le nom de paramètre de Fried donné à r0 . Il en résulte que la fonction de transfert optique correspondante présente une fréquence angulaire de coupure bien plus faible, de valeur sensiblement égale à r0 /λ. Les astronomes ont eu l’idée d’analyser la réponse impulsionnelle incohérente en figeant la turbulence par des durées de pose très courtes, d’environ une dizaine de millisecondes. Ils obtiennent alors, dans le plan focal image du télescope, des tavelures (speckle) dont la taille est proportionnelle à 1/D, inverse du diamètre de l’ouverture D du télescope. L’ensemble des tavelures s’étend sur une distance proportionnelle à l’inverse du paramètre de Fried r0 , d’où la résolution : λ/r0 ≈ 0,55 arcsec. On interprète ce résultat en supposant que l’air atmosphérique se comporte comme un ensemble de cellules cohérentes dont chacune a un diamètre moyen égal à r0 et une phase déterminée. En sommant, sur une longue durée, les résultats relatifs à différentes poses courtes, on restitue la réponse impulsionnelle et la fonction de transfert en pose longue. Depuis une vingtaine d’années, de nouvelles techniques ont été mises au point pour s’affranchir de cette limitation de la fréquence de coupure par la turbulence atmosphérique et atteindre ainsi les limites classiques définies par la diffraction.

192

LA PENSÉE EN PHYSIQUE

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

Éclairage cohérent Dans le montage simple représenté sur la figure 6, une lentille mince convergente L, de distance focale f , donne d’un objet placé devant elle, à une distance do , une image réelle située à la distance di ; l’objet est éclairé par une onde monochromatique plane qui tombe sous incidence normale. Un tel montage est réalisé par exemple en microscopie électronique ; comme le grandissement transversal est suffisamment grand en valeur absolue, l’objet se trouve pratiquement dans le plan focal objet de la lentille (do ≈ f ).

Figure 6

Formation de l’image d’un objet en éclairage cohérent.

Entre la répartition de l’amplitude complexe de l’onde lumineuse dans le plan objet, ψ o (x), c’est-à-dire de son amplitude réelle et de sa phase, et celle ψ i (x) dans le plan image, il existe une relation de convolution analogue à celle vue en éclairage incohérent. Cette relation s’exprime sous la forme d’un simple produit, dans l’espace de Fourier où l’on exprime ψ o (x) et ψ i (x) par leurs composantes sinub (u) et ψ b (u) respectivement ; u = x/(λdo ) est toujours soïdales ψ o i une variable spatiale, homogène à l’inverse d’une longueur. b (u), qui permet de passer de l’amplitude complexe La fonction K de l’objet ψ o (x) à celle ψ i (x) de l’image, est la fonction de transfert cohérente, FTC en abrégé. L’interprétation de cette dernière équation est analogue à celle en éclairage incohérent : chaque composante 193

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

sinusoïdale de l’objet, de fréquence spatiale u, est multipliée par le b (u) en traversant l’instrument. facteur K Lorsque l’instrument est parfait, au sens de l’optique des rayons b (u) ne prend en compte que le phélumineux (pas d’aberrations), K nomène de diffraction, d’où l’influence déterminante de la pupille de l’instrument P(x). On montre que Kb (u) peut être directement déduit de la fonction pupillaire P(x). Lorsque la pupille de l’instrument se réduit, comme c’est souvent le cas, à une fente ou à un diaphragme circulaire, l’instrument se comporte comme un filtre binaire passe-bas, caractérisé par une fonction de transfert directement déduite du diaphragme. La largeur de ce dernier définit la fréquence spatiale de coupure en éclairage cohérent u c,c et son inverse dmin,c donne la taille du plus petit détail que peut véhiculer l’instrument en éclairage cohérent : u c,c = D/(2λdo ) et dmin,c = 2λdo /D. Cette limite de résolution cohérente est le double de celle de Rayleigh, déjà introduite pour une lentille en éclairage incohérent. Montrons, sur l’exemple d’un réseau sinusoïdal, que l’instrument se comporte bien comme un filtre binaire passe-bas, caractérisé par la b (u), de même forme que la fonction pupillaire fonction de transfert K P(x). Un tel réseau, de pas p et de largeur totale L, est caractérisé par trois composantes de Fourier, la composante de fréquence spatiale nulle et les composantes de fréquences spatiales 1/ p et −1/ p. Comme la largeur totale du réseau est suffisamment grande, toute l’information contenue dans l’objet se trouve rassemblée, dans le plan focal image de la lentille, en trois spots centrés aux points x f = 0, x f = λ f / p et x f = −λ f / p, qui correspondent respectivement aux fréquences spatiales u = 0, u = 1/ p et u = −1/ p. Si le diaphragme est suffisamment ouvert, la répartition lumineuse dans le plan F x f y f n’est pas affectée, et l’image dans le plan Ai x i yi ressemble à l’objet. Si, en revanche, le diaphragme ne laisse passer que le spot central (D/2 < λ f / p), seule l’information contenue dans ce spot atteint le 194

LA PENSÉE EN PHYSIQUE

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

plan image ; l’image est alors celle qui correspond à une fente objet de largeur L. Pour do ≈ f = 20 cm, D = 5 cm et λ = 632,8 nm, on trouve : u c,c = 0,2 mum−1 et dmin,c = 1/u c,c = 5 µm. Dans le cas d’une lentille à monture circulaire, de même focale f et de même diamètre D, la fonction de transfert cohérente a même allure : la fréquence spatiale angulaire ρ est reliée à la coordonnée radiale r par ρ = r/(λdo ), d’où les mêmes expressions de la fréquence de coupure et de la limite de résolution cohérente. Ce qui précède suggère d’intervenir dans le plan où se trouve exhibé le spectre de l’objet, afin de ne visualiser dans le plan image que les informations présentant de l’intérêt. Le diaphragme, que l’on place, autour du foyer Fi en lequel converge le faisceau laser incident après traversée de la lentille L, permet de filtrer spatialement ce faisceau. En effet, autour de Fi , on peut observer les différentes fréquences spatiales correspondant à des faisceaux inclinés par rapport à l’axe optique. En sélectionnant uniquement la fréquence spatiale nulle, on obtient un faisceau pratiquement parallèle à l’axe du système. Le contraste des objets peut être grandement augmenté en supprimant dans le plan spectral de l’objet les informations associées au bruit. Par exemple, on améliore sensiblement le contraste de l’image d’un réseau en ne laissant passer que les pics de diffraction de ce réseau et en arrêtant les contributions diffuses du bruit. Cette technique a été utilisée en 1972 par l’Anglais Aaron Klug pour mettre en évidence, sur des micrographies obtenues en microscopie électronique, une structure périodique hélicoïdale dans certains échantillons biologiques. Sur un banc d’optique cohérente, on place la micrographie partiellement transparente dans le plan objet et on filtre dans le plan spectral : on fait alors apparaître nettement la structure périodique. Une expérience spectaculaire, réalisée par le physicien allemand Ernst Abbe, consiste à faire l’image d’un réseau de pas a dans le montage de la figure 6 et à occulter certains pics dans le plan de diffraction où se trouve exhibé le spectre du réseau. On peut retrouver la figure de diffraction donnée par un réseau de fentes. En effet, si, en filtrant 195

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

dans le plan spectral, on arrête par exemple les pics d’ordre impair (−1, + 1, − 3, + 3, . . .), la figure de diffraction obtenue est celle relative à un réseau de pas a/2, puisque les pics non occultés sont distants de 2λ f /a. Tout se passe donc comme si l’objet était un tel réseau de pas a/2. C’est bien ce que l’on observe dans le plan image, si le diamètre D du diaphragme est suffisamment grand. Cette expérience, réalisée avec une mire carrée, est spectaculaire : en ne laissant passer qu’un spot sur deux le long d’une bande entourant l’axe vertical du spectre, on obtient un réseau horizontal dont le pas est la moitié de celui de la mire. Lorsque les objets sont ténus au point qu’on peut les considérer comme des objets de phase, l’image se présente comme un fond lumineux uniforme. C’est en s’appuyant sur les techniques de filtrage en éclairage cohérent qu’il est possible de voir ces objets ; c’est ce que démontrent les techniques de strioscopie et de contraste de phase appliquées aux objets de phase faible, pour lesquels l’approximation suivante est justifiée (cf. Annexe 1) : ψ o (x) ≈ exp i φo (x) ≈ 1 + i φo (x) La strioscopie consiste à occulter, à l’aide d’un écran, la composante spatiale nulle (u = 0) dans le plan spectral. Par conséquent, on ne recueille pas dans le plan image le fond lumineux uniforme correspondant, mais uniquement les informations précieuses portant sur les détails de l’objet. Cependant cette occulatation ne restitue pas le signe du déphasage imposé par l’objet. En revanche, la technique du contraste de phase, proposée par le Néerlandais Frederik Zernike en 1935, permet, elle, de restituer le signe du déphasage. Ce physicien eut l’idée de modifier le spectre de l’objet, situé dans le plan de diffraction de L, en déphasant de π/2 la contribution de la fréquence spatiale nulle. Ce terme correspond à un éclairement uniforme et s’ajoute au terme de phase pour donner une intensité (1 + φ)2 , soit sensiblement 1 + 2φ puisque 196

LA PENSÉE EN PHYSIQUE

RAYLEIGH ET FOURIER : IMAGES ET FILTRAGE SPATIAL

φ ≪ 1. Ainsi, en plaçant une lame de phase qui impose, au centre de la figure de diffraction, un déphasage de π/2, on obtient une répartition de l’intensité lumineuse dont le contraste dans le plan image, Ci = Ii − 1 ≈ 2φ(x i ), dépend linéairement de la phase φ(x i ). Les détails apparaissent alors sur fond lumineux, brillants ou sombres suivant le signe de la phase. Cette technique est utilisée en biologie dans le microscope dit à contraste de phase.

197

12 Young et Gabor : interférence et holographie

Historiquement, le phénomène d’interférence de deux ondes se présente sous la forme d’un paradoxe. En effet, en superposant deux ondes acoustiques de même amplitude, on constate que, dans certaines zones, il y a silence ; l’amplitude de l’onde résultante est nulle. En revanche, dans d’autres endroits, le son émis est d’une très grande amplitude, supérieure à la somme des amplitudes des deux ondes séparées. Avec la lumière, le résultat que l’on observe, dans certaines conditions, est analogue ; on le résume parfois, de façon spectaculaire, par l’équation suivante, valable en certains points : « lumière plus lumière donne obscurité ». On dit alors qu’il y a interférence entre les deux ondes qui se sont rencontrées, car l’intensité de l’onde résultante n’est pas la somme des intensités des ondes qui interfèrent. C’est ce phénomène d’interférence qui permit d’établir expérimentalement la nature ondulatoire de la lumière ; en l’analysant, Young et Fresnel purent donner, pour la première fois, un ordre de grandeur 199

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

d’une longueur d’onde optique, précisément λ = 550 nm au maximum de sensibilité de l’œil.

INTERFÉRENCE DE DEUX ONDES MONOCHROMATIQUES Analyse préliminaire En raison de la propriété de linéarité des équations de l’électromagnétisme de Maxwell (cf. Chapitre 13) dont relève la lumière, la superposition de deux ondes lumineuses, monochromatiques, de même pulsation ω, implique que les champs électriques correspondants, E 1 et E 2 , d’orientations déterminées, s’ajoutent vectoriellement selon E = E1 + E2. En revanche, les détecteurs optiques (œil, photodiode, etc.) étant sensibles uniquement à l’énergie qu’ils reçoivent, les intensités I1 et I2 des champs E 1 et E 2 ne s’ajoutent pas, elles : I 6 = I1 + I2 , à moins que les deux champs soient perpendiculaires entre eux. Lorsque ces champs ont même direction, l’intensité I varie spatialement, en oscillant entre deux valeurs, l’une minimale Imin = I1 + I2 − 2(I1 I2 )1/2 =   1/2 1/2 2 I1 − I1 et l’autre maximale Imax = I1 + I2 + 2(I1 I2 )1/2 =  2 1/2 1/2 I1 + I1 . Précisément, cette oscillation suit une loi simple, de nature sinusoïdale : I = I1 + I2 + 2 (I1 I2 )1/2 cos φ φ étant la différence de phase entre les deux champs d’onde E 1 et E 2 (Fig. 1). Le troisième terme, qui représente l’écart de I à I1 + I2 , est le terme d’interférence entre les deux ondes. Expérimentalement, on caractérise le contraste des franges d’interférence par le facteur de visibilité :

V=

200

LA PENSÉE EN PHYSIQUE

Imax − Imin (I1 I2 )1/2 =2 Imax + Imin I1 + I2

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

Ce facteur est toujours inférieur ou égal à 1 ; il prend sa valeur maximale lorsque les deux ondes sont de même intensité I0 (Fig. 1b) ; alors I = 2I0 (1 + cos φ).

Figure 1 Variation de l’intensité en fonction de la différence de phase des deux ondes qui interfèrent. a) Les ondes sont d’amplitudes différentes. b) Les ondes sont d’égales amplitudes.

Cohérence mutuelle L’expérience courante montre que deux sources lumineuses quelconques ne produisent pas de phénomène d’interférence observable. Aussi est-il nécessaire de préciser le mode d’émission de lumière par les atomes. Les sources lumineuses émettent de la lumière par suite de la désexcitation des atomes préalablement excités par une perturbation extérieure (cf. Chapitre 16). Comme l’émission atomique est lancée, interrompue, puis relancée à la suite des collisions entre atomes, le champ électrique associé à l’émission lumineuse de la source se présente sous la forme de trains d’ondes, de durée limitée τc , de l’ordre de 10 ns, qui se succèdent de manière aléatoire ; cette durée est bien plus faible que la durée Td nécessaire à la détection, qui est de l’ordre de 0,1 s pour un observateur, mais de quelques millisecondes pour les détecteurs électroniques, soit au moins un million de fois plus grande que τc . Pour obtenir des phénomènes d’interférence observables, il est nécessaire de neutraliser le caractère aléatoire relatif de ces deux sources. On y parvient en subordonnant ces dernières à une même 201

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

Figure 2 Neutralisation du caractère aléatoire de l’émission lumineuse. a) Par division du front d’onde. b) Par division d’amplitude.

source primaire S, soit par division du front d’onde, soit par division de l’amplitude de l’onde issue de la source primaire (Fig. 2 a et b). Les trains d’ondes émis par les sources S1 et S2 présentent alors, au point P de leur rencontre, le même état aléatoire de la source primaire. Il en résulte une différence de phase φ stationnaire en ce point et donc un phénomène d’interférence observable. La différence de phase φ à considérer est alors celle des ondes véhiculées le long des trajets lumineux S S2 P et S S1 P ; elle s’écrit : φ = 2πντ = 2π

cτ , λ

ν étant la fréquence, τ la différence des durées de parcours des chemins (S S2 P) et (S S1 P), λ = c/ν la longueur d’onde. Rappelons que cτ est la différence de chemin optique entre les deux trajets (cf. Chapitre 10). Dans ces conditions, on dit qu’on a réalisé la cohérence mutuelle des sources S1 et S2 . Si ces deux sources S1 et S2 sont indépendantes, la différence des phases aléatoires est, elle aussi, une fonction aléatoire. Par conséquent, φ varie pendant la durée Td , et la moyenne des valeurs prises par le terme d’interférence, pendant cette durée, est nulle. Il en résulte que : I = I1 + I2 . Les deux sources S1 et S2 sont alors dites incohérentes. Ainsi l’incohérence mutuelle, entre deux sources lumineuses indépendantes, est directement reliée à la valeur moyenne du terme d’interférence 2(I1 I2 )1/2 cos φ, laquelle est nulle lorsque le rapport entre la durée de détection Td et la durée de cohérence τc devient trop grand. 202

LA PENSÉE EN PHYSIQUE

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

Systèmes interférentiels Les systèmes interférentiels réalisent tous l’un des deux schémas précédents (Fig. 2) : le premier représente un système à division du front de l’onde primaire, le second un système à division de l’amplitude de l’onde primaire. La plupart des systèmes interférentiels par division du front d’onde ne présentent qu’un intérêt historique. Le plus important d’entre eux, et historiquement le premier, est le dispositif des deux trous ou des deux fentes proposé par Young dès 1801 (Fig. 3). Il est constitué de deux petites ouvertures S1 et S2 percées dans un diaphragme D que l’on éclaire par une source primaire S. Notons que, dans les trous d’Young, il est nécessaire de prendre en compte la diffraction (cf. Chapitre 10), afin que les rayons issus des deux trous puissent se rencontrer au point de détection P. On améliore le confort lumineux en remplaçant S, S1 et S2 par des fentes perpendiculaires au plan de symétrie, et en utilisant des fentes de même largeur en S1 et S2 . Quelques années plus tard, Fresnel proposa un autre système interférentiel, constitué de deux miroirs plans faisant entre eux un petit angle, dans lequel la diffraction ne jouait qu’un rôle négligeable ; c’est avec ce système qu’il put obtenir, lui aussi, un ordre de grandeur d’une longueur d’onde optique, dans le domaine visible.

Figure 3

Dispositif des fentes d’Young.

Les caractéristiques de tout dispositif interférentiel sont évidemment la longueur d’onde λ, mais aussi la distance a = S1 S2 , qui 203

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

sépare les deux sources dont les ondes émises interfèrent, et la distance d du diaphragme au plan d’observation parallèle à S1 S2 (Fig. 3). En raison de l’importance du montage d’Young dans les expériences récentes d’interférométrie optique, notamment en astronomie, et du confort lumineux que ce montage procure, formons à l’aide d’une lentille mince convergente L, diaphragmée par une bifente, l’image d’une fente-objet Ao (Fig. 4a). Dans le plan conjugué image Ai XY du plan Ao x o yo de la source primaire par rapport à L, situé à la distance di de cette dernière, on observe autour de l’image Ai de Ao , la figure de diffraction, dite de Fraunhofer 1 , donnée par la bifente dont chaque fente a une largeur ε. La répartition de l’intensité I (X ), dans le plan image, se présente alors sous la forme du produit de deux termes. Le premier représente la figure de diffraction donnée par les deux fentes de la bifente, au même endroit du plan d’observation ; cette figure est très étendue, car son extension est déterminée par l’inverse de la largeur ε. Le second est le terme d’interférence à deux ondes bien moins étendu. Il en résulte une figure de diffraction, caractéristique d’une seule fente, modulée par plusieurs franges d’interférence (Fig. 4).

Figure 4 a) Formation de l’image d’une fente donnée par une lentille diaphragmée par une bifente. b) Répartition de l’intensité dans le plan image, lorsque a/ε = 5.

1. Joseph Fraunhofer fut un opticien allemand de la fin du xviiie siècle qui étudia la diffraction autour des images données par les rayons lumineux.

204

LA PENSÉE EN PHYSIQUE

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

L’interfrange η, ou distance entre deux franges d’interférence, est définie par une différence de phase égale à 2π entre les ondes qui se rencontrent en P, à l’abscisse X . Par conséquent : 1φ = 2π

c1τ = 2π λ

1τ étant la différence des durées de propagation entre les chemins S2 P et S1 P. Cette dernière est nulle au centre de l’écran, mais on montre qu’elle a pour expression c1τ = a X/di , ailleurs dans ce plan. On en déduit, en remplaçant X par η : c1τ =

aη = λ d’où di

η=

λdi a

Comme a ≫ ε, l’interfrange η est bien plus faible que la largeur λdi /ε caractéristique de la figure de diffraction des fentes. Lorsqu’on diminue ε, le terme de diffraction devient pratiquement égal à 1 dans le champ d’interférence. C’est pour cette raison qu’on l’omet généralement, bien que la diffraction soit indispensable à l’analyse. On retrouve alors le résultat classique, qui convient aussi dans le cas de deux trous : I = 2I0 [1 + cos(2π ντ )]. Le système des fentes d’Young, avec l’implication déterminante de la diffraction, est pratiquement le seul des systèmes interférentiels par division du front d’onde qui soit encore utilisé de nos jours. Notons que, lorsque la source primaire est située à l’infini, le plan conjugué est le plan focal image et par conséquent di = f . C’est ce qui est réalisé dans un télescope : la source primaire est une étoile et la pupille est obstruée par un écran percé de deux trous. En 1993, on a pu réaliser l’interférence des ondes provenant de la diffusion d’une onde lumineuse incidente, de longueur d’onde 194 nm, par deux ions 198 Hg+ . Le montage est analogue au précédent, les ions jouant le rôle des trous d’Young, conformément au théorème de Babinet, du nom de l’opticien français Jacques Babinet, selon lequel les figures de diffraction d’une ouverture et de son 205

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

diaphragme complémentaire (obstacle de même forme que l’ouverture) sont identiques. Les systèmes interférentiels par division d’amplitude ont une grande importance pratique. L’exemple le plus simple est celui des lames minces, que l’on voit sur les bulles de savon, mais le plus célèbre, car le plus performant, est l’interféromètre qui porte le nom de son inventeur, l’Américain Albert Michelson (Fig. 5). Dans ce système, l’onde véhiculée par le rayon incident S I tombe sur une lame séparatrice L s , semi-argentée et inclinée à 45◦ , qui la sépare selon deux bras perpendiculaires I I1 et I I2 . Son amplitude est divisée par deux : une partie de l’onde se réfléchit successivement sur L s et sur le miroir M1 puis traverse L s ; l’autre partie traverse d’abord L s , puis se réfléchit successivement sur le miroir M2 et sur L s . On observe dans un plan P , perpendiculaire à l’axe défini par les deux images S1 et S2 de S, des franges circulaires centrées sur l’axe optique. Les trajets effectués par chaque bras ne traversant pas le même nombre de fois la lame séparatrice, on adjoint généralement à cette dernière une lame de même épaisseur mais non réfléchissante, appelée compensatrice. Cet interféromètre est le plus souvent utilisé avec une source primaire étendue. C’est précisément avec ce type d’appareil que Michelson et Edward Morley, à la fin du xixe siècle, mirent en évidence l’invariance de la vitesse de la lumière dans le vide par changement de référentiel galiléen (cf. Chapitre 13). Un siècle plus tard, après 2016, avec ce même type d’interféromètre, LIGO aux États-Unis et VIRGO en Europe, dont les bras ont

Figure 5

206

Schéma de l’interféromètre de Michelson.

LA PENSÉE EN PHYSIQUE

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

une longueur équivalente à plusieurs kilomètres, on a pu détecter les ondes gravitationnelles provoquées par la collision de trous noirs (cf. Chapitres 6 et 14). L’intérêt de l’interféromètre de Michelson dépasse le cadre fondamental précédent ; en effet, dans l’industrie, on utilise cet instrument associé à une machine-outil pour mesurer des distances très faibles, de l’ordre de 0,1 µm. Cohérence temporelle Lorsqu’on réalise des phénomènes d’interférence avec deux sources S1 et S2 , dont l’éclairement dépend d’une source primaire unique S, une première cause d’affaiblissement du facteur de visibilité V se manifeste, car les ondes émises S ne sont pas monochromatiques, mais quasi monochromatiques. On dit que la cohérence temporelle n’est pas parfaite. On caractérise alors la source par son intensité spectrale Iν qui est proportionnelle à l’énergie associée à la bande de fréquences émises, comprises entre ν et ν + 1ν. Généralement Iν est une courbe centrée autour d’une fréquence moyenne ν0 . Il existe deux types principaux de distribution d’intensité spectrale : la première est attribuée aux collisions entre atomes, notamment à la durée qui sépare deux collisions ; la seconde est due à l’effet DopplerFizeau, c’est-à-dire à la variation de fréquence de l’onde émise par les atomes, du fait de leur mouvement (cf. Chapitres 7 et 14). Pour un système interférentiel, la différence de phase au point d’observation P dépend de la fréquence de l’onde monochromatique considérée, puisque φ = 2πντ . Comme la source n’est pas monochromatique, chacune de ses composantes monochromatiques donne son propre système de franges d’interférence. On observe donc en P la somme des intensités produites par les différentes composantes spectrales : X I = 2I0 (νi ) [1 + cos(2π νi τ )] i

207

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

Les systèmes de franges associés à chaque fréquence νi se superposent et se brouillent, car la différence de phase 2π νi τ dépend de la fréquence. Cependant, si le spectre de fréquence est suffisamment étroit, le brouillage est imperceptible. On obtient un critère simple de netteté des franges en remplaçant la distribution de l’intensité spectrale par un rectangle de largeur 1ν1/2 , et en admettant qu’il n’y a pas brouillage si la variation de la différence de phase 1φ1/2 est négligeable devant 2π. On a alors : 2π1ν1/2 τ ≪ 2π

soit τ ≪ τc

−1 avec τc = 1ν1/2

La durée τc est la durée de cohérence et la longueur correspondante L c = cτc la longueur de cohérence temporelle. Les lasers à gaz, d’usage courant, ont des longueurs de cohérence supérieures à plusieurs décimètres. On interprète schématiquement les conditions précédentes à l’aide des trains d’ondes. Si τ ≪ τc , les trains d’ondes, qui se rencontrent au point P, proviennent d’un même train d’ondes issu de S. Leur différence de phase n’est donc pas aléatoire, mais stationnaire : il y a interférence. En revanche, si τ > τc , les trains d’ondes, qui se rencontrent en P, proviennent de trains d’ondes successifs issus de S. Leur différence de phase est donc aléatoire : il n’y a pas interférence. Dans l’interférométrie optique utilisée en astronomie, on fait interférer les ondes lumineuses provenant d’une étoile et reçues par deux télescopes distants de plusieurs mètres. La différence de durée τ est, dans ce cas, bien supérieure à la durée de cohérence τc . On compense cette différence de durée sans intérêt, qui altère le contraste des franges d’interférence, soit en plaçant le détecteur plus près du télescope recevant le signal en retard, soit en provoquant un retard supplémentaire du signal reçu par l’autre télescope à l’aide de lignes à retard optique. Lorsque la source primaire est quasi monochromatique, c’està-dire que son spectre est suffisamment étroit et centré sur une fréquence centrale ν0 , l’intensité totale I dans le plan d’observation peut 208

LA PENSÉE EN PHYSIQUE

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

se metre sous la forme suivante : h i I = 2I0 1 + |γ t | cos(2π ν0 τ − αt ) , dans laquelle |γ t | et αt définissent un facteur complexe, appelé degré complexe de cohérence temporelle. Comme la fonction cosinus dans l’intensité varie beaucoup plus rapidement que γ t lorsque τ change, les valeurs extrêmes de l’intensité sont : Imin = 2I0 (1 − |γ t |) et Imax = 2I0 (1 + |γ t |), d’où le facteur de visibilité V des franges d’interférence identifié à |γ t |. Le cas où l’onde est monochromatique correspond à |γ t | = 1. La relation entre V et la distribution spectrale de la source primaire est une transformation de Fourier (cf. Chapitre 11). La détermination expérimentale de V = |γ t | à partir des franges d’interférence permet d’avoir des informations sur l’intensité spectrale. C’est la spectrométrie dite par transformation de Fourier. En réalité, on accède facilement à γ t mais pas à la phase αt . Ce problème de restitution de la phase à partir d’informations supplémentaires sur le signal à restituer en présence de bruit, constitue l’un des thèmes principaux du traitement d’image. Cohérence spatiale Une seconde cause d’affaiblissement du facteur de visibilité V se manifeste, car les ondes sont émises, non par une source ponctuelle S, mais par une source spatialement étendue. On dit que la cohérence spatiale de la source n’est pas parfaite. La source primaire S est une distribution lumineuse étendue dont les différents éléments ponctuels émettent des ondes lumineuses de façon totalement indépendante ; elle est spatialement incohérente. En outre, la contribution en intensité de ces éléments n’est pas en général uniforme. Aussi caractérise-t-on cette source primaire par une distribution spatiale d’intensité Is (S), S étant un point quelconque de cette source. Par exemple, une fente, placée devant une source spatialement incohérente, réalise une distribution spatiale rectangulaire. En astronomie, les étoiles doubles 209

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

réalisent une source spatialement incohérente, formée de deux points lumineux d’intensités respectives I1 et I2 . Étudions l’influence d’un déplacement de la source primaire S sur la différence de phase φ au point d’observation P. Si le système est de type trous d’Young, il vient, puisque S1 , S2 et P sont fixes : 1φ = 2πν1τ , 1τ étant la différence des durées de parcours des chemins S S2 P et S S1 P, lorsque la source primaire S se déplace de 1S. Un déplacement de S, perpendiculaire à la différence u1 − u2 des deux vecteurs unitaires, définis respectivement par S S1 et S S2, ne modifie pas φ et par conséquent la cohérence spatiale de l’interféromètre. En revanche, si 1S est colinéaire à u1 − u2 , la variation de phase correspondante a pour expression, en introduisant la longueur d’onde λ = c/ν et la distance ds qui sépare la source primaire S du plan des deux sources S1 et S2 (Fig. 3) : 1φ ≈ 2π (a1S/(λds ). Chaque élément de la source primaire donne son propre système de franges indépendamment des autres. Les intensités correspondantes contribuent donc à donner l’intensité totale : X I = 2Ii (1 + cos φi ). i

Assimilant la source primaire à une fente rectangulaire de largeur 1S, on peut admettre qu’au point P la variation maximale de la différence de phase des vibrations émises par deux points de la source primaire, et donc le brouillage des franges, seront imperceptibles si 1φ ≪ 2π, soit si 2π(a1S)/(λds ) ≪ 2π. Finalement cette condition s’écrit : λ a ≪ ls avec ls = , θ θ étant l’angle sous lequel on voit la source primaire S depuis le plan des sources secondaires S1 et S2 ; ls = λ/θ est la largeur de cohérence de la source primaire. La largeur de cohérence du Soleil, de diamètre apparent 32 arcmin, vaut, le rayonnement émis étant centré sur la radiation de longueur 210

LA PENSÉE EN PHYSIQUE

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

d’onde 550 nm : ls ≈ 60 µm. Pour une planète, telle que Vénus, de diamètre apparent 1 arcmin, ls ≈ 2 mm. Comme pour la cohérence temporelle, il existe un théorème reliant le facteur de visibilité des franges d’interférence à la distribution spatiale d’intensité de la source primaire qui éclaire l’interféromètre. Autour de l’image Ai d’un objet Ao , donnée par un instrument limité par un diaphragme, percé de deux trous S1 et S2 , la répartition de l’intensité lumineuse I en un point P du plan d’observation peut se mettre sous la forme h i I = 2I0 1 + |γ s | cos(φ − αs ) , ce qui généralise l’expression de l’intensité associée à une source primaire ponctuelle. L’intensité varie donc entre les valeurs minimale et maximale suivantes : Imin = 2I0 (1 − |γ s |) et Imax = 2I0 (1 + |γ s |). Il en résulte que le facteur de visibilité V des franges s’identifie à |γ s |. Le cas idéal où la source S est élémentaire correspond à |γ s | = 1. La relation entre V et l’intensité spatiale est une transformation de Fourier. Ainsi, la détermination expérimentale de V = |γ s | à partir des franges d’interférence permet d’obtenir des informations sur la distribution spatiale d’intensité et donc sur le diamètre apparent de la source primaire. En astrophysique, la technique qui s’appuie sur le résultat précédent est appelée la synthèse d’ouverture. Comme pour la cohérence temporelle, la phase αs de γ s n’est pas accessible, ce qui rend nécessaire l’adjonction d’informations a priori pour restituer l’objet en présence de bruit. Concrètement, c’est Michelson qui, le premier en 1890, a exploré cette voie pour déterminer le diamètre apparent des étoiles, sur une idée suggérée par Fizeau en 1867, dans un rapport à l’Académie des sciences de Paris. Il réalise ses expériences en 1920 sur le télescope du mont Wilson en Californie, de 2,4 m de diamètre, muni d’un écran percé de deux ouvertures. En utilisant un ensemble de quatre miroirs, Michelson améliore les performances du dispositif : dans l’expression de la différence de phase φ entre les deux 211

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

ondes qui interfèrent, la distance a entre les ouvertures S1 et S2 est remplacée par la distance b entre les miroirs extrêmes. En donnant à b une valeur de 7 m, il a pu déterminer le diamètre apparent de l’étoile α d’Orion : θ ≈ 0,05 arcsec. Tout se passe comme si on avait « synthétisé » une ouverture de plusieurs dizaines de mètres, d’où le nom de cette technique. La synthèse d’ouverture s’est développée avec succès en radioastronomie pour déterminer le diamètre apparent de radiosources. La dernière application de cette technique est fournie par l’image publiée le 10 avril 2019 du trou noir (cf. Chapitre 14) de la galaxie M87, située à 53 millions d’années-lumière de la Terre. Le dispositif interférentiel était constitué de huit télescopes formant un système optique interférentiel virtuel planétaire (Event Horizon Telescope).

HOLOGRAPHIE Dans la technique photographique habituelle, l’image obtenue est un enregistrement point par point, par le détecteur, de l’intensité de l’onde optique issue de l’objet ; on perd ainsi l’information contenue dans la phase de l’onde puisque cette dernière n’apparaît plus dans l’intensité (cf. Chapitre 11). Le problème posé est donc celui de la restitution de la phase d’une onde, ou de la reconstruction complète de cette dernière avant l’enregistrement. C’est en 1948, alors qu’il essayait de corriger les aberrations géométriques en microscopie électronique, que le physicien anglais Dennis Gabor, d’origine hongroise, eut l’idée d’utiliser le phénomène d’interférence entre l’onde issue d’un objet et une autre onde, dite de référence, pour enregistrer l’information contenue dans la phase. En effet, le résultat d’intensité dans l’interférence de deux ondes : I = I1 + I2 + 2(I1 I2 )1/2 cos φ,

212

LA PENSÉE EN PHYSIQUE

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

montre qu’une différence de phase entre deux ondes peut être retrouvée à partir de la répartition de l’intensité. Pour restituer la phase d’une onde, il suffit d’envisager un phénomène d’interférence entre cette onde, de phase inconnue, et une autre onde dont la phase est connue. Cette idée simple put être facilement réalisée grâce aux lasers, précisément en raison de la capacité de ces sources à fournir une onde intense et cohérente (cf. Chapitre 19). Par exemple, un laser HeNe fournit de façon continue un faisceau lumineux de 10 mW sur une section de 1 mm2 ; l’éclairement correspondant est de 104 W.m−2 , ce qui est bien supérieur à l’éclairement lumineux moyen produit par le Soleil sur la Terre, inférieur à 200 W.m−2 . D’autre part, la longueur de cohérence temporelle de ce laser est de l’ordre de 20 cm, alors que celle d’une source classique n’est que de 20 µm. L’holographie ou technique d’enregistrement de toute l’information optique issue d’un objet (en grec, holographie signifie enregistrement de toute l’information) comporte deux étapes : la réalisation d’un hologramme et la reconstruction de l’onde objet à partir de ce dernier. Réalisation d’un hologramme Le montage suivant, proposé en 1962 par les deux physiciens américains Emmett Leith et Juris Upatnieks, est dit à référence inclinée. L’onde plane issue d’une lentille tombe, pour une partie, sur un prisme de faible angle A et pour l’autre sur l’objet transparent (Fig. 6). Notons ψ o et ψ r les amplitudes complexes, en un point du plan d’enregistrement, des ondes issues respectivement de l’objet et du prisme ; Io et Ir désignent les intensités correspondantes. L’intensité I de l’onde qui résulte de l’interférence de ces deux ondes a pour expression, d’après la formule fondamentale de l’interférence de deux ondes : I = Io + Ir + 2(Io Ir )1/2 cos(φo − φr ). 213

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

Figure 6 Réalisation d’un hologramme à l’aide d’une onde de référence monochromatique, plane, inclinée.

Comme l’onde issue du prisme est inclinée de l’angle θ ≈ (n − 1) A, n étant l’indice du prisme et A son angle, sa phase a pour expression, au point de coordonnées (x,y) du plan d’enregistrement, φr = −2π x sin θ/λ. Le détecteur, par exemple une plaque photographique, sur lequel on a enregistré l’intensité I , est l’hologramme. Ce dernier se présente sous la forme de franges d’interférence très serrées, ce qui lui donne un aspect grisâtre lorsqu’on l’observe à l’œil. Si λ = 632,8 nm et θ = 30◦ , la période de ces franges est η = λ/ sin θ ≈ 1,3 µm. La taille de l’élément de détection, ou pixel (picture element), le grain de la plaque photographique par exemple, doit donc être très faible en holographie (< 1 µm). Reconstruction de l’onde objet Lorsqu’on l’éclaire avec l’onde de référence, d’amplitude complexe ψ r , l’hologramme transmet une onde d’amplitude τ ψ r , τ étant le facteur de transmittance d’expression : τ = a + bI

avec

I = Io + Ir + 2(Io Ir )1/2 cos(φo − φr ),

a et b étant deux constantes. Il en résulte l’amplitude complexe suivante de l’onde émergente : τ ψ r = (a + bIr + bIo )ψ r + 2b(Ir Io )1/2 cos(φo − φr )ψ r . 214

LA PENSÉE EN PHYSIQUE

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

Le premier terme représente une onde directement reliée à l’onde de référence ; il n’a que peu d’intérêt, dans la restitution de l’onde objet, car on se place dans les conditions où Io ≪ Ir , afin que la caractéristique du détecteur, qui a servi à réaliser l’hologramme, soit rectiligne. Le deuxième terme en cosinus, qui contient non seulement l’intensité Io de l’onde objet, mais aussi sa phase φo , est bien plus intéressant. Pour trouver sa signification physique, il suffit de considérer simultanément les deux composantes spatiales de Fourier, sous leurs formes exponentielles ; l’une restitue une image fidèle de l’objet dans sa totalité, l’autre une image jumelle de cet objet. La présence de φr , d’expression déterminée, permet de bien séparer ces deux images de la partie directement transmise représentée par le premier terme. Ainsi un observateur, placé derrière l’hologramme que l’on éclaire par une onde plane, reçoit plusieurs ondes dont l’une est analogue à celle émise par l’objet ; il voit donc l’objet reconstruit à travers l’hologramme. Dans ce montage, l’inclinaison de l’onde de référence permet d’éviter une altération de cette reconstruction de l’onde objet, notamment par l’onde jumelle. Cet inconvénient existait dans les premiers hologrammes en ligne réalisés par Gabor : dans ce cas, l’onde de référence était l’onde transmise, sans modification de phase, par l’objet transparent, et l’onde objet celle diffusée par l’objet. Lorsque l’objet n’est pas transparent, la réalisation diffère mais l’analyse reste la même. Avec un faisceau laser élargi, on éclaire un miroir et l’objet étudié. On enregistre alors, sur le détecteur, l’interférence de l’onde de référence, réfléchie par le miroir, et de l’onde réfléchie par l’objet. De nos jours, on appelle improprement hologramme des enregistrements optiques qui ne relèvent pas de l’holographie, car la phase de l’onde n’est pas restituée. C’est simplement l’enregistrement d’une scène selon un procédé classique, dont la transmission à distance et la diffusion, après quelques manipulations, s’appuient sur des effets 215

YOUNG ET GABOR : INTERFÉRENCE ET HOLOGRAPHIE

d’illusions en optique. Ainsi, lors des élections présidentielles de 2017, les hologrammes présentés n’en étaient pas vraiment, comme on a pu s’en rendre compte par l’absence d’effet de relief découlant de la perte de la phase.

216

LA PENSÉE EN PHYSIQUE

13 Poincaré et Einstein : extension de la relativité galiléenne

La nécessité d’une extension aux phénomènes lumineux de la relativité galiléenne est apparue bien avant 1905, date de la publication de la théorie de la relativité restreinte. En effet, dès 1810, l’astronome français François Arago constate que la vitesse de la lumière provenant d’une étoile ne semble pas affectée par celle de la Terre d’où on l’observe, comme on pourrait le supposer par composition newtonienne des vitesses (cf. Chapitre 3). Plus probant, en 1851, Fizeau réalise une expérience interférentielle (Fig. 1), de type bifente d’Young (cf. Chapitre 12), dans laquelle il impose à la lumière de traverser de l’eau, en mouvement dans le même sens dans la branche 1, et dans le sens opposé dans la branche 2 ; l’état interférentiel, que prévoit la composition précédente des vitesses, diffère notablement de celui observé, puisque l’écart relatif entre les deux avoisine 50 %, ce qui est énorme. Avec Fresnel, ils recherchent la composition des vitesses qui conviendrait, et trouvent, sans la justifier, celle qui apparaîtra naturellement dans la théorie de la 217

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

Figure 1

Expérience de Fizeau.

relativité restreinte. Enfin, en 1901, l’Allemand Walter Kaufmann découvre que le rayon de la trajectoire circulaire d’électrons rapides dans un champ magnétique orthogonal n’est pas proportionnel à leur vitesse v, comme le montre la théorie newtonienne, mais au produit γ v, avec γ = (1 − β 2 )−1/2 , β étant le rapport de la vitesse v sur la constante d’Einstein c ou vitesse de la lumière dans le vide.

ÉQUATIONS DE MAXWELL On a vu que la transformation de Galilée respectait l’invariance de la loi fondamentale de la mécanique de Newton par changement de référentiel galiléen (cf. Chapitre 3). Mais qu’en est-il des lois de l’électromagnétisme et par conséquent des équations de Maxwell qui les expriment ? Le premier à avoir tenté de répondre à cette question fut l’Allemand, Woldemar Voigt : il suggéra de remplacer les relations entre les coordonnées spatio-temporelles d’un même évènement, dans deux référentiels galiléens R et R′ (cf. Chapitre 2), précisément t = t ′ et x = x ′ + ve t ′ , par respectivement :   ve x ′ ′ t = γe t + 2 et x = γe (x + ve t), c avec βe = ve /c et γe = (1 − βe2 )−1/2 , les deux autres coordonnées restant inchangées. Cependant il considère ce changement de variable comme un simple artifice de calcul. 218

LA PENSÉE EN PHYSIQUE

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

Quelques années plus tard, dans La théorie des électrons, le Néerlandais Hendrik Lorentz tente d’élucider l’origine physique d’un certain facteur d’entraînement de Fresnel, dans l’expérience interférentielle du Français Hippolyte Fizeau de 1851 ; il est alors conduit à utiliser un changement de variables analogue au précédent, et à introduire un temps t ′ , fonction de la coordonnée x, qu’il qualifie de local, sans lui accorder de signification physique. Lois de l’électromagnétisme Les lois de l’électromagnétisme peuvent être résumées en quatre propriétés fondamentales finalisées et totalement interprétées par le physicien écossais James Maxwell en 1873. Deux d’entre elles sont structurelles, car elles concernent les vecteurs champ électrique E et champ magnétique B, indépendamment des charges et des courants électriques. La première est la propriété de conservation d’une certaine grandeur associée au champ magnétique, appelé son flux à travers une surface fermée ; ce dernier fait apparaître localement le produit scalaire du vecteur B par le vecteur perpendiculaire à l’élément de surface localement concerné (cf. Annexe 1) ; cette propriété exprime simplement l’impossibilité de séparer les pôles nord et sud d’un aimant ou d’une bobine parcourue par un courant. C’est précisément cette propriété qui justifie l’introduction du potentiel vecteur A dont dépend B. La seconde est la loi de l’induction électromagnétique trouvée expérimentalement par l’Anglais Michael Faraday : toute variation dans le temps d’un champ magnétique provoque l’apparition d’un champ électrique. C’est cette loi qui permet de définir l’autre potentiel, le potentiel scalaire V , qui forme avec A le potentiel électromagnétique. Les deux autres lois sont, elles, conjoncturelles car elles dépendent des charges et des courants présents. Selon la première, le flux du champ électrique E à travers une surface fermée n’est pas, lui, conservatif, mais directement relié aux seules charges présentes en son intérieur ; il est donc nul dans le vide. D’après la seconde, il existe 219

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

une relation entre la structure spatiale du champ magnétique, les courants électriques et la variation dans le temps du champ électrique ; en l’absence de cette dernière contribution, ce qui est réalisé en régime stationnaire, le résultat est connu sous le nom de théorème d’Ampère, du nom du Français André-Marie Ampère qui l’a établi. En combinant ces équations, Maxwell put prévoir la propagation, dans le vide, du champ électromagnétique, composé de E et B, à la vitesse c ≈ 3 × 108 m.s−1 . Historiquement, ce résultat fut si surprenant, comparé aux ondes sonores qui nécessitent un support pour se propager, qu’on imagina l’existence d’un milieu hypothétique auquel on donna le nom d’éther, en raison de ses propriétés particulières supposées. C’est précisément pour étudier ces propriétés que Michelson, aidé de son collègue américain Edward Morley, réalisa dans les années 1880 l’interféromètre qui porte son nom (cf. Chapitre 12). L’expérience consistait à faire tourner l’interféromètre autour d’un axe vertical, dans le but de provoquer une variation de l’état interférentiel entre les deux ondes qui se rencontrent au niveau du détecteur ; le résultat obtenu conforta toujours l’absence de modification de cet état, malgré de nombreuses tentatives, cela contrairement à l’attente de Michelson lui-même ; on dit même que l’expérimentateur garda des doutes sur ses résultats jusqu’à sa mort en 1931. Dans un autre référentiel galiléen R′ , le champ électromagnétique (E ′ , B ′ ) est différent, mais les relations sont analogues, les variables spatio-temporelles x, y, z et t étant évidemment remplacées par les nouvelles variables x ′ , y ′, z ′ et t ′ . On trouve ici aussi, dans R′ , une propagation du champ électromagnétique à la même vitesse c. La vitesse de propagation des ondes électromagnétiques dans le vide ne dépend donc pas du référentiel galiléen. En outre, d’après les équations des champs, cette propagation est isotrope et indépendante du mouvement de la source à l’origine de l’émission, comme c’est le cas pour des vibrations sonores.

220

LA PENSÉE EN PHYSIQUE

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

Rappelons que, contrairement au son, la lumière peut se propager en l’absence de milieu matériel et que sa vitesse de propagation est d’autant plus faible que le milieu est condensé (cf. Chapitre 10). Transformation galiléenne du champ électromagnétique Dans un référentiel galiléen, la force électromagnétique qui s’exerce sur une charge en mouvement peut être séparée en deux parties. L’une, indépendante de la vitesse, est une généralisation de la force électrostatique que l’on appelle la force électrique. L’autre dépend de la vitesse de la particule et lui est orthogonale ; c’est la force magnétique. Ces constatations conduisent à la définition suivante de la force de Lorentz, qui s’exerce sur une charge q, de vitesse v, au point M du référentiel galiléen d’étude, et que l’on écrit généralement sous la forme standard suivante : F = q(E + v × B), où E et B forment le champ électromagnétique 1. Le champ électromagnétique est une entité dont les composantes électrique et magnétique dépendent du référentiel d’analyse. En effet, considérons un référentiel galiléen R dans lequel existent un champ électrique E et un champ magnétique B uniformes. Soit R′ un second référentiel galiléen de vitesse v e par rapport à R. D’après la relativité galiléenne, le champ électromagnétique est défini dans R′ par l’équation : F ′ = q ′ (E ′ + v ′ × B ′ ) dans laquelle E ′ et B ′ sont les champs électrique et magnétique observés dans R′ . Les deux référentiels étant en translation, rectiligne, uniforme, l’un par rapport à l’autre, on a : v = v ′ + v e . En outre, la charge est invariante, q = q ′ , et, en relativité galiléenne, la force l’est aussi : F = F ′ . Par conséquent : q(E + v × B) = q[E ′ + (v − v e ) × B ′ ] 1. Cette écriture de la force de Lorentz impose aux champs électrique et magnétique des dimensions physiques différentes, alors qu’ils forment ensemble le champ électromagnétique ; en outre, elle ignore le caractère fondamentalement relativiste du magnétisme. En remplaçant la vitesse v par le rapport v/c, on éviterait ce double inconvénient !

221

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

ce qui doit être vérifié séparément, quelle que soit la vitesse v. Aussi, obtient-on, en égalant les termes indépendants de v et ceux qui en dépendent : E = E ′ − v e × B ′ et B = B ′ . Les deux observateurs de R et de R′ , qui se déplacent l’un par rapport à l’autre, n’attribuent pas la même valeur à la partie électrique de l’interaction. Dans ce contexte, on montre que les équations de Maxwell ne sont pas toutes invariantes par changement de référentiel galiléen, dans la transformation de Galilée ; seules les équations structurelles le sont. Transformation de Lorentz-Poincaré C’est en 1905 que le savant français Henri Poincaré énonça, à l’Académie des sciences de Paris, la nouvelle transformation des coordonnées, par changement de référentiel galiléen, sous sa forme définitive, en ajoutant celle sur le temps, sans lui accorder d’importance physique. Fort élégamment, il attribua la paternité de l’ensemble de ces formules de transformation à Lorentz :    ve x ′ ′ t = γe t + 2 et x = γe x ′ + ve t ′ c avec βe = ve /c et γe = (1 − βe2 )−1/2 . Sur la figure 2, on a représenté la variation de γe en fonction de βe ; on voit que γe varie entre 1 et l’infini, lorsque βe passe de 0 à 1. Comme pour la transformation de Galilée, les origines des durées et des espaces sont supposées les mêmes pour les deux référentiels. Selon cette transformation, le temps n’apparaît plus comme un paramètre universel. Nous reviendrons plus loin sur les implications de ce résultat qui surprit la plupart des physiciens de l’époque. Notons que, comme pour la transformation des coordonnées de Galilée, les formules de transformation de Lorentz sont linéaires, réciproques, ce qui exprime l’équivalence physique des référentiels 222

LA PENSÉE EN PHYSIQUE

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

Figure 2

Variation du facteur relativisite γe en fonction de βe .

R et R′ , et donc l’impossibilité de hiérarchiser R et R′ . On passe de R à R′ en permutant les coordonnées et en changeant ve en −ve . En outre, la transformation de Lorentz-Poincaré restitue la transformation de Galilée entre deux référentiels galiléens pour βe ≪ 1. En effet, γe est alors sensiblement égal à 1, d’où βe x ≪ ct et donc ct ′ ≈ ct, encore faut-il dans ce cas que les valeurs de x ne soient pas trop grandes : x ≪ ct/βe . Avec cette tranformation, la vitesse c apparaît comme une vitesse limite, puisque γe n’est réel que si ve ≤ c. Ce résultat a été vérifié expérimentalement à de multiples reprises. Cependant, dans les années 1970, certains physiciens ont imaginé l’existence de particules supraluminiques, c’est-à-dire se déplaçant à des vitesses supérieures à c, auxquelles ils ont donné le nom de tachyons, qui vient du mot grec qui signifie rapide. Pour ces particules, le facteur γe devrait être un nombre imaginaire. Ces particules n’ont jamais pu être détectées ! En septembre 2011, on a cru détecter des neutrinos qui auraient parcouru une distance de 730 km, à une vitesse supérieure à c. Il s’agissait, après vérification, d’une erreur expérimentale. Mais finalement, même si cela s’était avéré exact, cela n’aurait rien changé à la théorie de la relativité, sauf que la vitesse des neutrinos aurait alors joué le 223

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

rôle de la vitesse de la lumière, avec une masse plus proche de zéro, alors que celle de la lumière, inférieure à cette limite, aurait impliqué une valeur non nulle de sa masse, en tout cas plus grande que celle du neutrino. À l’analyse, les bases épistémologiques de la théorie de la relativité s’avèrent très robustes. Il existe des vitesses supraluminiques, mais elles ne concernent pas un objet matériel. Par exemple, lorsqu’une source lumineuse effectue, à la manière du faisceau lumineux émis par un phare, une rotation complète, en une durée T = 1 min, c’est la vitesse de sa projection radiale, immatérielle, située à une très grande distance d, qui atteint la vitesse 2πd/T , et peut ainsi dépasser c, si d est suffisamment grand, par exemple de l’ordre de 1010 m.

PRINCIPE DE RELATIVITÉ DE POINCARÉ-EINSTEIN L’extension de la relativité galiléenne (cf. Chapitre 2) à tous les phénomènes physiques, notamment lumineux, fut proposée, pour la première fois, le 24 septembre 1904, par le Français Henri Poincaré, à Saint Louis aux États-Unis : Toutes les lois de la physique sont invariantes par changement de référentiel galiléen. Il en résulte que les lois de la dynamique, ainsi que celles de l’électromagnétisme contenues dans les équations de Maxwell, doivent s’exprimer de la même façon dans deux référentiels galiléens. Dans sa conférence, Poincaré y développa ce qu’il a déjà écrit deux ans plus tôt, dans un livre célèbre La Science et l’Hypothèse, principalement l’inexistence d’un temps absolu. Huit mois plus tard, le 30 juin 1905, un jeune physicien allemand, inconnu de la communauté scientifique, Albert Einstein, publie, dans la revue Annalen der Phyzik, un texte sur le même sujet, intitulé « Sur l’électrodynamique des corps en mouvement ». Il y énonce clairement l’extension du principe de relativité et y interprète physiquement, avec simplicité et élégance, toutes les conséquences, notamment 224

LA PENSÉE EN PHYSIQUE

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

l’invariance des équations de Maxwell et le résultat négatif de l’expérience de Michelson-Morley 2 , 3 . D’après ce qui précède, l’énoncé du principe de relativité, appliqué aussi à l’électromagnétisme et donc à la propagation de la lumière dans le vide, le champ électromagnétique doit se propager à la même vitesse c, invariante par changement de référentiel galiléen 4 . Dans sa publication originale, Einstein, contrairement à Poincaré, introduisit un second principe sur l’invariance de la vitesse de la lumière. Ce dernier est superflu, si l’on tient compte de la théorie électromagnétique de Maxwell, selon laquelle la lumière se propage dans le vide sous forme d’onde, l’invariance de la vitesse de la lumière par changement de référentiel galiléen découlant du principe de relativité. Dans une note envoyée un peu plus tard au directeur de la publication, Einstein admit lui-même que ce second principe était naturellement contenu dans les équations de Maxwell. La contribution de Poincaré fut remarquable à la fois dans la mise en forme définitive de l’écriture de la transformation de LorentzPoincaré, et dans l’extension du principe de relativité. Cependant, elle est moins précise et moins développée que celle d’Einstein, lequel envisage précisément la dilatation des durées, totalement ignorée par Poincaré. Certains auteurs n’ont pas hésité à affaiblir la contribution d’Einstein à la relativité restreinte, jusqu’à mettre en doute son intégrité, en le soupçonnant de plagiat. Nous conseillons au lecteur intéressé par cette polémique de se référer aux publications originales de ces deux grands scientifiques, ou plus simplement à la comparaison exhaustive de leurs contributions respectives faite par le Français 2. Cette publication, qui peut être lue par un élève titulaire du baccalauréat, est accessible en français dans le livre de Steven Hawking Sur les épaules de géants. 3. Dans les énoncés originaux du principe de relativité donnés par Poincaré et Einstein, le qualificatif rectiligne dans le mouvement relatif des différents référentiels galiléens n’est pas mentionné, car le mot uniforme est entendu au sens vectoriel (en valeur et en direction). 4. Précisons que c n’est pas seulement la vitesse de la lumière dans le vide, mais bien plus largement une constante universelle de la physique, qu’on appelle désormais la constante d’Einstein.

225

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

Thibault Damour. Il n’est pas inutile de rappeler que, dans leurs notes, Lorentz et Poincaré ont rendu un hommage appuyé au talent d’Einstein. Le principe de relativité, ainsi généralisé aux phénomènes électromagnétiques, permit d’interpréter le résultat négatif de l’expérience interférentielle de Michelson (cf. Chapitre 12), de façon très simple, en avançant que la vitesse de la lumière dans le vide est égale à c, par rapport à tout référentiel galiléen 5 . Enfin, il n’est probablement pas inutile de souligner que, comme la relativité galiléenne, la relativité restreinte est une théorie universelle. Le temps est relatif, commme l’espace Les formules de transformation de Galilée entre deux référentiels galiléens, relatives au temps et à l’espace, selon la direction du mouvement de R′ par rapport à R, t = t ′ et x = x ′ + ve t ′ (cf. Chapitre 2), doivent donc êtres remplacées par celles de Lorentz : ct = γe (ct ′ + βe x ′ ) et

x = γe (x ′ + βe ct ′ ).

Ainsi le temps n’est plus un paramètre d’évolution universel ; il dépend du référentiel d’analyse : l’intervalle de temps séparant deux évènements n’est plus invariant par changement de référentiel galiléen ; en relativité einsteinienne, le temps, comme l’espace, est relatif : 1t 6 = 1t ′ et 1x 6 = 1x ′ . Il en résulte, non seulement une relativité de la position comme en mécanique de Newton, mais aussi une relativité de la simultanéité. Avec cette nouvelle transformation des coordonnées, il devient nécessaire de reprendre la construction de la cinématique et notamment la composition des vitesses. Einstein retrouve alors la composition des vitesses qui permet d’interpréter les résultats de Fizeau dans 5. Pour l’anecdote autour des notations utilisées, Lorentz appela β le rapport ve /c, alors que Poincaré le désignait par ε, et tous deux notaient k la quantité γe ; quant à Einstein, il n’attribua pas de lettre au rapport ve /c et appela β ce que l’on désigne généralement par γe !

226

LA PENSÉE EN PHYSIQUE

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

l’expérience d’Young-Fizeau de 1851 (cf. Chapitre 1). Il n’est pas inutile de préciser que Poincaré, pourtant à l’origine de la transformation du temps, a écarté toute signification physique de cette dernière transformation. C’est Einstein qui l’interpréta physiquement en analysant soigneusement le processus de mesure de la durée qui sépare deux évènements. En philosophe intéressé par le concept de temps, notamment celui défini par les physiciens, Henri Bergson réanalysa soigneusement l’expérience de Michelson 6 , ce qui est remarquable, car inhabituel chez les philosophes français de l’époque. Bergson en vint à contester explicitement le résultat d’Einstein sur le temps. Cependant, lors de son entrevue avec Einstein en 1922, organisée par Paul Langevin à Paris, il découvrit son erreur, après une longue discussion. L’influence du physicien fut si grande que le philosophe demanda alors à son éditeur de renoncer à la publication déjà programmée de son livre. Curieusement, si cette erreur sur la signification profonde du temps fut corrigée par Bergson lui-même, elle ne fut pas prise en compte par les philosophes français après sa mort ! Pire encore, dans l’enseignement français de philosophie, lorsqu’on parle du temps, c’est surtout à celui de Bergson, dit temps vécu, que l’on se réfère. Un concept universel, l’intervalle entre deux évènements On l’a déjà dit (cf. Chapitre 1), la physique cherche des grandeurs qui, sous l’apparence du changement, ne varient pas. Le maintien après changement de référentiel galiléen est appelé l’invariance tout court ; celui par changement dans l’espace est l’uniformité, et celui par changement au cours du temps est la conservation. Certes, en relativité einsteinienne, le temps et l’espace sont relatifs, mais la quantité suivante : 1s 2 = c2 (t2 − t1 )2 − (x 2 − x 1 )2 − (y2 − y1 )2 − (z 2 − z 1 )2 ,

6. Durée et simultanéité, PUF, Quadrige 1923.

227

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

est un invariant. On l’appelle carré de l’intervalle entre deux évènements E 1 et E 2 , de coordonnées respectives (t1 , x 1 , y1 , z 1 ) et (t2 , x 2 , y2 , z 2 ). Évidemment, l’opposé, qu’introduisent de nombreux auteurs, est aussi un invariant. Techniquement, les deux conventions pour le carré de l’intervalle, la première + − −− dite « 2− », la seconde − + ++ dite « 2+ », sont équivalentes. Cependant, la première nous paraît préférable car elle restitue l’invariance de (t2 −t1 ) en mécanique de Newton. En effet, il vient :   1s 2 v2 v 2 = (t − t ) 1 − ≈ (t2 − t1 )2 pour ≪1 2 1 c2 c2 c Notons que, pour v = c, 1s 2 = 0, ce qui est caractéristique du carré de l’intervalle lorsque les évènements concernent la lumière.

DILATATION DES DURÉES Analysons, dans le cadre galiléen habituel, le procédé de mesure par un observateur de la durée d’un phénomène, par exemple la période d’un pendule, c’est-à-dire la durée qui sépare deux passages, dans le même sens, devant un index, d’une masselotte accrochée à un fil. Les deux évènements à considérer sont localisés en un même lieu, précisé par un index fixé dans le référentiel galiléen du laboratoire. Qu’en est-il de cette durée mesurée dans un autre référentiel galiléen R par rapport auquel le précédent référentiel noté R′ est en mouvement, à la vitesse ve ? Pour distinguer ces deux durées a priori différentes, on qualifie de propre celle, notée T p , qui sépare dans R′ les deux passages devant l’index, fixe dans ce référentiel. Par rapport à R, les deux évènements au contraire ne sont pas localisés au même point. En physique newtonienne, peu importe puisque le temps est universel. En relativité, il en est autrement, car les durées mesurées sont différentes.

228

LA PENSÉE EN PHYSIQUE

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

Entre la durée propre T p , mesurée dans R′ , et la durée dite impropre Ti , mesurée dans tout autre référentiel galiléen R, on a la relation simple suivante : Ti = γe T p

soit

Ti > T p

puisque γe > 1

Ce résultat a été confirmé expérimentalement sur des particules en mouvement rapide (muons du rayonnement cosmique par exemple). On peut établir simplement la relation précédente en considérant, dans le référentiel R′ , deux miroirs plans en regard, distants de d, et fixés de telle sorte que leurs surfaces soient perpendiculaires à l’axe O ′ y ′ (Fig. 3a). Dans R′ , la durée de parcours de la lumière, au cours d’un aller et retour d’un miroir à l’autre, est la durée propre T p = 2d/c, les deux évènements, émission de lumière par S1 et réception à nouveau par S1 , étant localisés au même point. Dans R, il n’en est pas de même : la trajectoire de la lumière est la ligne brisée S1 M2′ S2 , et la durée Ti est telle que cTi = 2S1 M2′ car la vitesse de la lumière vaut aussi c dans R. Il en résulte, en appliquant le théorème de Pythagore dans le triangle S1 M2′ S2 (Fig. 3b) :

Figure 3

Relation entre durée propre et durée impropre.

229

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

cTi = 2(d

2

+ ve2 Ti2 )1/2

d’où l’on déduit

Ti =



2d c



γe = γe T p

ce qui établit le résultat recherché 7 . Paradoxe des jumeaux de Langevin En 1911, Paul Langevin, qui œuvra beaucoup pour introduire les idées d’Einstein en France, présenta la dilatation des durées sous la forme d’un paradoxe.

Figure 4

Paradoxe des jumeaux de Langevin.

Pour cela, il analysa les points de vue de deux jumeaux : l’un Gaspard qui reste sur la Terre (Gaia) et ne fait rien (!) ; l’autre Albert (Astronaute), plus entreprenant, qui saute, une première fois, sur une fusée qui passe à proximité, pour effectuer un voyage qui l’éloigne de la Terre ; à la fin de son voyage aller, lorsqu’il décide de revenir sur Terre, il saute, à nouveau, sur une seconde fusée qui se dirige au contraire vers la Terre ; enfin, arrivé à destination, il abandonne la 7. Dans la première partie de la bande dessinée Quantix, éditée par Dunod en 2019, qui traite de la relativité, une faute surprenante s’est glissée dans le scénario, page 27. On semble utiliser la relation précédente pour établir que le temps est figé dans le référentiel lié à la lumière, alors qu’il est impossible d’associer une horloge à la lumière.

230

LA PENSÉE EN PHYSIQUE

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

fusée et retrouve son frère sur Terre (Fig. 4). À l’aller, seul l’astronaute Albert, de coordonnée constante dans la fusée, peut considérer que la durée de l’aller est une durée propre ; cette dernière est donc plus faible que la durée de l’aller pour Gaspard. Au retour, Albert tire la même conclusion, puisqu’il a conservé la même position dans la seconde fusée. En tout, la durée du voyage aller-retour pour Albert a été ainsi plus faible que celle mesurée par Gaspard. Ce dernier a donc plus vieilli que son frère : Ti = γe T p > T p . Le paradoxe vient de l’erreur qui consiste à considérer que les statuts de Gaspard, qui ne fait rien, et d’Albert, qui change trois fois de référentiel, sont les mêmes. Pour des fusées suffisamment rapides, le rapport des durées pourrait être égal à 100 ; à son retour, Albert ne retrouverait probablement que la tombe de son frère ! La question que l’on se pose souvent concerne la nature précise du vieillissement, qui est différent pour les deux jumeaux, et donc celle de cette dilatation des durées. Est-ce une dilation véritable qui concerne tout l’organisme, avec son métabolisme, ou simplement une dilatation apparente d’un phénomène? La réalité de cette dilation fut confirmée expérimentalement, dès 1941, en étudiant le rayonnement cosmique et la durée de vie des muons qui le composent ; en 1963, une analyse quantitative suffisamment précise a conforté cette confirmation. Plus spectaculaire, en 1971, des horloges atomiques au césium ont été embarquées à bord d’avions de ligne. Après un tour du monde, à la même latitude et à la même altitude, on a comparé leurs indications à celles données par des horloges témoins laissées sur Terre. On trouva un retard de 275 ns pour les avions se déplaçant vers l’ouest, et un retard de 40 ns pour ceux se déplaçant vers l’est, cela en accord avec les prévisions de la relativité restreinte. La différence entre ces deux retards est due à la contribution de la rotation de la Terre. Enfin en 1976, au CERN (Centre Européen pour la Recherche Nucléaire), on a pu comparer, avec précision, la durée de vie propre τ p des muons, qui vaut 2,21 µs, à celle τ ≈ 63,8 µs des muons en mouvement, à la vitesse 0,9994 c, dans un accélérateur ; on satisfait à la dilatation des 231

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

durées, puisque γ = (1 − 0,99942)−1/2 ≈ 29, soit sensiblement le rapport des durées 63,8/2,21. Même si la réalisation de grandes vitesses pour des voyages interstellaires d’humains, donnant lieu à des ralentissements d’horloges significatifs, n’est pas envisageable pour le moment, cette prime accordée aux voyageurs les plus téméraires, qui vieillissent moins vite, est bien réelle. Dans le film de science-fiction La planète des singes, réalisé par John Schaffner en 1967, le rapport des durées entre le temps terrestre et le temps des cosmonautes était d’environ 2 000, ce qui impliquait une vitesse de la fusée de 0,999 999 875 × c ! Correction RR dans la radio-navigation par satellites L’objectif de la radio-navigation par satellites est de connaître avec précision la position d’un objet (navire, avion, automobile, piéton) dans l’espace, au voisinage de la Terre. Son fonctionnement est fondé sur la réception, par cet objet, muni d’un récepteur portatif, des signaux électromagnétiques émis par des satellites de la Terre en orbite circulaire (cf. Chapitre 6). Actuellement, le système Galileo dont s’est doté l’Europe, sous contrôle civil, contrairement à son homologue américain, est constitué d’une trentaine de satellites artificiels, de masse 700 kg, formant plusieurs groupes de quatre satellites, à une altitude de 23 222 km. Même incomplet, avec 27 satellites au lieu de 30, il est déjà connecté au GPS américain (Global Positionning System) conçu dans les années 1990. Les satellites d’un même groupe de Galileo se trouvent dans des plans inclinés de 56◦ par rapport à l’équateur, et font entre eux des angles de 60◦ ; leur vitesse est d’environ 3,7 km.s−1 d’où une durée de révolution de l’ordre de 14 h. La localisation d’un récepteur R s’obtient à partir des distances D1 et D2 , qui séparent ce dernier de deux satellites S1 et S2 ; D1 et D2 sont mesurés à partir des instants d’émission et de réception des signaux. En procédant de la même façon avec trois autres couples de satellites, on parvient à localiser R. Cette localisation exige que les 232

LA PENSÉE EN PHYSIQUE

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

instants d’émission par les satellites soient connus avec une excellente précision. En effet, une erreur maximale de 3 cm sur D1 ou D2 exige que les durées t1 ou t2 soient déterminées avec une précision meilleure que : 1t = 1D/c = 10−10 s soit 0,1 ns. Pour ces satellites orbitant à la vitesse de 3,67 km.s−1, la correction relativiste, associée à la dilatation des durées est de 5 ns, pendant la durée de l’ordre de 1 min nécessaire au traitement ; l’erreur de position que l’on commettrait en ignorant cette dilatation serait de 1,5 m 8 ! Cette correction est cependant six fois plus faible que celle liée à l’influence de l’altitude sur le fonctionnement des horloges (cf. Chapitre 14).

CONTRACTION DES LONGUEURS Pour mesurer la longueur d’une barre, on fait généralement coïncider ses extrémités A et B avec les graduations d’une règle, placée le long de la barre et évidemment fixe par rapport à elle. Sa longueur est alors donnée par simple lecture de la différence des coordonnées de ces graduations ; elle est dite propre et on la note L p . Pour l’observateur d’un autre référentiel galiléen R, qui est en mouvement par rapport au référentiel précédent R′ dans lequel la barre est fixe, le processus de mesure est le même : la longueur de la barre est obtenue en effectuant la différence des coordonnées des graduations, au même instant dans R. Cette précision n’était pas nécessaire dans R′ , car la barre y était fixe. La longueur mesurée dans R est alors dite impropre, et on la note L i . Pour établir la relation entre L i et L p , écrivons pour une barre, en mouvement de translation rectiligne uniforme, à la vitesse u = u ex par rapport à un observateur du référentiel R, la relation entre les coordonnées des évènements-coïncidences, dans R et dans R′ , lié 8. La nécessité de la prise en compte de cette correction relativiste, dans le GPS, ne fut pas immédiate, notamment auprès des responsables peu familiers avec la théorie de la relativité restreinte.

233

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

à la barre. Il vient, en utilisant la tranformation de Poincaré et en introduisant βe = u/c et γe : x 2′ − x 1′ = γe [(x 2 − x 1 ) − βe (t2 − t1 )] soit

L p = γe L i

puisque x 2′ − x 1′ = L p , t2 = t1 et x 2 − x 1 = L i . Ainsi, les longueurs d’une barre, mesurées dans le référentiel R′, où elle est immobile, et dans tout autre référentiel R, par rapport auquel R′ est en mouvement, à la vitesse u = u e x , sont différentes. Elles sont dans le rapport γe , la valeur la plus grande étant mesurée dans le référentiel où la barre est fixe. Ce résultat est connu sous le nom de contraction des longueurs. Ici aussi, il faut souligner que cette contraction des longueurs n’est pas subjective ; c’est un effet réel de perspective qui apparaît lorsqu’on mesure la distance qui sépare deux évènements dans un référentiel où ces derniers ne se produisent pas au même instant. À titre d’exemple, la vitesse u d’un observateur, pour laquelle la longueur de la barre qu’il mesurerait, tout en étant en mouvement, soit égale à un tiers de la longueur propre, serait 0,94 c. Il n’est peut-être pas inutile de préciser que les longueurs de deux règles identiques mesurées par deux observateurs Ob1 et Ob2 , respectivement fixes par rapport à chacune d’elles, sont égales, puisque ces observateurs comparent les longueurs propres de deux règles identiques. La contraction est constatée lorsque Ob1 mesure la longueur de la règle accompagnant Ob2 , ou lorsque Ob2 mesure la longueur de la règle fixe par rapport à Ob1 . En faisant γe = 1, on trouve évidemment le cas newtonien où la mesure de la longueur d’une barre ne dépend pas de son état de mouvement par rapport à l’observateur. Les coordonnées perpendiculaires à la direction de la vitesse u sont inchangées. Par conséquent, la longueur d’une barre qui se déplace perpendiculairement à sa direction n’est pas affectée par le mouvement. 234

LA PENSÉE EN PHYSIQUE

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

DYNAMIQUE ET ÉNERGÉTIQUE EINSTEINIENNES La loi fondamentale de la dynamique einsteinienne, qui permet notamment d’expliquer le résultat de l’expérience de Kaufmann avec des électrons, s’écrit de la même manière que la loi de Newton ; seule l’expression de la quantité de mouvement p diffère : 1p =F 1t

avec

p = γ mv

γ = (1 − v2 /c2 )−1/2 étant le facteur relativiste associé à la vitesse de la particule. Contrairement au facteur relativiste γe qui apparaît dans la transformation de Lorentz, entre deux référentiels galiléens R et R′ , avec une valeur constante, γ est défini à partir de la vitesse du corpuscule a priori variable en valeur et en direction. Les forces que nous aurons le plus souvent à considérer seront de nature électromagnétique, car, comme nous le verrons, la gravitation relève naturellement de la relativité générale (cf. Chapitre 14). Le sujet d’étude reste cependant très vaste, puisque les forces électromagnétiques entre particules élémentaires sont bien plus intenses que celles associées à la gravitation. En raison du facteur γ dans l’expression de p, la force n’est plus directement liée à l’accélération. Évidemment, la loi précédente restitue la loi de Newton lorsque les vitesses sont négligeables devant c, car alors p ≈ mv. Notons que, si la norme de la vitesse est constante, comme c’est le cas lorsque la force se réduit à celle exercée par un champ magnétique, le facteur relativiste γ ne varie pas. La loi fondamentale de la dynamique devient dans ce seul cas : F = γ m a ; les résultats obtenus sont alors ceux newtoniens, mais en remplaçant m par γ m. Dans sa première publication originale sur la relativité, Einstein introduisit, sans d’ailleurs leur attribuer une quelconque importance, les concepts de masse transversale γ m et de masse longitudinale γ 3 m. Mais, un peu avant lui, Poincaré avait déjà émis l’idée qu’en relativité la masse d’un corps devrait varier avec sa vitesse. Après analyse, 235

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

ces deux concepts de masse variable s’avèrent sans intérêt technique et même contestables sur le plan épistémologique. Aussi, les physiciens les ont-ils progressivement abandonnés. Einstein se rallia à cet abandon, comme le montre l’extrait original de la lettre qu’il a envoyée en 1948 à son ami Louis Barnett : Es ist nicht gut von der Masse M = m/(1 − v2 /c2 )−1/2 eines bewegten körpers zu sprechen, da für M keine klare Definition gegeben werden kann. Man beschränkt sich besser auf die « Ruhe-Masse » m. Daneben kann man ja den Ausdruck für momentum und Energie geben, wenn man das Trägheitsverhalten rasch bewegter Körper augeben will 9 . Extension du concept de vitesse La relation p = γ mv, entre la quantité de mouvement d’une particule, sa masse et sa vitesse, suggère d’introduire le concept relativiste de vitesse spatiale, d’expression γ v avec γ = (1−v2 /c2 )−1/2 . Comme la relativité restreinte s’exprime naturellement dans l’espace quadridimensionnel (ct, x, y, z), il est naturel d’associer à la composante ct une vitesse temporelle d’expression γ c et donc d’introduire une quadrivitesse 4−v, de composantes γ c, γ vx , γ v y , γ vz ; le carré de sa norme a pour expression : (4−v)2 = (γ c)2 − (γ vx )2 − (γ v y )2 − (γ vz )2 = γ 2 c2 − γ 2 v2 = c2 À une dimension spatiale, cette quadrivitesse se réduit à deux composantes, l’une temporelle γ c et l’autre spatiale γ v ; la relation précédente se réduit alors à γ 2 c2 − γ 2 v2 = c2 . 10 9. Il n’est pas bon de parler de masse M = m/(1 − v 2 /c2 )−1/2 d’un corps en mouvement, car M ne peut être défini de façon claire. Il vaut mieux ne parler que de « masse au repos » m. En revanche, on peut donner les expressions de la quantité de mouvement et de l’énergie pour représenter l’inertie d’un corps en mouvement très rapide. 10. Toujours dans la bande dessinée Quantix, une autre affirmation surprenante s’est glissée dans le scénario. Est introduit, à côté du concept de vitesse dans l’espace (γ v), celui de vitesse dans le temps γ c, mais avec l’affirmation erronée que la somme de ces vitesses vaut c, alors qu’en réalité c’est la différence des carrés de ces vitesses qui est égale au carré de c.

236

LA PENSÉE EN PHYSIQUE

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

Énergie de masse L’expression relativiste de l’énergie cinétique fut donnée pour la première fois par Einstein, en 1905, dans sa seconde publication sur la relativité restreinte, intitulée « L’inertie d’un corps dépend-elle de son contenu en énergie? ». Pour établir cette expression, il est plus simple d’utiliser, comme en mécanique newtonienne, la méthode consistant à multiplier scalairement les deux membres de l’équation vectorielle du mouvement par le déplacement v1t. On trouve dans ce cas : 1p · v 1t = 1(γ mc2 ). 1t On révèle la signification physique de la quantité γ mc2 , en la développant au voisinage de γ = 1 ; en effet :  −1/2 v2 mv2 γ mc = mc 1 − 2 ≈ mc2 + c 2 2

2

Comme (γ − 1)mc2 représente, lorsque la vitesse est négligeable devant c, l’énergie cinétique newtonienne, on écrit l’énergie totale d’une particule libre sous la forme :

E = Ek + E0 où Ek = (γ − 1)mc2 et E0 = mc2 sont respectivement l’énergie cinétique einsteinienne et l’énergie de masse, car associée à la seule masse m, indépendamment de tout mouvement 11. Comparée aux autres énergies, l’énergie de masse est considérable, puisqu’elle vaut, par unité de masse, 9 × 1016 J.kg−1 . Elle exprime une équivalence fondamentale entre masse et énergie et, en dernière analyse, une annexion par l’énergie du concept de masse, lequel, rappelons-le, fut introduit par Newton, bien avant celui d’énergie et donc indépendamment de lui. 11. Cette constante additive donne une signification claire au choix de l’origine de l’énergie ; en mécanique newtonienne, l’énergie était définie à une constante additive près (cf. Chapitre 5).

237

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

Ce qui précède montre que la formule E0 = mc2 provient d’une analyse approfondie des conséquences de la loi fondamentale de la dynamique einsteinienne, cette dernière généralisant la deuxième loi de Newton et s’inscrivant naturellement dans le nouveau cadre spatiotemporel de la relativité. On est ainsi loin d’une pensée hasardeuse, voire magique, telle que celle qui transparaît malicieusement dans une caricature connue, dans laquelle on représente Einstein pensif qui, après avoir écrit, sur un tableau noir, successivement E = ma 2 et E = mb2 , s’apprête à trouver enfin E = mc2 ! Théorème de l’énergie Pour une particule, le théorème de l’énergie s’écrit en relativité comme en mécanique de Newton, à condition de prendre en compte l’énergie de masse E0 . Entre deux dates quelconques, on a la relation : 1(Ek + E0 ) = W , dans laquelle W désigne le travail de toutes les forces qui s’exercent sur la particule. Si l’on distingue les forces qui dérivent d’une énergie potentielle E p des autres dont le travail est W (nc) (cf. Chapitre 5), on obtient : 1(Ek + mc2 + E p ) = W (nc) . Lorsque, comme c’est souvent le cas en relativité, W (nc) = 0, l’équation traduit la conservation de l’énergie : Ek + E p + E0 = Cte. Soulignons que E = Ek + E0 est l’énergie de la particule libre, en dehors de son énergie potentielle, alors que γ mc2 + E p est son énergie totale. Ainsi, l’énergie d’un électron (charge −e et masse m e ), issu, sans vitesse, du canon d’un microscope électronique, porté au potentiel électrique −V , est m e c2 + eV , puisque l’énergie potentielle électrique est le produit de la charge (−e) par le potentiel (−V ). À la sortie du canon, où son énergie potentielle est nulle, l’énergie totale vaut γ mc2 . La conservation de l’énergie permet d’en déduire γ = 1+eV /(m e c2 ), et donc sa vitesse selon v/c = (1 − 1/γ 2 )1/2 . Concrètement, pour eV = m e c2 , γ = 2 et v/c ≈ 0,866. 238

LA PENSÉE EN PHYSIQUE

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

Relation entre quantité de mouvement et énergie La relation entre la quantité de mouvement p et l’énergie totale E d’une particule libre peut être établie en éliminant la vitesse entre les expressions de la quantité de mouvement et de l’énergie : p = γ mv =

m m v et E = γ mc2 = c2 2 2 1/2 (1 − v /c ) (1 − v2 /c2 )1/2

Il suffit pour cela de constater que : E 2 − p 2 c2 = m 2 c4 . Une telle relation peut être aisément mémorisée en considérant le triangle rectangle dont l’hypoténuse est E , et les autres côtés pc et mc2 . L’exploitation technique de cette relation est grandement facilitée si l’on exprime les énergies en MeV, les quantités de mouvement en MeV.c−1 et les masses en MeV.c−2 . Par exemple, on dira, pour un proton de masse m p = 0,938 GeV.c−2 et de quantité de mouvement p = 1 GeV.c−1 , que son énergie vaut E = 1,371 GeV. La relation précédente entre p et E s’écrit aussi, pc = (E 2 − m 2 c4 )1/2 , ce qui conduit à penser que la quantité de mouvement n’aurait de sens que dans les deux cas suivants : E ≥ mc2 et E ≤ −mc2 . Cette dernière possibilité a été à l’origine de « l’invention » des antiparticules par le physicien anglais Paul Dirac en 1930 ; les positrons ont été découverts deux ans plus tard, en 1932, par l’Américain Carl Anderson. Particule de masse nulle La relation entre l’énergie E d’une particule libre et sa quantité de mouvement p garde un sens même pour m = 0, puisque le facteur γ devient alors infini. Dans ce cas, elle se réduit à E = pc. Il en est ainsi pour les photons, particules associées aux ondes électromagnétiques. Cette prévision théorique a été expérimentalement confirmée par l’effet photo-électrique et l’effet Compton (cf. Chapitre 15). Selon l’interprétation de l’effet photo-électrique par Einstein, une particule de lumière, appelée photon à partir de 1926, d’énergie hν proportionnelle à la fréquence ν du rayonnement 239

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

électromagnétique, arrache un électron d’un atome dans un métal. En 1923, l’Américain Albert Compton attribua au photon la quantité de mouvement hν/c pour décrire et interpréter l’interaction de la lumière et d’un électron libre du graphite. Pour des photons associés à une onde monochromatique, de longueur d’onde λ, E = hν = hc/λ soit E ( eV) = hc/(eλ) ≈ 1 239,8/λ( nm). Par exemple, l’énergie et la quantité de mouvement des photons issus d’un laser hélium-néon, de longueur d’onde λ = 632,8 nm, valent respectivement E = 1,96 eV et p = 1,96 eV.c−1. Particule chargée dans un champ électromagnétique La relation précédente entre énergie et quantité de mouvement d’une particule n’est valable que si cette dernière est libre. Ce n’est plus le cas si elle a une charge électrique q et qu’elle est plongée dans un potentiel électromagnétique (potentiel électrique V et potentiel magnétique A). En effet, sa quantité de mouvement totale, ou impulsion, et son énergie totale s’écrivent alors, respectivement : pt = γ mv + q A et Et = γ mc2 + qV. Par exemple, pour un électron, d’énergie totale Et = 2 MeV, à la sortie d’une anode portée au potentiel V = 0,5 MeV qui lui confère une énergie potentielle E p = −0,5 MeV, on a : Et + eV

2

− p2 c2 = m 2e c4 d’où pc = [ Et + eV

2

− m 2e c4

1/2

≈ 2,45 MeV

et p ≈ 2,45 MeV.c−1 .

SYSTÈME DE PARTICULES Comme en mécanique newtonienne, la quantité de mouvement d’un système de particules est la somme des quantités de mouvement de chacune des particules ; c’est donc une grandeur additive, en 240

LA PENSÉE EN PHYSIQUE

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

l’absence d’interaction électromagnétique : P=

X

pi

avec

 −1/2 vi2 et γi = 1 − 2 . c

p i = γi m i v i

i

L’énergie E d’un système de particules est, elle, la somme de l’énergie de chacune des particules augmentée de leur énergie d’interaction ; ce n’est donc pas une grandeur additive :

E=

X

Ei + E p,in

avec

Ei = γi m i c

2

avec

i

γi =



v2 1 − i2 c

−1/2

On en déduit la masse M de ce système selon : Mc2 = E 2 − P 2 c2

1/2

où E et P sont respectivement l’énergie et la quantité de mouvement du système libre. On voit que M est aussi une grandeur invariante (par changement de référentiel galiléen) et constante (au cours du temps). En revanche, ce n’est pas une grandeur additive : la masse d’un système matériel n’est pas, en général, la somme des masses des particules qui le constituent : X M 6= mi . i

Par exemple, dans l’atome d’hydrogène au repos, constitué d’un proton et d’un électron dans son état fondamental, la somme des énergies cinétique et potentielle du système vaut E H ≈ −13,6 eV (cf. Chapitre 16), alors que les énergies de masse valent respectivement m p c2 ≈ 938 MeV et m e c2 ≈ 0,511 MeV. Comme la quantité de mouvement de l’atome est nulle, il vient : M=

E m p + me + EH = 6= m p + m e . 2 c c2

La différence M − (m p + m e ) vaut précisément −13,6 eV.c−2. 241

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

COLLISIONS DE PARTICULES RAPIDES L’étude des collisions en relativité constitue le prolongement naturel et indispensable de ce qui est bien connu en mécanique newtonienne, puisque les valeurs des vitesses considérées sont, le plus souvent, proches de c. Comme en mécanique newtonienne, on dit que deux particules entrent en collision lorsque, du fait de leur interaction, elles subissent des variations brutales de vitesse dans une zone quasi ponctuelle de l’espace. Cette définition exprime soit notre incapacité à analyser la complexité de ce qui se passe dans la zone d’interaction, soit une attitude délibérée qui consiste à ne s’intéresser qu’aux états initial et final du système des deux particules. Ce manque d’information concernant la nature exacte de l’interaction se traduit nécessairement par une indétermination. En revanche, il conduit à établir des relations très générales puisque’indépendantes de l’interaction. Dans beaucoup de problèmes concrets, les informations que nous tirons d’une analyse générale s’avèrent très instructives. Lois de conservation La conservation de la quantité de mouvement totale, au cours d’une collision entre particules, est une généralisation de celle, connue en mécanique newtonienne, relative à un système isolé (pas de forces extérieures) ou pseudo-isolé (somme des forces extérieures nulle) : P av = P ap , soit : X X pi = p f avec pi = γi m i v i et p f = γ f m f v f , i

f

l’indice i désignant les particules initiales et l’indice f les particules finales. Cette loi est indépendante de la nature précise de la collision. La conservation de l’énergie totale est aussi une généralisation de celle, connue en mécanique newtonienne, relative à un système isolé ou pseudo-isolé dont les forces intérieures dérivent d’une énergie 242

LA PENSÉE EN PHYSIQUE

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

potentielle : Eav = Eap , soit, en explicitant les différentes énergies : X

Ek,i + E0,i + E p,av =

i

X

Ek, f + E0, f + E p,ap .

f

Comme la collision est un phénomène localisé, l’énergie potentielle se conserve : E p,av = E p,ap . Aussi, l’équation de conservation de l’énergie se réduit-elle à : X X Ek,i + m i c2 = Ek, f + m f c2 i

f

avec Ek,i = (γi − 1)m i c2 et Ek, f = (γ f − 1)m f c2 . Collisions élastiques et inélastiques Une collisions entre particules est dite élastique lorsque le nombre et la nature des particules sont inchangés, ce qui permet de la représenter par la réaction : A1 + A2 → A′1 + A′2 Comme la somme des énergies de masse ne varie pas au cours P P ′ 2 d’une collision élastique ( i m i c2 = i m i c ), la conservation de l’énergie se réduit à celle de l’énergie cinétique de l’ensemble, l’énergie potentielle ne changeant pas car la collision est spatialement localisée : X X ′ Ek,i = Ek,i . i

i

Cependant, en raison de la relation E 2 − p 2 c2 = m 2 c4 qui relie la quantité de mouvement p = γ mv à l’énergie E = γ mc2 d’une particule, il est généralement plus commode d’écrire, en relativité, dans le cas de collisions élastiques, la conservation de la somme des énergies cinétiques, en y incluant les énergies de masse des particules. Ainsi, dans la collision élastique entre un électron et un atome, e− + A → e− + A, ni le nombre de particules en interaction ni leur nature ne sont modifiés ; seules leur quantité de mouvement et leur 243

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

énergie cinétique ont changé ; précisément, l’électron incident a pu céder une partie de son énergie cinétique à l’atome, comme dans le jeu de pétanque où la boule projectile perd une partie ou la totalité de son énergie cinétique au profit de la boule cible. Les collisions sont inélastiques si le nombre ou la nature des particules sont modifiés après collision. Aussi les représente-t-on généralement par la réaction : A1 + A2 → A3 + A4 + A5 + · · · Dans une collision inélastique, la conservation de l’énergie : X X X X Ek,i + m i c2 = Ek, f + m f c2 , i

i

f

f

conduit à l’équation : X X X X Ek, f − Ek,i = m i c2 − m f c2 . f

i

i

f

La variation de l’énergie cinétique est donc directement reliée à la variation de la somme des masses des particules qui constituent le système. Cette transformation de l’énergie cinétique en masse et vice-versa exprime l’équivalence masse-énergie. Il est alors commode d’introduire le défaut de la somme des masses des particules, historiquement appelé défaut de masse : X X µ= mi − mf. i

f

Établissons, pour une collision inélastique, dans laquelle la cible est au repos, la relation entre la masse M du système des deux particules en interaction et la somme des masses des particules incidentes. D’après la définition de la masse, il vient : M 2 c4 = E 2 − P 2 c2 = (E1 + m 2 c2 )2 − p12 c2

244

LA PENSÉE EN PHYSIQUE

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

puisque E2 = m 2 c2 et p2 = 0. Par conséquent : M 2 c4 = m 21 c4 + m 22 c4 + 2E1 m 2 c2 = (m 1 + m 2 )2 c4 + 2(E1 − m 1 c2 )m 2 c2 . On retrouve bien la non-additivité des masses en relativité. Les collisions inélastiques sont répertoriées différemment suivant la nature des particules incidentes et émergentes. Comme le nombre ou la nature des particules changent, il est intéressant de prendre en compte les lois de conservation supplémentaires auxquelles elles doivent satisfaire en dehors de la conservation de la quantité de mouvement et de celle de l’énergie : la conservation de la charge électrique Q, la conservation du nombre B de baryons 12 , la conservation du nombre L de leptons. On déduit les valeurs de Q et B pour les antiparticules en changeant les signes de Q et de B des particules correspondantes. La transformation réciproque de masse en énergie est plus ou moins importante selon la nature des collisions inélastiques. Dans la chimie atomique ou moléculaire, son influence est négligeable, alors que son rôle est essentiel dans les réactions nucléaires. La réaction suivante est une réaction importante de fission d’un noyau lourd, le noyau de l’uranium 235 : 235 92 U + n



95 39 Y

+138 53 I + 3n.

Parmi les produits de réaction, I désigne l’iode et Y l’yttrium. Dans cette réaction, le défaut de la somme des énergies de masse vaut µc2 = 240 MeV, d’où l’énergie libérée par mole de noyaux d’uranium (≈ 240 g): Q m = µc2 × N A ≈ 2 × 1013 J. 12. Le nombre baryonique des protons et des neutrons vaut 1, alors que pour les leptons, qui sont des particules légères (électrons, muons, etc.), il est nul.

245

POINCARÉ ET EINSTEIN : EXTENSION DE LA RELATIVITÉ GALILÉENNE

Comparé à l’énergie 4×105 J fournie par la combustion d’une mole de dioxyde de carbone (CO2 ), soit 12 g de carbone et 32 g d’oxygène, ce résultat est énorme. La fission de noyaux d’uranium 235 est à la base du fonctionnement des centrales nucléaires : l’énergie cinétique des neutrons est récupérée pour produire de la vapeur d’eau, laquelle fait tourner une turbine qui produit de l’électricité par induction électromagnétique. La forme guerrière d’une centrale nucléaire est la bombe A, improprement adjectivée d’atomique au lieu de nucléaire. Dans une réaction de fusion typique, par exemple l’interaction d’un deutéron d (noyau de deutérium 21 H+ ) et d’un triton t (noyau de tritium 31 H+ ) donnant un hélion α (noyau d’hélium 42 He2+ ) et un neutron : d + t → α + n, le défaut de la somme des énergies de masse vaut : µc2 = m d c2 + m t c2 − m α c2 − m n c2 ≈ 17,6 MeV, ce qui représente la fraction 3,8 × 10−3 de la somme des énergies de masse des réactifs. On en déduit l’énergie libérée par mole de réactifs (deutéron et triton), c’est-à-dire pour 5 g de matière : Q m = µc2 × N A ≈ 1,7 × 1012 J. Compte tenu de la masse molaire, ce résultat est du même ordre de grandeur que celui obtenu dans la fission. La fusion est à la base du fonctionnement de la bombe H (à hydrogène). La bombe à neutrons ou bombe N, conçue en 1979, n’est qu’une bombe H de faible puissance ; dans ce cas, les effets mécaniques destructeurs sont plus faibles que les effets d’irradiation qui déciment l’ennemi, d’où son intérêt guerrier. Ajoutons enfin que la fusion de noyaux légers permet d’expliquer pacifiquement la température élevée du cœur des étoiles et par conséquent leur rayonnement électromagnétique, si utile à la vie dans le cas du Soleil.

246

LA PENSÉE EN PHYSIQUE

14 Einstein et Hubble : la relativité générale

Concernant la théorie de la relativité générale élaborée par Einstein en 1915, il est tentant de paraphraser Valéry, lorsqu’il parlait de la contribution de Newton en mécanique (cf. Chapitre 6) : « Il fallait être Einstein pour s’apercevoir que la gravitation n’était pas une force, alors que tout le monde sentait bien que c’en était une ». La réflexion d’Einstein, à l’origine de la relativité générale (RG), a été initiée par deux questions simples : i) D’où vient le caractère privilégié des référentiels galiléens? ii) Pourquoi les corps tombent-ils de la même façon, dans le vide, à la surface de la Terre ? En d’autres termes, pourquoi la masse inerte d’un corps est-elle égale à sa masse grave, alors qu’elle ne présente aucun rapport avec sa charge électrique?

SINGULARITÉ DE LA FORCE DE GRAVITATION L’égalité entre la masse inerte d’un corps et sa masse grave, ce que l’on établit expérimentalement (cf. Chapitre 2), confère à la force 247

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

de gravitation un rôle singulier qui la rapproche des forces d’inertie, car ces dernières sont, elles aussi, proportionnelles à la masse inerte (cf. Chapitre 4). Il en résulte l’interrogation suivante : la force de gravitation n’aurait-elle pas, comme les forces d’inertie, la propriété de disparaître par un bon choix de référentiel? Équivalence locale Dans un référentiel galiléen R, une masselotte A tombe en chute libre, c’est-à-dire qu’elle est soumise à la seule action du champ de gravitation G (Fig. 1a). Son mouvement, étudié par un observateur de R, est caractérisé par une accélération égale à G (cf. Chapitre 2), puisque la loi de Newton donne (cf. Chapitre 3) : m a = m ⋆ G , soit a = G , si on admet en simplifiant, l’égalité des deux masses m = m ⋆ . Un observateur d’un référentiel R′ , en translation accélérée par rapport à R, avec une accélération d’entraînement ae égale à −G , et dans lequel le champ de gravitation serait nul, observerait le même mouvement de A, abandonné sans vitesse initiale par rapport à R′ (Fig. 1b). En effet, la loi de Newton appliquée à A, par rapport à R′ non galiléen, fait apparaître une seule force, la force d’inertie

Figure 1

248

Équivalence locale entre un champ de gravitation et un champ d’accélération.

LA PENSÉE EN PHYSIQUE

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

d’entraînement, ce qui donne : m a = −m ae = m G , d’où a = G . Ainsi, en raison de l’égalité des masses grave et inerte, on peut remplacer la force de gravitation par une force d’inertie d’entraînement ; on en déduit l’équivalence d’un champ d’accélération et d’un champ de gravitation. Cette compensation, exacte dans le cas particulier considéré, ne l’est pas dans le cas général, puisque les comportements à grande distance du champ de gravitation et d’un champ d’accélération sont différents : le premier s’évanouit à grande distance, contrairement au second. Aussi énonce-t-on un principe d’équivalence sous la forme suivante : Aucune expérience de physique ne peut révéler localement de différence fondamentale entre un champ d’accélération et un champ de gravitation. Dans le voisinage de la surface terrestre, le champ de gravitation G doit être remplacé par le champ de pesanteur g, lequel est une combinaison de G et de l’accélération d’entraînement terrestre, mais g ≈ G avec une très bonne approximation (cf. Chapitre 4). Référentiels inertiels En dynamique newtonienne, comme en dynamique einsteinienne, ce qui distingue les référentiels galiléens de ceux qui ne le sont pas, ce sont les forces d’inertie. Comme ces dernières présentent avec la force de gravitation la propriété d’être proportionnelles à la masse, il a paru naturel à Einstein de chercher les raisons du caractère privilégié des référentiels galiléens dans l’analyse de la formulation newtonienne habituelle de l’interaction gravitationnelle. Rappelons que, pour expliquer le mouvement des planètes autour du Soleil, Newton admit que celles-ci étaient soumises, dans le référentiel galiléen lié au système solaire, à la force de gravitation exercée par le Soleil. Les résultats obtenus furent remarquables au point de permettre l’invention de la planète Neptune par Le Verrier, avant sa découverte en 1846 par Galles (cf. Chapitre 6). Einstein songea à une nouvelle interprétation du mouvement des planètes fondée sur l’introduction de référentiels plus adaptés 249

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

à l’analyse du mouvement d’un corps dans un champ de gravitation. Précisément, pour étudier la chute libre d’un corps, dans un champ de gravitation, le référentiel qu’il convient de considérer n’est pas le référentiel terrestre R, mais celui R′ qui tombe avec le corps, c’està-dire celui qui a un mouvement de translation, d’accélération G par rapport à R. Dans R′ , le mouvement du corps en chute satisfait au principe de l’inertie ; en effet, si on applique la loi fondamentale de Newton à un corpuscule A dans R′ , on obtient, en tenant compte de la force d’inertie d’entraînement −mae et d’une force occasionnelle F oc : ma A/R′ = m ⋆ G − mae + F oc = F oc puisque G = ae et m ⋆ = m. Aussi, le référentiel R′ , dans lequel le principe de l’inertie peut être réalisé, est-il qualifié d’inertiel. De même, le référentiel R′ à adopter pour étudier le mouvement d’un corpuscule, dans le champ de gravitation produit par la Terre, à grande distance du sol, est celui défini par une cabine spatiale soumise pratiquement au même champ de gravitation que le corpuscule. La cabine forme alors un référentiel inertiel (cf. Chapitre 4). Formulées dans les référentiels inertiels, pour lesquels la force de gravitation est compensée par la force d’inertie d’entraînement, les lois de la physique gardent une même forme par changement quelconque de référentiel. Choisir un référentiel inertiel plutôt qu’un référentiel galiléen revient à compenser la gravitation par des forces d’inertie, et donc à prendre en compte la gravitation, non pas sous la forme d’une force d’interaction, mais sous celle d’une modification de la structure de l’espace-temps de la relativité restreinte (cf. Chapitre 13). Il n’y a pas de référentiel privilégié, en dehors des référentiels dits en chute libre, dans lesquels le principe de l’inertie est réalisé. Bien que ces référentiels changent d’un point à l’autre, Einstein put établir que les lois de la physique pouvaient localement être écrites sous une forme universelle.

250

LA PENSÉE EN PHYSIQUE

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

PRINCIPE DE RELATIVITÉ GÉNÉRALE La réflexion précédente d’Einstein l’a conduit à généraliser le principe de relativité restreinte (RR), sous la forme suivante : Les lois de la physique doivent être valables par rapport à des systèmes de coordonnées en mouvement quelconque les uns par rapport aux autres. Cette validité des lois de la physique dans tout système de référence ne signifie pas, comme en RR, une écriture identique, mais seulement une forme universelle qui légitime tous les systèmes de référence, et exclut tout privilège accordé à une famille d’entre eux. C’est la raison pour laquelle on a pu dire que la relativité constituait un exemple de démocratie en physique : Newton introduit un référentiel absolu, sans fondement autre que théologique, auquel Galilée puis Einstein, avec l’extension à toutes les lois de la physique, substituèrent une famille de référentiels privilégiés dits galiléens ; enfin Einstein, avec la RG, considéra que tous les systèmes de coordonnées étaient équivalents. Comme en RR, on peut dire, ici aussi, que le nom de relativité générale incite au contresens, car il s’agit en fait, pour Einstein, de proposer une nouvelle théorie universelle de la gravitation, en relation avec la structure de l’espace-temps. Courbure de l’espace-temps Nous sommes ainsi conduits à étudier le mouvement des corps dans des systèmes de référence dans lesquels la gravitation est prise en compte sous la forme d’une modification des facteurs qui caractérisent la métrique spatio-temporelle. En RR, où la gravitation est ignorée, le carré de l’intervalle entre deux évènements E 1 et E 2 , grandeur spatiotemporelle invariante par changement de référentiel galiléen, s’écrit (cf. Chapitre 13) : 1s 2 = c2 1t 2 − 1x 2 − 1y 2 − 1z 2 , les facteurs des différents termes carrés valant 1 pour le premier et −1 pour les trois autres ; l’espace-temps est alors qualifié de plat. En RG, la gravitation n’est plus considérée comme une interaction, mais comme la cause d’une courbure de l’espace-temps, ce qui se traduit par l’apparition de facteurs gi j de la métrique différents de ±1. Par exemple, dans le cas 251

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

d’une symétrie sphérique, dite de Schwarzschild, du nom de l’astrophysicien allemand Karl Schwarzschild, la métrique s’écrit, dans le cas où seules la variable temps et la coordonnée radiale r interviennent :  rS  2 2  r S −1 1s 2 = 1 − c 1t − 1 − 1r 2 , r r r étant la coordonnée radiale de position et r S = 2G M/c2 le rayon dit de Schwarzschild, associé à la masse responsable de la courbure de l’espace-temps. Trajectoire dans l’espace-temps Une image simpliste mais efficace permet d’illustrer le point de vue de la RG comparé à celui de la RR. Dans ce dernier cadre, le mouvement de révolution de la Terre autour du Soleil peut être représenté par celui de son centre de masse T orbitant autour du centre de masse S du Soleil, sous l’action de la force de gravitation (Fig. 2a). En RG, la grosse masse S modifie l’espace-temps en courbant sa partie spatiale de telle sorte que cette dernière prenne la forme d’une cuvette, comme le ferait une nappe en caoutchouc souple au milieu de laquelle on aurait placé une grosse masse ; le centre T de la planète, soumise uniquement à la gravitation, a alors un mouvement circulaire autour de S (Fig. 2b), l’axe de la cuvette étant celui de la variable temps ; le point figuratif de l’espace-temps décrit une spirale circulaire.

Figure 2 Trajectoire spatiale circulaire du centre T de la Terre : a) Point de vue de la mécanique newtonienne. b) Point de vue de la mécanique einsteinienne.

252

LA PENSÉE EN PHYSIQUE

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

Dans l’espace-temps modifié par une grosse masse, la trajectoire d’une particule est celle qui réalise une valeur extrémale, généralement minimale, de l’intervalle entre deux points de l’espace-temps. On dit que la trajectoire de la particule est une géodésique de l’espace-temps. Lorsque l’intervalle est nul, la trajectoire est celle d’une particule de masse nulle, par exemple un photon. Une telle trajectoire, influencée par la présence de la grosse masse qui détermine l’espace-temps, n’est donc pas rectiligne. Ainsi, contrairement à ce que laisse supposer l’expression newtonienne de la force de gravitation, la relativité générale prévoit une influence de la gravitation sur des particules de masse nulle. Précisément, entre une masse M au point S et un photon P d’énergie Eγ = hν, la RG restitue une force équivalente de la forme : F S→P = −G (Eγ /c2 )M/r 2 er

avec

r = S P et er = S P/r .

Notons que la masse m du corpuscule dont on cherche le mouvement, dans l’environnement comportant l’autre masse M, participe elle-même à la définition de l’espace-temps. Cette contribution ne joue pas de rôle significatif dans l’hypothèse où m est négligeable devant M ; seule cette dernière est alors déterminante dans la définition de la métrique de l’espace-temps. Certains astrophysiciens audacieux n’ont pas hésité à proposer de modifier l’espace-temps par de la matière, dans le but de réaliser des voyages intersidéraux sur des distances de plusieurs milliers d’années-lumière. En dehors de problèmes techniques difficilement surmontables, ce type de modification semble être en contradiction avec le principe de causalité, admis en physique, selon lequel l’effet doit nécessairement suivre la cause qui le produit. Formulation locale des lois du mouvement Dans la formulation locale invariante d’Einstein en RG, les lois du mouvement d’un corps dans l’espace-temps se présentent sous la forme d’une équation de proportionnalité entre deux grandeurs physiques ; la première, notée G i j , de nature géométrique, homogène à 253

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

l’inverse d’une surface, est associée à la courbure de l’espace-temps produite par la matière ; la seconde E i j , homogène à une énergie volumique, concerne l’énergie et la quantité de mouvement d’un corps. Depuis 1990, la relation simple précédente est légèrement modifiée par l’adjonction d’une constante cosmologique 3, qui permet de rendre compte de l’accélération de l’expansion de l’Univers : G i j − 3 gi j = κ E i j



κ=

8π G c4

est un coefficient, défini par la constante d’Einstein c et la constante de Newton G, qui a les dimensions de l’inverse d’une force et vaut environ 2 × 10−43 N−1 . Quant à 3, homogène à l’inverse d’une surface, sa valeur admise actuellement est d’environ 10−52 m−2 . La quantité 3/κ a, elle, les dimensions d’une énergie volumique, tout comme les différents termes Ei j 1. Déjà en 1917, Einstein avait introduit une constante cosmologique dans le but d’imposer un modèle d’Univers stationnaire, ce qui s’avéra finalement sans intérêt, au point de confesser que ce fut la plus grande erreur de sa vie scientifique. Il était probablement loin de se douter que les astrophysiciens la réintroduiraient soixante-dix ans plus tard, surtout dans le cadre d’un Univers en évolution, pour expliquer l’expansion de ce dernier !

PROBLÈME DE KEPLER EN RG Cette étude présente un intérêt multiple. D’abord, elle est un exemple d’illustration du point de vue de la RG. Ensuite, appliquée à la planète Mercure, elle permet d’interpréter l’avance du périhélie de cette planète (cf. Chapitre 6). Enfin, dans le cas des des photons 1. Dans son travail original, Einstein introduisit, non pas 8π G/c4 , mais 8π G/c2 , qui est voisin de 2 × 10−26 m.kg−1 , car la quantité E i j qu’il utilisait était déjà divisée par c2 . 254

LA PENSÉE EN PHYSIQUE

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

(m = 0), elle permet de prédire la valeur de la déviation par le Soleil d’un rayon lumineux provenant d’une étoile éloignée. À la fin du xixe siècle, on tenta d’expliquer l’avance du périhélie de Mercure par la présence d’une planète située entre le Soleil et Mercure ; on donna même le nom de Vulcain à cette planète hypothétique. Cette méthode, qui s’avéra fructueuse pour découvrir Neptune (cf. Chapitre 6), se solda dans ce cas par un échec. Mouvement d’une planète autour du Soleil Menée comme en mécanique newtonienne, l’analyse conduit à une très légère différence qui permet d’expliquer une avance angulaire du périhélie de la planète, d’expression δ ≈ 3π(r S /a)/(1 − e2 ), e étant l’excentricité de l’ellipse, a son demi-grand axe et r S = 2G M⊙ /c2 le rayon de Schwarzschild du Soleil. Cet effet est maximal pour la planète Mercure, la plus proche du Soleil, pour laquelle e = 0,206 et a = 57,9 × 109 m. Comme r S = 2,94 × 103 m, on trouve δ = 0,502 × 10−6 rad, soit δ = 0,1036 as en seconde d’arc (1 as = 4,85 µrad). La période de révolution du Mercure étant de 87,8 jours, on en déduit une avance de son périhélie de 43 as environ par siècle. Sur la figure 3, les points M1 et M2 représentent deux positions M1 et M2 de la planète Mercure. L’avance prévue par la théorie newtonienne, en tenant compte des perturbations dues aux autres planètes, est de 532 as par siècle, alors

Figure 3

Avance du périhélie de Mercure. 255

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

que celle mesurée est de 574 as, soit une avance supplémentaire de 43 as. Ce fut le premier succès de la RG. Les valeurs mesurées de ces avances, pour Vénus et la Terre, sont aussi en excellent accord avec celles calculées, qui sont respectivement 8,6 as et 3,8 as.

DÉCALAGE SPECTRAL D’ORIGINE GRAVITATIONNELLE Lorsqu’une onde électromagnétique monochromatique se propage dans la direction d’un champ de gravitation, on constate que sa fréquence ν change, et que le décalage spectral qui en résulte est directement relié à la différence de potentiel de gravitation. Relation entre les fréquences de l’émetteur et du récepteur Pour établir ce résultat, considérons une source lumineuse S, qui émet une onde lumineuse monochromatique de fréquence νs , selon la direction d’un champ de gravitation G , uniforme, produit par une certaine distribution de masse, dans un référentiel galiléen R. Un récepteur R, placé à une distance H de S, la reçoit avec une fréquence νr (Fig. 4a). D’après le principe d’équivalence, le problème est

Figure 4 Interprétation du décalage spectral d’origine gravitationnel : a) Dans R, avec G 6= 0. b) Dans R′ , avec G = 0 et a e = −G.

256

LA PENSÉE EN PHYSIQUE

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

analogue à celui posé dans un référentiel R′, d’accélération égale à −G par rapport à R (Fig. 4b). Adoptons comme origine des temps l’instant d’émission de la lumière par S. À cet instant, la vitesse de S par rapport à R est nulle. Au bout de la durée τ nécessaire à la lumière pour atteindre le récepteur, cette vitesse par rapport à R, qui est aussi celle de S, vaut selon l’axe descendant G H/c, puisque la durée parcourue par R, pendant la propagation du signal électromagnétique depuis S jusqu’à R, est H/c. Le signal émis est donc reçu par R à l’instant τ = H/c lorsque la vitesse de rapprochement de R par rapport à S est vr = G H/c. Cet écart entre la fréquence d’une onde émise par une source et celle de la même onde reçue par un récepteur en mouvement est connu en acoustique sous le nom d’effet Doppler-Fizeau, du nom du physicien autrichien Christian Doppler qui l’a découvert en 1853, et du Français Fizeau qui l’a précisé dans le cas de l’optique. L’écart relatif de fréquence est donné par l’expression suivante, dans le cas des faibles vitesses devant c : νr − νs vr GH = = 2 νs c c

soit

νr − νs 8s − 8r = νs c2

en fonction du potentiel de gravitation 8, puisque G H est la différence de potentiel gravitationnel entre la source et le récepteur. On en déduit que la marche d’une horloge, qui est définie par le nombre de périodes (inverse de la fréquence) contenues dans la durée à mesurer, dépend de la différence de potentiel de gravitation entre S et R. Chute libre d’un photon La relation précédente entre les fréquences νs et νr est mise parfois sous la forme d’une conservation de l’énergie, au cours de la chute libre, d’un photon, doté d’une masse « en vol » hνs /c2 , comme on le ferait pour un objet newtonien : hνr = hνs +

hνs G H. c2 257

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

Ce résultat fut confirmé expérimentalement sur Terre en 1959, par les physiciens américains Robert Pound et Glen Rebka. Ils constatèrent que des photons γ , d’énergie 14,4 keV, émis selon la verticale descendante, par une source radioactive de noyau de fer 57, placée à une hauteur H = 22,6 m au-dessus du sol, étaient détectés au sol avec une fréquence et donc une énergie légèrement supérieures conformément aux prévisions théoriques 2 .

Figure 5

Schéma de l’expérience de Pound et Rebka.

Si le champ de gravitation est créé par une distribution de masse, à symétrie sphérique, de rayon R, il vient, en désignant par M la masse de cette distribution : (νr − νs )/νs = −(8r − 8s )/c2 , soit, puisque 8 = −G M/r :   νr − νs GM 1 1 = 2 − . νs c R R+H Comme H ≪ R, (νr − νs )/νs ≈ G H/c2 , G = G M/R 2 étant le champ gravitationnel. Ainsi, lorsque le déplacement du photon est 2. La radioactivité, découverte en 1896 par le Français Henri Becquerel, est l’émission spontanée et aléatoire d’un rayonnement électromagnétique ou particulaire, par des noyaux atomiques, en raison de l’instabilité constitutive de ces derniers ; ce n’est pas un phénomène sans cause, comme certains auteurs ont pu curieusement l’affirmer.

258

LA PENSÉE EN PHYSIQUE

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

orienté dans le sens du champ, comme dans l’expérience de Pound et Rebka, le décalage spectral est vers le bleu. C’est le contraire si on observe le rayonnement électromagnétique émis par une source stellaire, car dans ce cas l’émission s’effectue dans le sens opposé à celui du champ de gravitation qu’elle crée. On a, dans ce cas : 1ν/ν = −G D/c2 , où D est la distance qui nous sépare de l’étoile. Il en résulte un décalage spectral vers le rouge (red-shift en anglais), d’expression suivante, en termes de longueur d’onde : 1λ/λ = G D/c2 . Il fut observé, pour la première fois en 1927, en analysant les raies émises par des jets de plasma provenant du Soleil. Correction RG dans la radio-navigation par satellites L’influence du potentiel gravitationnel 8 sur la marche des horloges joue un rôle non négligeable dans les systèmes de radionavigation par satellite, essentiels pour l’atterrissage des avions et le guidage des bateaux, tels que le système Galileo (cf. Chapitre 13). En effet, on a, en désignant par H l’altitude des satellites au-dessus de la Terre (masse M⊕ et rayon R⊕ ), et en introduisant les périodes Ts = 1/νs et Tr = 1/νr :   Tr − Ts 8r − 8s G M⊕ 1 1 = = − − , Tr c2 c2 R⊕ R⊕ + H ce qui donne, à l’altitude H = 23 222 km où se trouvent les satellites de Galileo : (Tr − Ts )/Tr ≈ −6,8 × 10−10 . Sur une durée de 1 min, l’horloge satellitaire avance donc sur celle du récepteur au sol de 41 ns. Ainsi, cette avance gravitationnelle dépasse de loin le retard de 5 ns lié à sa vitesse, dans ce cas plus de huit fois plus grande (cf. Chapitre 13) 3 . L’erreur finale de 36 ns que l’on ferait en négligeant ces deux corrections relativistes, de signes opposés, entraînerait une imprécision dans la géolocalisation de plus de 10 m ! 3. La prise en compte de ces corrections relativistes sur le GPS américain, contrôlé par les militaires, gêna initialement ces derniers, surpris par l’importance de la théorie de la relativité dans un problème à leur yeux uniquement technique.

259

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

DÉVIATION DE LA LUMIÈRE PAR UNE MASSE Une théorie newtonienne de la déviation de la lumière, par un objet à symétrie sphérique, a été publiée en 1801 par le physicien allemand Johannes Soldner. Sa démonstration s’inspire directement de la théorie newtonienne avec l’hypothèse que le Soleil est un corps massif, à symétrie sphérique, et que la lumière est constituée de particules matérielles, auxquelles il est possible d’appliquer les lois de Newton pour obtenir la trajectoire d’un rayon lumineux. Pour justifier cette dernière hypothèse, il ajouta, dans la partie portant sur les objections que l’on pourrait lui opposer, que la lumière devait être considérée comme de la matière. Il obtient, pour une lumière tombant sur le Soleil en incidence rasante, χ N ≈ r S /R⊙ , où R⊙ ≈ 0,7 × 109 m est le rayon du Soleil et r S = 2G M⊙ /c2 . Le résultat calculé est 0,87 as. Finalement, Soldner annonce ce résultat qui ne sera testé expérimentalement que plus d’un siècle plus tard. Il est intéressant de noter qu’il publie le résultat de son analyse, même si la conclusion de celle-ci est que l’effet n’est pas observable. En relativité générale, le problème de Kepler, mené comme en mécanique de Newton, avec une masse nulle du corpuscule A en mouvement dans le voisinage du Soleil, donne la déviation suivante pour le rayon lumineux, χ E,15 ≈ 2r S /R⊙ , soit 1,75 as environ. Einstein obtint ce résultat en 1915, à partir de sa théorie complète de la relativité générale, en s’appuyant sur la métrique de Schwarzschild, dans laquelle le terme temporel est affecté de la dilatation associée au potentiel de gravitation, et le terme spatial d’une contraction correspondante des distances radiales. Cependant, dans sa publication originale de juin 1911, où il ne tenait compte que de l’influence de la gravitation sur le temps, Einstein n’avait obtenu que la moitié de la valeur précédente, soit curieusement celle calculée par Soldner à partir d’une théorie newtonienne 4. La première vérification de cette déviation fut réalisée en mai 1919, le jour d’une éclipse totale de Soleil, à partir de deux stations 4. Eu. J. Phys., 39, 2018. 260

LA PENSÉE EN PHYSIQUE

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

d’observation, l’une située sur île Principe, dans le Golfe de Guinée, et l’autre à Sobra au Brésil. Pour cela, on a comparé les positions apparentes d’une étoile, d’une part lorsque le disque solaire était proche du rayon lumineux observé, d’autre part lorsque le Soleil était dans une région éloignée de ce rayon. Les résultats obtenus furent les suivants : à Principe (Golfe de Guinée) α = 1,61 ± 0,30 as, alors qu’à Sobral (nord du Brésil) α = 1,98 ± 0,12 as. Trois années plus tard, lors d’une autre éclipse, à Wallal, en Australie occidentale, une mesure encore plus précise donna : 1,72 ± 0,11 as. L’accord entre théorie et expérience est donc excellent. Les mirages gravitationnels sont une conséquence naturelle de l’influence de la présence de grosses masses sur la propagation de la lumière ; en effet, l’espace se comporte alors comme un milieu non homogène, ce qui incurve la trajectoire des rayons lumineux (cf. Chapitre 10). ASTRES OBSCURS ET TROUS NOIRS Le concept d’astres obscurs fut introduit dès 1784 par Michell, puis repris et vulgarisé par Laplace, à partir de celui de vitesse de libération en mécanique newtonienne (cf. Chapitre 6). En effet, cette dernière s’introduit naturellement lorsqu’on étudie le mouvement d’un corpuscule dans le voisinage du champ de gravitation produit par un corps sphérique. Si la masse M de ce dernier est suffisamment grande ou son rayon suffisamment faible, la valeur de la vitesse de libération dépasse celle de la lumière. Dans le voisinage du corps sphérique précédent, aucun corpuscule ne peut alors s’évader si son énergie mécanique, initialement négative, n’augmente pas jusqu’à atteindre une valeur nulle, même pas une particule de lumière. Aussi un tel corps est-il appelé astre obscur. Michell a même obtenu, à partir d’un raisonnement newtonien, l’expression du rayon de Schwarzschild r S . En effet, si on impose à la vitesse de libération d’un corpuscule, à la distance r du centre d’une grosse masse sphérique M, d’être supérieure

261

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

à c, on trouve :   2G M 1/2 >c r

soit r ≤ r S

avec r S =

2G M c2

Dans le cadre de la RG, l’équation de la trajectoire d’une particule de lumière, de masse nulle, à l’extérieur d’un corps attractif, s’obtient en imposant une valeur nulle à l’intervalle courbé par la gravitation, selon la métrique de Schwarzschild. Il en résulte : (1 − r S /r ) c2 1t 2 − (1 − r S /r )−1 1r 2 = 0, d’où la vitesse de la lumière mesurée par l’observateur dans son système de coordonnées, en présence du potentiel de gravitation :    1r rS  8 c8 = =c 1− =c 1+2 2 , 1t r c puisque 8 = −G M/r et r S = 2G M/c2 . Lorsque r S est négligeable devant r , c8 ≈ c ; on retrouve la propagation de la lumière dans le vide à la vitesse c, malgré la présence d’un corps attractif. Dans le cas extrême où r = r S , cette vitesse c8 s’annule : la lumière ne peut s’échapper du puits de potentiel gravitationnel créé par le corps attractif ; le centre de ce dernier est alors un trou noir. Ce concept introduit en 1939, dans le cadre de la RG, par les Américains Robert Oppenheimer et Hartland Snyder, fut ensuite développé à partir de 1967 par Wheeler. Sachant que les trous noirs réalisent un piège gravitationnel pour la lumière ou pour tout autre rayonnement électromagnétique, on peut les détecter par leur capacité à incurver les rayons lumineux et donc à produire des mirages (cf. Chapitre 10), précisément des images multiples d’objets bien répertoriés dans le ciel. Les astrophysiciens pensent ainsi avoir localisé au cœur de notre galaxie, la Voie Lactée, un trou noir, Sagittaire A*, quatre millions de fois plus massif que le Soleil, à 25 000 années-lumière de notre 262

LA PENSÉE EN PHYSIQUE

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

planète. Plus récemment, un gigantesque trou noir, d’une masse de 6,5 milliards de masses solaires, a été non seulement localisé au centre de la galaxie M87, à 53 millions d’années-lumière, mais son image a été restituée avec une résolution remarquable. La technique utilisée est fondée sur la relation entre l’objet étudié et le contraste de la figure d’interférence qu’il donne avec huit télescopes travaillant ensemble en mode interférométrique (cf. Chapitre 12). Les trous noirs étant caractérisés par une forte diminution du potentiel de gravitation, au fur et à mesure que l’on s’approche de leur centre, le temps s’écoule plus vite sur sa périphérie qu’au centre. En outre, les objets contenus dans le trou noir sont soumis à un important effet de marée (cf. Chapitre 4), lequel allonge tout objet placé selon la direction du champ de gravitation, les extrémités de l’objet étant soumises à des champs différentiels opposés.

COSMOLOGIE La cosmologie, ou discours raisonné sur le monde ordonné, est l’étude de la formation et de l’évolution de la structure de l’Univers, et donc des lois physiques qui le régissent. Elle tient une place singulière en physique, car son objet, unique par définition, rend inopérant le critère habituel de crédibilité en physique que constitue la reproductibilité expérimentale. Depuis la RG, la démarche scientifique en cosmologie consiste essentiellement à imaginer des modèles d’Univers et à comparer leurs implications aux observations. Cette confrontation et la réfutation éventuelle de ces modèles, avec leurs lois fondamentales sous-jacentes, en font une science à part entière, encore faut-il que ces lois gardent leur universalité, comme l’exige la démarche scientifque. Il en résulte que la cosmologie présente principalement deux aspects entremêlés : i) le premier est l’accumulation de données observationnelles, ii) le second est l’interprétation de ces données à l’aide de modèles cohérents d’Univers.

263

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

Données observationnelles Depuis la Terre, qui est l’une des huit planètes orbitant autour du Soleil (cf. Chapitre 6), l’observation attentive du ciel montre que l’Univers visible est formé d’un nombre considérable d’étoiles analogues au Soleil : environ mille milliards d’étoiles, soit 1012 par galaxie, l’Univers comptant quelques centaines de milliers de galaxies. La distance de la Terre au Soleil étant de 1,49 × 1011 m, la lumière met environ 8 min pour nous parvenir du Soleil. Autrefois, on mesurait ce type de distance D par triangulation, c’est-à-dire à partir de l’angle θ que font entre elles les directions des droites T1 S et T2 S qui pointent le centre S de l’astre, depuis deux points T1 et T2 de la Terre (Fig. 6a): D ≈ T1 T2 /θ. Aujourd’hui, on préfère déterminer la durée τ que met une onde radioélectrique pour revenir sur la Terre après émission, réflexion par l’astre, puis détection : D = cτ/2. En astrophysique, les distances sont généralement exprimées en parsecs (pc) : le parsec, mot formé à partir de parallaxe et de seconde d’arc, est la distance à laquelle le rayon de l’orbite terrestre serait vu par un observateur sous un angle de 1 seconde d’arc (Fig. 6b) : 1 pc = ST /1( as) = 3,0856 77 × 1016 m soit 1 pc ≈ 30 Pm (pétamètre). On utilise souvent le mégaparsec 1 Mpc = 3,0856 77 × 1022 m. On

Figure 6 a) Mesure de la distance de la Terre au Soleil par triangulation. b) Définition du parsec.

264

LA PENSÉE EN PHYSIQUE

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

lui préfère souvent l’année-lumière (al), ou distance parcourue par la lumière dans le vide pendant une année : 1 al ≈ 0,946 × 1016 m

ou 1 al = 0,3066 pc.

Au-delà du système solaire, les étoiles sont rassemblées en galaxies. La Voie Lactée est l’image que nous avons de notre galaxie en observant le ciel (Fig. 7) ; cette dernière a l’allure d’une spirale dont le diamètre Dl et l’épaisseur Hl valent en année-lumière : Dl ≈ 100 kal et Hl ≈ 1 kal. Le Soleil est situé à environ 25 kal du noyau de notre galaxie.

Figure 7

Représentation de la Voie Lactée.

Les galaxies se regroupent à leur tour en amas de galaxies. Notre galaxie appartient au groupe local constitué de la galaxie Messier 31 et d’une vingtaine de galaxies-satellites. La distance moyenne entre deux galaxies est de l’ordre de 25 fois leur diamètre ; ainsi la Voie Lactée et la galaxie d’Andromède sont distantes de 2,55 Mal. C’est en 1915, que l’astronome américain Vesto Slipher constata expérimentalement un décalage spectral vers le rouge du rayonnement électromagnétique émis par plusieurs galaxies. Plus tard, en 1929, un autre astronome américain Edwin Hubble publia une étude approfondie des résultats obtenus par divers observateurs pour en déduire une relation entre le décalage spectral relatif z du rayonnement émis par les galaxies et leur distance d à la Terre. Il obtint la loi

265

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

simple suivante : c z = H0 d



z=

λr − λs λs

est l’écart relatif entre la longueur d’onde λr du rayonnement reçu sur la Terre et la longueur d’onde λs du rayonnement émis par la source dans le référentiel de cette dernière ; H0 une quantité homogène à l’inverse d’une durée que l’on appelle le paramètre d’Hubble à l’instant présent. Précisons que λs est aussi la longueur d’onde dans le vide de la radiation émise par une source analogue en laboratoire. Sur la figure 8, on a représenté z, en fonction de d, exprimé en gigaparsec, pour différentes galaxies.

Figure 8

Loi de Lemaître-Hubble.

Historiquement, on a exprimé le paramètre d’Hubble H0 en km.s−1 Mpc−1 . Aujourd’hui, on préfère utiliser comme unité H100 qui vaut 100 km.s−1 Mpc−1 et introduire le rapport sans dimension h 0 = H0 /H100 . L’inverse de H100 est la durée suivante : −1 H100 = 3,085 677 × 1017 s soit

9,77 792 Gan

le Gan, ou milliard d’années, valant environ 3,15576 × 1016 s. Hubble a interprété le décalage spectral cosmologique z, comme un effet Doppler-Fizeau longitudinal apparent, ce qui implique que 266

LA PENSÉE EN PHYSIQUE

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

cz soit égale à la vitesse radiale d’éloignement vr des galaxies, d’où la relation simple suivante vr = H0 d : les vitesses radiales d’éloignement des galaxies sont proportionnelles à la distance qui nous sépare d’elles. En réalité, cette loi fut énoncée, dès 1927, par le physicien et abbé Georges Lemaître, et interprétée comme une dilatation ou une expansion de l’Univers au cours du temps : l’Univers « gonfle » ; précisément les distances qui séparent les différentes galaxies augmentent lorsque le temps s’écoule. Ainsi, dans le passé, les galaxies se trouvaient plus proches les unes des autres. Dans la suite, nous appellerons loi de Lemaître-Hubble cette relation entre vitesse radiale vr d’éloignement des galaxies et distance d. L’extrapolation cavalière, et donc spéculative, des distances entre galaxies, lorsqu’on remonte le temps, conduit à une singularité théorique définie par une taille de l’Univers nulle et donc une masse volumique infinie. Lemaître l’appela imprudemment « atome primitif », ce que ses opposants des années 1950 nommèrent « big-bang » en dérision. Un ordre de grandeur admis de la durée T , qui sépare l’instant présent du big-bang, est 13,8 Gan. Des mesures spectrales sur le rayonnement des étoiles les plus vieilles, révèlent une présence de noyaux lourds radioactifs dans des proportions qui accréditent une telle estimation. L’expansion de l’Univers ne doit pas être confondue avec une simple dilatation de toutes les distances, car seules les distances intergalactiques sont dilatées. Dans ce contexte, on introduit, dans la métrique espace-temps, une distance d’échelle R qui permet de définir un temps d’expansion selon : 2e = (1/H0 ) ln(R/R0 ), R0 étant la distance d’échelle à l’instant présent. On voit que, pour R = 0, 2e = −∞, ce qui rejette à l’infini dans le passé l’instant théorique du big-bang. Énergie sombre Depuis 1998, on a réintroduit la constante cosmologique pour expliquer l’expansion accélérée de l’Univers. On l’associe à une énergie sombre volumique, concept jusqu’ici inconnu en physique, d’où 267

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

son nom. L’équation d’Einstein se prête à une interprétation originale de cette constante : le terme 3/κ = 3c4 /(4π G), qui a les dimensions d’une énergie volumique ρ3 c2 , peut être rapproché de celui faisant apparaître l’énergie de masse volumique ρc2 . La tentative d’attribuer cette énergie sombre au vide, dans le cadre quantique, conduit à une aporie, comme le montre le rapport entre 3 ≈ 10−52 m−2 et une grandeur caractéristique, de même dimension physique, l’inverse du carré de la longueur de Planck l P ≈ 10−35 m (cf. Chapitre 1) : −122 . C’est probablement pour cette raison que certains 3/l −2 P ≈ 10 astrophysiciens éludent l’interprétation énergétique de 3, considérant qu’il s’agit simplement d’une constante fondamentale qui s’introduit naturellement dans les équations de la RG. L’énergie sombre volumique, ρ3 c2 , est très souvent négligée devant d’autres énergies volumiques. En effet : ρ3 c2 ≈ 10−9 J.m−3 , alors que, pour la Terre par exemple, l’énergie de masse volumique vaut ρc2 ≈ 0,5 × 1021 J.m−3 . Le qualificatif sombre, utilisé pour désigner l’énergie associée à la constante cosmologique, exprime notre ignorance sur sa nature précise, mais en aucun cas un quelconque rapport avec le corps noir qui, lui, doit son nom à son aspect à 300 K (cf. Chapitre 15). Des mesures récentes, qui donnent une image de l’Univers datant de seulement 380 000 ans après le big-bang, accréditent les caractéristiques suivantes : l’Univers serait pratiqement plat, c’est-à-dire que la courbure de l’espace-temps serait négligeable, le pourcentage d’énergie de masse égal à 0,27 et celui d’énergie sombre à 0,73. Jusqu’à présent, seule une partie 0,05 du pourcentage 0,27 de la matière a pu être détectée avec les moyens actuellement à notre disposition. Il s’agit de la masse dite baryonique (étoiles, planètes et surtout hydrogène et hélium présents dans l’Univers). La partie manquante, de l’ordre de 0,22, est appelée matière noire. Elle a été introduite en 1933, par l’astrophysicien suisse Fritz Zwicky, dans le but d’interpréter la courbe donnant, en fonction de leur distance, la vitesse radiale de plusieurs galaxies dans l’amas de Coma ; en effet, la masse de cet amas à l’origine de ces vitesses, selon la théorie de Newton, était nettement 268

LA PENSÉE EN PHYSIQUE

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

insuffisante. Récemment, on a pu découvrir de nouveaux réservoirs de matière noire : halos et gaz hyperfroids, nuages intergalactiques. L’origine physique de la matière noire reste encore aujourd’hui mystérieuse. Ondes gravitationnelles L’analogie entre l’électromagnétisme et la gravitation a suggéré l’existence d’ondes gravitationnelles semblables aux ondes électromagnétiques. C’est ainsi que Poincaré parle d’ondes gravifiques dès 1905. Cependant, ces ondes n’ont été prédites que par la théorie d’Einstein. En outre, la RG prévoit, d’une part une vitesse de propagation égale à c, d’autre part des difficultés d’observation, car l’amplitude de ces ondes est très faible : même lorsqu’elles sont produites par de grandes explosions, collisions d’étoiles ou de trous noirs par exemple, la perturbation de l’espace-temps sur la Terre reste très ténue. La première preuve indirecte de l’existence ces ondes gravitationnelles a été fournie par le pulsar PSR 1913+16, découvert en 1974, dans la constellation de l’Aigle, par les astrophysiciens américains John Taylor et Russel Hulse. Le pulsar est une étoile à neutrons très dense qui émet un rayonnement électromagnétique centimétrique associé à son mouvement de rotation propre. La variation de la période d’émission de ce rayonnement fut associée à l’existence d’un compagnon qui forme, avec le pulsar initial, un système dont la trajectoire, dans le référentiel du centre de masse, est une ellipse. La description de ce mouvement, avec une période orbitale décroissante, fut attribuée à l’émission d’ondes gravitationnelles. Il existe actuellement, à l’échelle mondiale, plusieurs systèmes de détection des ondes gravitationnelles, notamment LIGO américain (Laser Interferometer Gravitational Wave Observatory) 5 et VIRGO européen (Réception des Ondes Gravitationnelles produites par des 5. LIGO est installé en deux exemplaires aux États-Unis, l’un à Hanford, dans l’État de Washington, et l’autre à Livingstone, en Louisiane.

269

EINSTEIN ET HUBBLE : LA RELATIVITÉ GÉNÉRALE

phénomènes VIolents dans l’Univers) 6 . Ces deux instruments sont des interféromètres de Michelson (cf. Chapitre 12). Avec des bras de plusieurs kilomètres de longueur, ils ont permis de détecter un très faible décalage de franges interférentielles, provoqué par une perturbation gravitationnelle de l’espace-temps, à la suite de la fusion collisionnelle de deux trous noirs en 2016. Depuis, d’autres manifestations d’ondes gravitationnelles ont pu être mises en évidence par le groupe de ces trois interféromètres, travaillant désormais en étroite collaboration, notamment la perturbation produite par la collision de deux étoiles à neutrons.

6. VIRGO est situé à Cascina, près de Pise.

270

LA PENSÉE EN PHYSIQUE

15 Planck et Einstein : la quantification de l’énergie

Les corps suffisamment condensés émettent tous un rayonnement électromagnétique continu qui dépend essentiellement de leur température. C’est ce que les physiciens ont pu constater dès la seconde moitié du xixe siècle, parmi eux l’Allemand Gustav Kirchhoff, l’Autrichien Wilhelm Wien et l’Anglais Lord Rayleigh (cf. Chapitre 11). En outre, ce rayonnement peut être relié à celui d’un corps idéal, appelé corps noir, dont le rayonnement possède la propriété universelle de ne dépendre que de sa température. La grandeur expérimentale commode que l’on introduit pour mesurer le rayonnement émis par les corps est l’exitance spectrale Mν , c’est-à-dire la puissance électromagnétique rayonnée, par unité de surface émettrice, et par unité de fréquence. Sur la figure 1, on a représenté, pour différentes températures, les courbes donnant, non Mν en fonction de la fréquence ν, mais wν , appelée l’énergie électromagnétique volumique rayonnée, qui lui est directement reliée selon la relation Mν = (c/4)wν , c étant la constante d’Einstein. 271

PLANCK ET EINSTEIN : LA QUANTIFICATION DE L’ÉNERGIE

Figure 1 Variation de l’énergie électromagnétique volumique wν en fonction de la fréquence ν du rayonnement émis.

Lord Rayleigh et le Britanique James Jeans purent expliquer, à partir des lois habituelles de l’électromagnétisme, la dépendance quadratique de wν pour les faibles fréquences, précisément la proportionnalité à ν 2 T . Wien put, lui, interpréter une dépendance, à haute fréquence, de la forme ν 3 exp(−C ν/T ), C étant une constante. Cependant, le maximum observé fut une énigme difficile à surmonter ; Rayleigh et Jeans l’appelèrent la catastrophe ultra-violette. Ce n’est qu’en 1900 que le physicien allemand Max Planck put obtenir une courbe de rayonnement passant par un maximum, encore fut-il contraint d’introduire une nouvelle hypothèse : Les échanges d’énergie entre la matière et le rayonnement électromagnétique sont quantifiés. Précisément il dut supposer que ces échanges ne s’effectuaient que par quantum d’énergie proportionnel à la fréquence ν du rayonnement. Persuadé que cette hypothèse n’avait pas d’avenir, il n’attacha qu’une faible importance à la constante de proportionnalité, au point de la désigner par la première lettre h de « hilfe Grösse » (en allemand « grandeur d’aide ») ; en effet, elle « l’avait aidé » à retrouver le passage par un maximum de la courbe de rayonnement. C’est Einstein qui valorisa cette constante en proposant quelques années plus tard, en 1905, une interprétation simple et efficace de l’effet photoélectrique, qui est l’extraction d’un électron atomique 272

LA PENSÉE EN PHYSIQUE

PLANCK ET EINSTEIN : LA QUANTIFICATION DE L’ÉNERGIE

d’un métal par un photon, comme nous le verrons plus loin. Précisement, il admit que le rayonnement électromagnétique était, lui-même, composé de quanta de lumière, d’énergie ε = hν 1 . À la suite, l’Américain Millikan détermina avec une excellente précision la valeur de la constante h. Enfin Arthur Compton, physicien américain, valida définitivement le modèle particulaire du photon, en introduisant sa quantité de mouvement p = hν/c, ce qui lui permit d’interpréter la diffusion de la lumière par un électron, dite depuis diffusion Compton.

RAYONNEMENT DU CORPS NOIR Réalisation d’un corps noir La réalisation d’un corps noir est fondée sur sa propriété essentielle qui est d’absorber toutes les radiations qu’il reçoit. Par exemple, un petit trou percé à la surface d’un corps creux constitue un corps noir : tout rayonnement qui pénètre dans la cavité n’en ressort pas, car il est absorbé par suite des multiples réflexions qu’il subit sur la surface intérieure du corps (Fig. 2).

Figure 2

Réalisation expérimentale d’un corps noir.

L’énergie ainsi absorbée par un tel corps ne sert qu’à modifier sa température, laquelle détermine le rayonnement électromagnétique 1. Ce n’est que bien plus tard, en 1926, que ces quanta furent appelés photons par le physico-chimiste Gilbert Lewis.

273

PLANCK ET EINSTEIN : LA QUANTIFICATION DE L’ÉNERGIE

émis. À température ordinaire, autour de 20 ◦ C (293 K), le rayonnement qu’émet un corps noir est pauvre en radiations visibles ; il semble donc noir, d’où le nom du corps. À une température plus élevée, ce même corps émet un rayonnement qui peut être visible ; par exemple, le Soleil est souvent considéré, lorsqu’il brille, comme un excellent corps noir, évidemment celui associé à la température de sa surface qui est d’environ 5 778 K. Le plus souvent, la distribution spectrale du rayonnement, que l’on obtient expérimentalement à l’aide de spectromètres, est exprimée, non en fonction de la fréquence ν, mais de la longueur d’onde λ = c/ν : 8πhc 1 wλ (λ, T ) = 5 λ exp(βhc/λ) − 1 expression dans laquelle β = 1/(k B T ) (cf. Chapitre 8) 2 .

Figure 3

Densité spectrale wλ (λ, T ).

Sur la figure 3, on a représenté wλ (λ, T ) en fonction de λ. Cette courbe passe par un maximum pour une longueur d’onde λm reliée à la température T par la loi : λm T ≈ 2 898 µm.K. 2. Ce coefficient de température β n’a aucun lien avec le facteur que l’on introduit habituellement en relativité restreinte pour désigner le rapport d’une vitesse sur c (cf. Chapitre 13).

274

LA PENSÉE EN PHYSIQUE

PLANCK ET EINSTEIN : LA QUANTIFICATION DE L’ÉNERGIE

Ainsi, plus la température est élevée, plus la longueur d’onde λm est faible 3 . À 300 K (27 ◦ C), le rayonnement émis par un corps noir est centré sur la longueur d’onde λm ≈ 10 µm qui se situe dans le domaine de l’infrarouge lointain ; la couleur du « corps noir » est alors noire. En revanche, à 5 000 K, λm ≈ 0,58 µm ; le « corps noir » prend une couleur jaune ! Notons qu’à une température de 2,72 K, le rayonnement est millimétrique puisque λm ≈ 1,07 mm ; il s’agit du rayonnement cosmologique fossile émis par de l’Univers dans ses premiers instants (cf. Chapitre 14). Le satellite COBE (COsmic Background Explorer), lancé en 1989 par la NASA, a permis de découvrir et d’étudier en détail le rayonnement cosmologique fossile. Hypothèse fondamentale de Planck Pour expliquer la courbe expérimentale précédente (Fig. 3), Planck fit l’hypothèse suivante, selon laquelle la matière, en équilibre avec le rayonnement, se comportait comme un ensemble de N oscillateurs harmoniques dont l’énergie totale n’était pas une grandeur continue, mais un multiple d’un quantum ε, proportionnelle à la fréquence ν. Le coefficient de proportionnalité est précisément la constante h : ε = hν

avec h ≈ 6,626 × 10−34 J.s.

En fonction de la longueur d’onde λ, il vient évidemment : ε = hc/λ, soit numériquement ε (eV) = (hc)/(eλ) ≈ 1,24/λ (µm), si λ est exprimé en µm et ε en eV. Planck calcula ensuite l’entropie S et l’énergie interne U (cf. Chapitres 8 et 5) d’une telle assemblée d’oscillateurs, puis, à l’aide de la relation reliant la température à ces grandeurs, T = (1U/1S)V , le volume V étant maintenu constant, il en déduisit la densité spectrale d’énergie rayonnée suivante : wν = (8πhν 3 /c3 ) [exp(βhν) − 1]−1 . On en tire alors Mν = (c/4)wν , qui coïncide remarquablement avec les résultats expérimentaux. 3. Contrairement à une intuition trompeuse, λm n’est pas égal à c/νm . 275

PLANCK ET EINSTEIN : LA QUANTIFICATION DE L’ÉNERGIE

Aux basses fréquences (βhν ≪ 1), on a exp(βhν) − 1 ≈ βhν, de sorte que l’on retrouve la forme en ν 2 T de Rayleigh : wν ≈

8π 2 ν k B T. c3

En revanche, aux hautes fréquences (βhν ≫ 1), on retrouve l’expression de Wien : 8π wν ≈ 3 hν 3 exp(−βhν). c On utilise parfois la pulsation d’un rayonnement ω = 2π ν, plutôt que sa fréquence donnée par les instruments de mesure. On est alors naturellement conduit à introduire la grandeur dérivée « h barre 4 » : ~=

h ≈ 1,054 × 10−34 J.s. 2π

Critères de comportement quantique Compte tenu de la complexité de l’analyse quantique d’un problème, comparée à celle classique, une question essentielle se pose : peut-on savoir d’emblée si le cadre quantique est indispensable? Pour y répondre, il suffit de comparer h, dont la dimension physique est une action, c’est-à-dire le produit d’une énergie par une durée, ou d’une quantité de mouvement par une longueur, à une autre action S , caractéristique du problème. Si S ≫ h, la théorie classique suffit ; en revanche, si S ∼ h, la théorie quantique s’impose. Par exemple, le synchrotron à protons LHC (Large Hadron Collider) impose aux protons une trajectoire circulaire de rayon R = 4,3 km. Avec une énergie cinétique Ek de 1 TeV (mille GeV), ce qui est considérable, la vitesse d’un proton est très proche de c, par valeur inférieure évidemment (cf. Chapitre 13). On déduit alors sa quantité de mouvement p ≈ Ek /c, car m p c2 ≈ 1 GeV ≪ Ek . Il en 4. Il n’existe évidemment aucune différence fondamentale entre h et ~, comme entre ν et ω.

276

LA PENSÉE EN PHYSIQUE

PLANCK ET EINSTEIN : LA QUANTIFICATION DE L’ÉNERGIE

résulte pc ≈ 1 TeV, et donc une action caractéristique qui vaut S = p × R ≈ 2,3 × 10−12 J.s ≫ h. Le traitement du mouvement des protons peut donc être conduit dans le cadre classique, relativiste mais non quantique. Dans l’atome d’hydrogène, l’énergie E de l’électron est de quelques eV (cf. Chapitre 16). En outre, l’atome émet de la lumière dans le visible ; précisément λ ≈ 550 nm pour E ≈ 2 eV, ce qui correspond à la fréquence ν = c/λ ≈ 0,6 PHz. L’inverse de cette fréquence est la période T = 1/ν caractéristique de l’émetteur atomique, et donc du mouvement de l’électron autour du proton. On en déduit l’ordre de grandeur d’une action caractéristique : S = E × T ≈ 6,4 × 10−34 J.s ∼ h. Un tel mouvement relève donc de la théorie quantique (cf. Chapitre 18). On comprend dès lors l’échec de toute tentative d’interprétation classique des interactions entre la matière et le rayonnement. Pour un ensemble d’objets physiques identiques, comme celui des électrons dans un atome ou dans un solide, des neutrons dans une étoile, des atomes dans un gaz très froid ou des photons dans un laser, la nature des objets peut jouer un rôle déterminant au point de provoquer l’émergence d’un comportement collectif purement quantique, visible à l’échelle macroscopique, dont les caractéristiques dépendent de ces objets et de leur nombre par unité de volume. Il en est ainsi pour la conductivité électrique des semiconducteurs, le ferromagnétisme du fer, la cohérence de l’onde quasi monochromatique issue d’un laser, la supraconductivité et la superfluidité 5 .

EFFET PHOTOÉLECTRIQUE L’effet photoélectrique est l’extraction des électrons d’un matériau par un rayonnement, dont la fréquence est supérieure à une certaine 5. La supraconductivité de certains matériaux à basse température, tels que le plomb, est l’effondrement de leur résistance ainsi que l’expulsion de tout champ magnétique ; la superfluidité de l’hélium est la disparition de sa viscosité à très basse température.

277

PLANCK ET EINSTEIN : LA QUANTIFICATION DE L’ÉNERGIE

valeur qui dépend du matériau irradié. Il fut observé pour la première fois en 1887, par hasard, par le physicien allemand Gustav Hertz, alors qu’il cherchait à vérifier expérimentalement la nature électromagnétique du rayonnement ultraviolet. On le met en évidence à l’aide d’une expérience analogue à celle de l’Allemand Wilhelm Hallwachs montrant qu’une plaque de zinc, initialement neutre, que l’on éclaire par un rayonnement ultraviolet, se charge positivement, ce qui prouve que des électrons lui ont été arrachés (Fig. 4a). On constate, en outre, que le phénomène est pratiquement instantané : il se produit dès que le faisceau lumineux atteint le métal. On observe également qu’en interposant, entre la source et la plaque de zinc, une lame de verre qui absorbe les rayons ultraviolets émis par la lampe, l’effet ne se produit pas, ce qui montre que la composante ultraviolette du rayonnement joue un rôle décisif.

Figure 4 a) Effet photoélectrique. b) Interprétation à l’aide d’un diagramme énergétique.

L’hypothèse d’émission de grains de matière par le métal doit être attribuée à l’Allemand Phillip Lenard. L’Anglais John Thomson montra ensuite expérimentalement qu’il s’agissait d’électrons, en 1899, deux ans après avoir découvert ces grains. Pour l’anecdote, c’est l’Allemand Walter Kaufmann qui, le premier, mit en évidence expérimentalement les caractérisiques de l’électron (masse m e , charge −e), mais il fut victime de son positivisme, doctrine avancée du philosophe français Auguste Comte, selon laquelle les atomes et les électrons 278

LA PENSÉE EN PHYSIQUE

PLANCK ET EINSTEIN : LA QUANTIFICATION DE L’ÉNERGIE

n’étaient que des « chimères » ; seule avait un sens, selon lui, la physique directement accessible par l’expérience. Difficultés d’une interprétation classique Du point de vue de la physique classique, l’extraction des électrons d’un matériau est concevable, car le champ électrique de l’onde électromagnétique peut être à l’origine d’une force qui éjecte les électrons hors du métal. En outre, l’énergie cinétique des électrons extraits devrait croître avec l’intensité lumineuse. Cette interprétation conduit cependant à des difficultés insurmontables. L’analyse expérimentale montre, au contraire, que l’énergie cinétique des électrons éjectés dépend de la fréquence, selon une loi de la forme Ek = C(ν − νs ), C étant une constante, ν la fréquence de l’onde incidente et νs une certaine fréquence particulière qui dépend du matériau ; dans l’expérience initiale, cette fréquence seuil νs se situait dans l’ultraviolet. L’influence de l’intensité lumineuse porte sur le courant de charges extraites : plus cette intensité augmente, plus le nombre d’électrons arrachés par unité de temps croît. Interprétation d’Einstein Dans son article de 1905, paru dans la revue allemande Annalen der Physik, Einstein donna une interprétation simple et élégante de l’effet photoélectrique, en s’appuyant précisément sur l’hypothèse de Planck et donc en valorisant cette dernière auprès même de son auteur. Il émit cependant une hypothèse supplémentaire : l’énergie lumineuse est quantifiée, c’est-à-dire constituée d’un nombre fini de quanta de lumière, indivisibles, d’énergie proportionnelle à la fréquence ν du rayonnement, chacun d’eux pouvant être absorbé ou produit par la matière. Selon cette interprétation, l’échange d’énergie entre la lumière et le métal est le résultat d’une collision entre un photon incident et le matériau, dont le bilan est l’extraction d’un électron de la cible : photon + électron dans matériau → électron avec matériau

279

PLANCK ET EINSTEIN : LA QUANTIFICATION DE L’ÉNERGIE

Cette collision est inélastique, puisque il y a modification de la cible (cf. Chapitre 13). Son bilan énergétique s’écrit, en désignant par Ee,av et Ee,ap l’énergie de l’électron extrait du matériau, respectivement avant et après collision : hν + Ee,av = Ee,ap

d’où hν = Ee,ap − Ee,av .

Cette différence, entre l’énergie de l’électron libéré et celle de l’électron en interaction, sert d’une part à extraire l’électron du matériau ; historiquement, on l’appelle le travail de sortie Es . D’autre part, elle permet de communiquer à l’électron ainsi libéré une énergie cinétique Ek . On a donc (Fig. 4b) : hν = Es + Ek Puisque Ek ≥ 0, hν ≥ Es ; aussi l’effet photoélectrique n’est-il observable que si : Es ν > νs avec νs = h νs étant une fréquence seuil. En termes de longueur d’onde, la condition précédente s’écrit : λ < λs

avec λs =

hc Es

λs étant la longueur d’onde seuil correspondante. Pour le zinc, Es = 4,33 eV, d’où λs ( µm) ≈ 1,24/Es (eV) ≈ 0,29 µm, ce qui se situe dans le domaine ultraviolet. On comprend ainsi pourquoi, dans l’expérience historique, le rayonnement utilisé était de nature ultraviolette et donc invisible. Le tableau 1 suivant rassemble les valeurs de l’énergie seuil de quelques métaux : Es est de quelques eV. Avec des alcalins et certains alliages, comme Hg, Cd et Te, ce seuil énergétique Es est suffisamment faible, ce qui permet d’observer l’effet photoélectrique avec un rayonnement visible.

280

LA PENSÉE EN PHYSIQUE

PLANCK ET EINSTEIN : LA QUANTIFICATION DE L’ÉNERGIE

Tableau 1

Énergie seuil de quelques éléments.

Éléments Es (eV) Éléments Es (eV)

Cs 2,14 Al 4,28

Rb 2,16 Zn 4,33

K 2,30 Cr 4,50

Na 2,75 W 4,55

Li 2,90 Mo 4,60

Ca 2,87 Cu 4,65

Ta 4,25 Ni 5,15

Ag 4,26 Pt 5,65

Après analyse, l’interprétation de l’effet photoélectrique par la quantification du rayonnement incident n’est pas une preuve décisive de l’existence des quanta de lumière, comme l’ont fait remarquer Planck, Lenard et d’autres, tous d’ailleurs opposés à l’hypothèse d’Einstein. Même si l’effet photoélectrique peut aussi être expliqué par la seule quantification de l’énergie de la matière, l’hypothèse d’Einstein a finalement été confirmée plus tard, lorsqu’on a pu réaliser des sources lumineuses qui émettent des photons un par un. Expérience de Millikan À partir d’une étude expérimentale complète sur des métaux alcalins (sodium, lithium, potassium), Millikan vérifia l’hypothèse d’Einstein, et, du même coup, détermina une nouvelle valeur de la constante h. Son expérience, qu’il publia en 1916, consistait à envoyer une lumière monochromatique, sur une cathode métallique, afin de provoquer l’extraction de photoélectrons, ces derniers étant collectés par une anode portée à un potentiel négatif réglable. Pour une fréquence ν fixée, Millikan mesura alors le potentiel d’arrêt Va , c’està-dire le potentiel nécessaire pour arrêter ces photoélectrons, et donc annuler le courant I dans le circuit (Fig. 5a). La conservation de l’énergie de l’électron, entre la cathode et l’anode, (Ek + E p )C = (Ek + E p ) A , donne, puisque par définition du potentiel d’arrêt l’énergie cinétique Ek, A = 0 et que le potentiel de la cathode est nul : Ek,C = −e(−Va ) = eVa . Comme Ek,C = h(ν − νs ), on en déduit la relation suivante entre le potentiel d’arrêt et la fréquence ν :

281

PLANCK ET EINSTEIN : LA QUANTIFICATION DE L’ÉNERGIE

Figure 5 a) Montage de Millikan. b) Graphe du potentiel d’arrêt en fonction de la fréquence du rayonnement reçu.

h (ν − νs ) e La droite obtenue, en traçant le graphe donnant le potentiel d’arrêt pour différentes valeurs de la fréquence du rayonnement incident, a une pente h/e et une ordonnée à l’origine −hνs /e (Fig. 5b), ce qui permit à Millikan d’accéder à la valeur de la constante de Planck, connaissant celle de e. Il trouva h ≈ 6,57 × 10−34 J.s, soit la valeur actuellement admise, avec une précision meilleure que 1 %. Le choix des alcalins comme métaux d’étude se justifie par leur faible travail de sortie. Pour le sodium, pour lequel Es = 2,75 eV, le seuil est dans le bleu car λs ≈ 0,45 µm. Va =

Effet photoélectrique inverse Lorsqu’on envoie des électrons énergétiques sur une cible métallique (Fig. 6), le spectre du rayonnement X émis présente un seuil en fréquence au-delà duquel il n’y a pas d’émission de photons. C’est l’effet photoélectrique inverse, appelé ainsi car l’électron et le photon sont permutés par rapport à l’effet photoélectrique direct. Ce seuil fut prédit par Einstein en 1906, en introduisant l’hypothèse des quanta de lumière ; il considéra la collision inélastique, dans laquelle un électron 282

LA PENSÉE EN PHYSIQUE

PLANCK ET EINSTEIN : LA QUANTIFICATION DE L’ÉNERGIE

Figure 6 Effet photoélectrique inverse avec électron incident bombardant une cible métallique et photon X émergent.

libre est absorbé par une cible métallique avec émision d’un photon, selon la réaction : électron avec matériau → photon + électron dans matériau Pour une telle collision, la conservation de l’énergie donne :

Ee,av = Ee,ap + Eγ . Comme la différence Ee,av −Ee,ap est au plus égale à l’énergie cinétique Ek de l’électron incident, qui vaut Ek = eVa si l’électron est accéléré sous une différence de potentiel Va , on en déduit :

Eγ ≤ Ek

d’où

hν ≤ eVa .

La fréquence du rayonnement émis est donc limitée supérieurement par νs = eVa / h. Le phénomène fut ensuite découvert par les physiciens américains William Duane et Franklin Hunt en 1915. L’analyse expérimentale montre en effet que, pour une tension d’accélération Va donnée des électrons incidents, la cible n’émet aucun rayonnement X de fréquence supérieure à un seuil νs , lequel ne dépend que de l’énergie des électrons incidents. 283

PLANCK ET EINSTEIN : LA QUANTIFICATION DE L’ÉNERGIE

EFFET COMPTON L’effet Compton, ou plus précisément la diffusion Compton, est la modification de la fréquence du rayonnement diffusé par un électron libre, avec un écart spectral qui dépend de l’angle de diffusion. Il a été découvert en 1923 par Compton, en irradiant du graphite avec des rayons X , de longueur d’onde λ ≈ 70 pm ; ces derniers étaient obtenus en bombardant du molybdène avec des électrons accélérés (Fig. 7a). Le faisceau de rayons X émergent était ensuite filtré à l’aide d’un cristal de calcite utilisé comme spectromètre. Le spectre du rayonnement diffusé montre deux raies spectrales distinctes : une première raie, de même longueur d’onde que le rayonnement incident, et une seconde dont la longueur d’onde λ′ s’écarte de λ d’une valeur qui ne dépend que de l’angle de diffusion θ du rayonnement incident (Fig. 7b). En déterminant l’écart 1λ = λ′ − λ pour plusieurs valeurs de θ, Compton constata que cet écart variait avec θ selon la loi expérimentale suivante : 1λ (pm) ≈ 2,43 (1 − cos θ).

Figure 7 Expérience de Compton : a) Montage original. b) Spectre du rayonnement détecté pour deux angles de diffusion θ = 90° et θ = 0°.

Interprétation de Compton L’explication théorique, proposée par Compton dans sa publication originale, consiste à considérer le phénomène comme une collision entre un photon X et un électron libre du graphite, d’énergie cinétique négligeable devant celle du photon incident : γ + e− → γ ′ + e′− 284

LA PENSÉE EN PHYSIQUE

PLANCK ET EINSTEIN : LA QUANTIFICATION DE L’ÉNERGIE

Figure 8 repos.

Effet Compton : collision entre un photon incident et un électron libre au

Le photon incident γ est diffusé par un électron cible e− , sous un angle θ par rapport à sa direction incidente (Fig. 8). Comme le nombre ou la nature des particules ne changent pas dans la collision, cette dernière est élastique (cf. Chapitre 13), contrairement à l’effet photoélectrique que l’on interprète comme une collision inélastique entre un photon incident et un matériau. Pour interpréter précisément le résultat de son expérience, Compton ajouta, à l’équation de conservation de l’énergie du système {photon - électron}, l’équation vectorielle de conservation de la quantité de mouvement totale. Ainsi, il écrivit les deux équations suivantes :

Eγ + Ee = Eγ′ + Ee′

et

pγ + 0 = p′γ + p′e ,

où pγ est la quantité de mouvement du photon incident, 0 est celle de l’électron-cible, p′γ celle du photon diffusé et p′e celle de l’électron juste après la collision. Comme la masse du photon est nulle, les équations précédentes doivent être écrites dans le cadre einsteinien et non newtonien. Précisément, l’énergie E de tout objet physique libre, c’est-à-dire sans énergie potentielle, est la somme de son énergie cinétique Ek et de son énergie de masse mc2 ; en outre, elle est reliée à sa quantité de mouvement p par la relation E = pc, puisque la masse du photon est nulle (cf. Chapitre 13). 285

PLANCK ET EINSTEIN : LA QUANTIFICATION DE L’ÉNERGIE

L’élimination, dans les deux équations de conservation, des caractéristiques de l’électron juste après collision, pe′ et Ee′ , permet de trouver une relation simple entre les inverses des énergies des photons incident et diffusé, et donc entre les longueurs d’ondes puisque E = hν = hc/λ : λ′ − λ = λC, e (1 − cos θ)

où λC, e =

h ≈ 2,426 pm mec

est la longueur d’onde de Compton relative à l’électron ; cette dernière fait intervenir, en dehors de la masse de la particule considérée, ici m e , seulement deux constantes fondamentales c et h, l’une caractéristique de la relativité, l’autre de la quantique, ce qui confère à l’effet Compton une nature à la fois relativiste et quantique. Analyse du spectre du rayonnement diffusé Les longueurs d’ondes du rayonnement diffusé, correspondant à plusieurs valeurs de θ, s’accordent remarquablement avec les résultats expérimentaux. Pour θ 6 = 0, on observe deux pics, l’un centré sur la longueur d’onde incidente λ, l’autre sur la longueur d’onde λ′ . En réalisant des expériences avec d’autres longueurs d’ondes du rayonnement incident, jusqu’à λ ≈ 2,5 pm pour le rayonnement X, Compton montra que le décalage en longueur d’onde était indépendant de λ. Avec des rayonnements moins énergétiques (ultraviolet, visible, etc.) il est négligeable. Pour des objets physiques plus massifs, comme des protons, la longueur d’onde de Compton λC, p est beaucoup plus faible et donc l’effet Compton moins important : λC, p ≈ λC, e /1 836 ≈ 1,3 fm. Aussi, la présence du premier pic doit-elle être attribuée aux objets physiques massifs de la cible. L’hypothèse de l’électron libre dans la diffusion Compton est d’autant mieux justifiée que l’énergie de liaison de l’électron avec le reste de la cible est faible devant l’énergie du photon incident. Dans l’expérience historique, l’énergie des photons X incident était de 20 keV, et donc largement supérieure à l’énergie de liaison, comprise entre 1 eV 286

LA PENSÉE EN PHYSIQUE

PLANCK ET EINSTEIN : LA QUANTIFICATION DE L’ÉNERGIE

et 1 keV, de tous les électrons du graphite utilisé comme cible. En général, seuls les photons X et γ possèdent une énergie bien supérieure aux énergies de liaison. Pour des rayonnements moins énergétiques (ultraviolet, visible), les électrons ne se comportent pas tous comme des électrons libres, car certains sont fortement liés aux noyaux des atomes de carbone. La diffusion Compton intervient aussi en astrophysique ; elle permet d’interpréter la déviation et le changement de fréquence des photons du rayonnement du fond cosmologique par les électrons de grande énergie. Cet effet a été prédit, dans les années 1960, par deux physiciens Rashid Sunyaev et Yakov Zel’dovitch, le premier Ouzbek et le second Russe, puis mis en évidence en 1983, d’où son nom effet SZ.

RAYONNEMENT D’UN TROU NOIR En 1974, le physicien israélo-mexicain Jacob Bekenstein et l’Anglais Stephen Hawking établirent, en s’appuyant sur les résultats quantiques, que les trous noirs pouvaient rayonner de l’énergie électromagnétique, à la manière d’un corps noir. En outre, ils établirent que leur entropie réduite (cf. Chapitre 8) se mettait sous la forme : SB H A = , kB (2l P )2 l P ≈ 10−35 m étant la longueur de Planck (cf. Chapitre 1) et A une aire appelée horizon du trou noir ; cette dernière est définie par la limite de séparation entre les endroits à partir desquels les signaux peuvent atteindre un observateur extérieur, et ceux pour lesquels les signaux restent piégés par le trou noir. Comme A est très grand et l 2P très petit, l’entropie d’un trou noir peut prendre de très grandes valeurs.

287

16 Rutherford et Bohr : le modèle atomique

Alors que le spectre électromagnétique émis par un corps condensé, tel que le filament métallique d’une lampe à incandescence, est continu (cf. Chapitre 15), celui d’une lampe contenant de la vapeur de mercure sous faible pression est, lui, formé d’une multitude de raies. Une question se pose alors, dès les années 1900 : comment interpréter le spectre émis par les atomes, et comment sont constitués ces derniers, réputés insécables, notamment le plus simple d’entre eux l’hydrogène? Pour le savoir, le physicien de Nouvelle-Zélande Ernest Rutherford eut l’idée, alors qu’il était à Cambridge en Angleterre, de bombarder un atome lourd avec un faisceau de projectiles, des hélions (noyaux d’hélium), de caractéristiques physiques bien connues, et d’étudier leur diffusion. Il en déduisit que les atomes présentaient une partie centrale chargée positivement. La première tentative d’explication de ce spectre de raies, émis par un atome, ne fut avancée qu’en 1913, par le Danois Niels Bohr, à partir d’une représentation planétaire de l’atome d’hydrogène : l’électron est en mouvement circulaire autour du proton, comme un satellite autour 289

RUTHERFORD ET BOHR : LE MODÈLE ATOMIQUE

de la Terre, mais sous l’action d’une interaction électrique, différente de l’interaction gravitationnelle, mais de même forme. Ce modèle permet de prévoir, avec une bonne précision, la nature des principales raies émises par l’atome d’hydrogène. Cependant, la prédiction ne suffit pas ; il faut expliquer, c’est-à-dire relier les résultats obtenus aux lois générales déjà connues de la physique, afin d’éviter toute aporie.

DIFFUSION DE RUTHERFORD Avec ses collaborateurs, Rutherford utilisa une enceinte vidée d’air dans laquelle une source radiaoactive envoyait, sur une feuille mince d’or (600 nm), des hélions, noyaux d’hélium, appelés aussi particules α (Fig. 1). Ces derniers étaient diffusés, puis détectés par un matériau solide contenant du sulfure de zinc, ce qui permit de visualiser l’impact des particules incidentes par un scintillement lumineux.

Figure 1

Schéma du dispositif expérimental utilisé par Rutherford.

À sa grande surprise, il constata que des hélions pouvaient être détectés sous des angles de diffusion χ égaux ou supérieurs à π/2, et que certains étaient même rétrodiffusés (χ = π ). En effet, le modèle 290

LA PENSÉE EN PHYSIQUE

RUTHERFORD ET BOHR : LE MODÈLE ATOMIQUE

initial de Thomson, avec ses charges positives et négatives réparties dans le volume de l’atome, ne permettait de prédire qu’une diffusion sous faible angle. En outre, Rutherford établit que le nombre d’hélions détectés variait, avec l’angle de diffusion χ , selon une loi en sin−4 (χ/2) (Fig. 2).

Figure 2

Diffusion d’un hélion par un noyau d’or.

La facilité avec laquelle les hélions traversaient la feuille d’or, et l’existence de grandes valeurs de l’angle de diffusion, conduisirent Rutherford à attribuer la cause de la diffusion sous grand angle à des charges positives, concentrées en un noyau central, et celle sous petit angle aux électrons situés sur la périphérie de l’atome. Il s’en suivit l’abandon du modèle atomique de Thomson au profit d’un modèle dans lequel les électrons orbitent autour d’un noyau central, chargé positivement (cf. Chapitre 6). Ce modèle physique, publié en 1911, devient alors l’un des acquis fondamentaux de la structure des atomes. En outre, le mouvement d’un hélion en interaction avec un noyau lourd, comme celui de l’or, rappelle celui d’un satellite en interaction avec la Terre (cf. Chapitre 6), bien que la force électromagnétique soit bien plus intense que celle liée à la gravitation, cela dans un rapport extrordinairement élevé de 1036 . En raison du rapport des masses m Au /m α élevé (197/4), l’approximation du noyau lourd immobile se justifie aisément. Ce mouvement se ramène donc à celui de l’hélion A, de quantité de mouvement p0 , soumis à un centre de force exercée par le noyau situé au point fixe O du laboratoire. 291

RUTHERFORD ET BOHR : LE MODÈLE ATOMIQUE

L’hélion passerait rectilignement à la distance b du noyau, si l’interaction n’existait pas : b est le paramètre d’impact (Fig. 2). En raison de l’interaction électromagnétique, l’hélion est dévié de sa trajectoire ; lorsqu’il s’éloigne suffisamment de O, sa trajectoire devient à nouveau une droite. On dit que l’hélion a été diffusé par O sous l’angle χ = ( p0 , p) que fait la direction émergente, définie par la quantité de mouvement p, avec la direction incidente donnée par p0 . La figure est relative à une interaction coulombienne répulsive qu’exercent entre elles les deux particules, dont les charges électriques sont de même signe. L’énergie potentielle est de même forme qu’en gravitation (cf. Chapitre 6) :

Ep =

K r

avec

K = Z 1 Z 2 qe2

et qe2 =

e2 4πε0

Ici Z 1 = 2 est le nombre de protons des particules α et Z 2 = 79 celui des noyaux d’or. La constante d’interaction étant positive, la trajectoire est une hyperbole de foyer O qui s’éloigne de ce point (cf. Chapitre 6). On montre que l’angle de diffusion χ est relié à l’énergie mécanique Em de l’hélion et au paramètre d’impact b par : tan

χ  2

=

K . 2 Em b

Le rapport r0 = K /Em , homogène à une longueur, a une signification précise : c’est la distance pour laquelle Em = E p ; l’énergie cinétique est alors nulle et la distance qui sépare l’hélion du noyau d’or minimale. Finalement, l’analyse de Rutherford, à la fois théorique et expérimentale, aboutit aux trois conclusions suivantes. i) L’atome est constitué d’un noyau central, de charge positive Z 2 e, contenant la presque totalité de la masse, malgré un rayon très faible devant les dimensions de l’atome, de l’ordre de 1 fm (10−15 m) ; c’est le noyau qui est responsable de la diffusion des particules à grand angle. 292

LA PENSÉE EN PHYSIQUE

RUTHERFORD ET BOHR : LE MODÈLE ATOMIQUE

ii) Le noyau produit dans son entourage un champ électrique coulombien d’expression : Z 2 e/(4πε0 r 2 ). iii) Les électrons, de charge négative et de masse bien plus faible que celle des protons, sont en mouvement autour du noyau, sous l’action de la force d’interaction coulombienne, selon un modèle planétaire. C’est eux qui sont responsables de la diffusion à petit angle.

QUANTIFICATION DE L’ÉNERGIE DES ATOMES Alors que le spectre d’émission d’une lampe à incandescence, c’està-dire la relation entre l’intensité du rayonnement émis avec la longueur d’onde, est continu et passe par un maximum, conformément à l’analyse de Planck (cf. Chapitre 15), celui d’une lampe à vapeur de mercure, par exemple, est lui formé de plusieurs raies. C’est ce que permet de montrer le montage de la figure 3.

Figure 3

Obtention du spectre d’émission d’une lampe à vapeur de mercure.

On forme sur un écran l’image Ai d’une fente-objet Ao , éclairée par une lampe à vapeur de mercure ; la lentille-condenseur placée entre la lampe et l’objet permet d’éclairer suffisamment ce dernier. On analyse le rayonnement émis par cette source, en interposant sur le trajet du faisceau lumineux un système dispersif, par exemple un prisme (cf. Chapitre 10) ou mieux un réseau périodique de fentes de diffraction 293

RUTHERFORD ET BOHR : LE MODÈLE ATOMIQUE

(cf. Chapitre 11). Ce système donne alors de la fente-objet plusieurs images associées à chacune des différentes composantes monochromatiques du rayonnement émis. Historiquement, ce sont les raies spectrales des atomes qui furent observées pour la première fois par les Allemands Gustav Kirchhoff et Robert Bunsen dans les années 1850 ; l’astronome suédois Anders Angström obtint, lui, en 1853, le spectre atomique du corps le plus simple, l’hydrogène. Ce spectre de raies constitue un fait majeur, puisqu’il est, avec la relativité d’Einstein, à la base de toute la physique moderne du xxe siècle ; il marque le commencement de l’étude de la structure atomique. Spectre de raies de l’atome d’hydrogène Dans le domaine visible, le spectre de l’atome d’hydrogène présente de nombreuses raies dont la plus intense est la raie rouge Hα , de longueur d’onde λα ≈ 656 nm (Fig. 4). Au fur et à mesure que l’on s’approche des faibles longueurs d’ondes et donc du violet, les raies se resserrent jusqu’à une raie limite H∞ de longueur d’onde λ∞ ≈ 365 nm. C’est ce que découvrit, dès 1881, l’astronome anglais Williams Huggins, en observant le spectre du rayonnement émis par les étoiles.

Figure 4

Spectre de raies de l’atome d’hydrogène.

En 1885, un professeur de mathématiques d’un lycée suisse, Johann Balmer, remarqua que les longueurs d’ondes de ces raies pouvaient 294

LA PENSÉE EN PHYSIQUE

RUTHERFORD ET BOHR : LE MODÈLE ATOMIQUE

être retrouvées à partir de nombres entiers, précisément : λ=B

n2 n2 − 4

avec n > 2,

B étant une constante. Le Suédois Johannes Rydberg proposa une forme encore plus intéressante :   1 1 1 4 = RH − 2 avec R H = = 10 967 758,10 m−1 , λ 22 n B car elle permet de retrouver les valeurs des longueurs d’ondes λα et λ∞ de Hα et H∞ : 1/λα = R H (1/4 − 1/9) et 1/λ∞ = R H /4. En généralisant, la formule de Rydberg devint :   1 1 1 = RH − 2 avec m < n. λnm m2 n La valeur m = 1 correspond à la série ultraviolette trouvée par Theodore Lyman en 1906 ; m = 2 restitue la série visible de Johann Balmer, la première observée ; aux valeurs m = 3, 4, 5 et 6 sont associées respectivement les séries infrarouges découvertes progressivement par Friedrich Pashen en 1908, Frederick Brackett en 1922, August Pfund en 1924 et Curtis Humphreys en 1953. Modèle de Bohr Le point de départ du modèle de Bohr fut la formule de Balmer et le modèle orbital de l’atome d’hydrogène : l’électron décrit une trajectoire circulaire, sous l’action de la force électromagnétique exercée par le proton, de charge opposée, à la manière d’une planète dans son mouvement autour du Soleil, sous l’action de la gravitation. Bohr proposa ce modèle planétaire en 1913, après un séjour de quatre mois à Manchester, précisément dans le laboratoire dirigé par Rutherford. Dans le référentiel du laboratoire, dans lequel le proton, beaucoup plus lourd que l’électron, est supposé fixe, l’application de la loi de la dynamique de Newton à l’électron, en mouvement circulaire 295

RUTHERFORD ET BOHR : LE MODÈLE ATOMIQUE

uniforme, donne l’équation suivante : mv2 q2 = e2 r r

avec qe2 =

e2 4πε0

en explicitant l’accélération normale an = v2 /r , la force électromagnétique attractive, qe2 étant la constante de cette interaction (cf. Chapitre 1). La force de pesanteur terrestre (cf. Chapitre 4) et la force de gravitation mutuelle entre électron et proton sont totalement négligeables devant la force électromagnétique. On en déduit l’énergie cinétique Ek = mv2 /2 = qe2 /(2r ) de l’électron ; quant à l’énergie potentielle d’interaction, elle a pour expression, puisque les charges électriques du proton et de l’électron sont respectivement e et −e : E p = −qe2 /r , l’origine étant prise pour r infini. L’énergie mécanique est donc :

Em = Ek + E p = −

qe2 2r

d’où la relation Em =

Ep = −Ek . 2

On reconnaît une relation analogue à celle d’un satellite artificiel en mouvement circulaire autour de la Terre (cf. Chapitre 6). Précisons que l’énergie Em est voisine de celle de l’atome, puisque l’énergie cinétique du noyau est négligeable. En outre, les énergies de masse, respectivement celle du noyau m p c2 ≈ 938 MeV et celle de l’électron m e c2 ≈ 0,511 MeV (cf. Chapitre 13), qui sont très supérieures aux énergies cinétique et potentielle, n’interviennent pas dans Em défini dans le seul cadre newtonien. Le modèle de Bohr s’appuie sur deux hypothèses. 1) Dans certains états dits stationnaires de l’atome d’hydrogène pour lesquels le moment cinétique est un multiple entier de ~, l’électron, en mouvement circulaire uniforme, ne rayonne pas d’énergie. Dans l’état stationnaire n, on a donc : L n = r × p = L n ez

296

LA PENSÉE EN PHYSIQUE

avec

L n = m e vn rn = n~.

RUTHERFORD ET BOHR : LE MODÈLE ATOMIQUE

Comme, en outre, Ek = m e vn2 /2 = qe2 /(2rn ), on obtient, en éliminant la vitesse, le rayon de la trajectoire : rn = n 2 a B , où a B =

~2 ≈ 52,9 × 10−12 m m e qe2

Cette distance, qui vaut 52,9 pm, est appelée rayon de l’atome de Bohr. 2) L’émission de lumière par un atome d’hydrogène est due à des transitions entre deux états stationnaires ; l’énergie des photons émis est égale à la différence des énergies de l’atome dans les deux états considérés. Ainsi (Fig. 5) : hc Ei − E f = hνi f = . λi f

Figure 5 Émission d’un rayonnement lors d’une transition entre deux états stationnaires de l’atome d’hydrogène.

L’énergie En est directement reliée au rayon de la trajectoire : E n = −E k = −

qe2 meq4 = − 2 e2 2rn 2~ n

soit En = −

Ry n2



Ry =

m e qe4 2~2

est le rydberg. En introduisant la constante de structure fine αe =

qe2 1 ≈ ~c 137,036

on trouve

Ry =

mc2 ≈ −13,60 eV 2αe2

Précisons que le rydberg donne un ordre de grandeur des énergies qui interviennent en physico-chimie des matériaux. On a, en effet, typiquement 1 Ry pour l’énergie d’ionisation d’un atome, 0,25 Ry

297

RUTHERFORD ET BOHR : LE MODÈLE ATOMIQUE

pour l’énergie de liaison d’une molécule, et 0,1 Ry pour les énergies de liaison dans un liquide. On justifie l’expression newtonienne de l’énergie cinétique, en calculant le rapport vn /c de la vitesse de l’électron sur la constante d’Einstein, car vn /c ≤ αe /n ≤ 1/137. La prise en compte de la relativité restreinte (cf. Chapitre 13) permet d’interpréter une différence observable de 0,18 meV avec l’énergie dans l’état fondamental. La transition de l’état d’énergie n vers l’état d’énergie m, avec m < n, se traduit par l’émission d’un rayonnement de fréquence :   En − Em Ry 1 1 νnm = = − 2 . h h m2 n Comme λnm = c/νnm , on retrouve la forme initialement donnée par Rydberg :   1 1 1 Ry = RH − 2 avec R H = ≈ 1,097 × 107 m−1 . λnm m2 n hc Le très faible désaccord avec la valeur expérimentale, donnée plus haut, provient essentiellement de l’hypothèse du proton fixe. En réalité, l’électron et le proton sont tous deux en mouvement dans le référentiel R∗ du centre de masse (cf. Chapitre 3), et on doit remplacer la masse m e de l’électron par la masse réduite µ = m e m p /(m e + m p ). La prise en compte de cette dernière correction donne, en remplaçant, dans l’expression précédente de R H , Ry par Rµ = µc2 αe2 /2 : RH =

Rµ µc2 2 R∞ = αe = hc 2hc 1 + m e /m p

avec

R∞ =

m e c2 2 α . 2hc e

La prédiction théorique est alors remarquable. ATOMES HYDROGÉNOÏDES Les atomes hydrogénoïdes ne diffèrent de l’atome d’hydrogène (1 H) que par la charge et la masse du noyau ; c’est le cas du deutérium D 298

LA PENSÉE EN PHYSIQUE

RUTHERFORD ET BOHR : LE MODÈLE ATOMIQUE

(isotope 2 H). En 1932, le chimiste américain Harold Urey observa un dédoublement du spectre de l’atome d’hydrogène qu’il attribua à la présence de deutérium dans l’hydrogène naturel. La différence entre l’hydrogène et le deutérium vient du neutron qui forme avec le proton le noyau de 2 H. Les résultats de la théorie de Bohr, relatifs au deutérium, sont analogues à ceux de l’hydrogène, mais la masse du noyau vaut m D = m p + m n en première approximation. La constante de Rydberg pour le deutérium est donc : R D = R∞ (1 + m e /m D )−1 . Urey en déduisit un déplacement relatif en longueur d’onde, expérimentalement perceptible : 1λ/λ H ≈ m e /m D ≈ 2,72 × 10−4 . Par exemple, les raies Hβ (λβ ≈ 486,13 nm) et Dβ sont distantes de : 1λβ ≈ 0,13 nm. On obtiendrait un décalage du même ordre de grandeur avec le tritium (isotope 3 H), l’ion He+ et Li2+ . Dans sa publication, Urey envisagea aussi l’existence du tritium, mais il n’observa pas le décalage spectral attendu par rapport à l’atome d’hydrogène, en raison de la concentration négligeable de tritium dans l’hydrogène naturel. L’expression de l’énergie des atomes hydrogénoïdes est analogue à celle de l’atome d’hydrogène :

En = −

µZ 2 qe4 2~2 n 2

µ étant la masse réduite m e m N /(m e + m N ) du système {cœur de l’atome et électron périphérique}, m N la masse de ce cœur, sensiblement celle du noyau, et Z le nombre de protons dans le noyau. Atomes de Rydberg Les atomes de Rydberg sont des atomes hydrogénoïdes dans lesquels un électron est très éloigné du reste de l’atome, qui est constitué du noyau et des autres électrons. De tels atomes sont gros, puisque leur diamètre peut atteindre 10µm, et donc facilement ionisables ; en outre, leur durée de vie dans cet état excité est longue, de l’ordre d’une seconde. Le nombre quantique n peut atteindre alors plusieurs 299

RUTHERFORD ET BOHR : LE MODÈLE ATOMIQUE

centaines ; aussi, dans une transition qui fait varier ce nombre de quelques unités, le rayonnement observé se situe-t-il dans le domaine spectral centimétrique. Ces atomes, découverts dans l’espace interstellaire en 1965, sont produits en laboratoire en excitant un jet atomique à l’aide d’un faisceau laser. En raison de leur grande dimension, les atomes de Rydberg sont utilisés, en physique fondamentale, pour mettre en évidence des phénomènes d’intrication quantique (cf. Chapitre 18), mais aussi en informatique quantique pour réaliser des portes logiques couplant des atomes entre eux, ainsi qu’en métrologie dans le refroidissement à très basse température (cf. Chapitre 7). Atomes muoniques Les atomes muoniques sont des atomes dans lesquels l’électron de l’atome hydrogénoïde est remplacé par un muon (méson µ), dont la masse est 207 fois plus grande que celle d’un électron. L’état de ces atomes est bien décrit par la théorie de Bohr, dans laquelle on remplace m e par m µ . Il en résulte, d’une part que le rayon de ces atomes est beaucoup plus petit que celui de l’atome d’hydrogène, d’autre part que les énergies de transition sont beaucoup plus grandes. Pour produire des atomes muoniques, on bombarde des neutrons avec des protons de grande énergie, ce qui donne notamment des mésons π − , dont on favorise la capture par un atome. Un méson se désintègre alors en un muon µ− qui prend la place d’un électron atomique. L’analyse du rayonnement X qui accompagne la formation de ces atomes, selon un processus de capture radiative, a permis de montrer en 1953 que les atomes muoniques se formaient bien de cette façon. Positronium et antihydrogène Le positronium et l’antihydrogène sont des atomes artificiels que l’on fabrique en substituant à l’une ou aux deux composantes de l’atome d’hydrogène leurs antiparticules : dans le positronium, le proton est 300

LA PENSÉE EN PHYSIQUE

RUTHERFORD ET BOHR : LE MODÈLE ATOMIQUE

remplacé par le positron (charge e, masse m e ) ; dans l’antihydrogène, comme son nom l’indique, le proton et l’électron sont remplacés respectivement par l’antiproton (charge −e, masse m p ) et le positron (charge e, masse m e ). Le positronium a été découvert par les Allemands James Schearer et Martin Deutsch en 1949. Un tel atome, de très courte durée de vie (0,1 µs), se forme lorsque des positrons, provenant d’une réaction radioactive d’un noyau instable, par exemple 22 Na, traversent un gaz, tel que le diazote N2 ; en capturant un électron, un positron se transforme alors en positronium. La durée de vie de ce dernier est courte ; il s’annihile en émettant des photons γ dont l’énergie est supérieure à 0,511 MeV. L’antihydrogène est un antiatome d’hydrogène. Pour le réaliser, on part d’antiprotons produits dans un grand accélérateur de particules, par exemple celui du CERN, auxquels on impose de traverser une atmosphère de gaz rares, par exemple du xénon (Xe). En perdant de l’énergie cinétique, les antiprotons peuvent créer des paires électron-positron. Certains antiprotons capturent alors des positrons et forment des antiatomes d’hydrogène. Cette technique, utilisée dès 1995, a permis de créer des antiatomes d’hydrogène, dont la durée de vie était de 40 ns. Les niveaux d’énergie de l’antihydrogène sont les mêmes que ceux de l’atome d’hydrogène, puisque les masses ne changent pas, ainsi que les charges mises en jeu.

EXCITATION DES ATOMES L’excitation d’un atome, d’un niveau d’énergie m vers un niveau d’énergie plus élevée n, se produit par collision avec des électrons, des photons ou d’autres atomes. L’interprétation des spectres de raies émises par les atomes constitue une preuve indirecte de l’existence de niveaux discrets d’énergie ; cette preuve fut confirmée expérimentalement en 1914 par les physiciens allemands James Frank et Gustav Hertz, qui mirent en évidence, 301

RUTHERFORD ET BOHR : LE MODÈLE ATOMIQUE

dans un tube contenant de la vapeur de mercure, les pertes d’énergie subies par des électrons se déplaçant dans le tube. Ces pertes par collisions sont un multiple de l’énergie d’excitation, qui vaut dans ce cas 1E = 4,9 eV. En même temps, la vapeur émet un rayonnement de longueur d’onde λ = c/ν = hc/1E = 253,7 nm. En envoyant des électrons, d’énergie cinétique suffisante, sur des atomes, on peut, en analysant leur répartition énergétique, après interaction avec ces atomes, mettre en évidence les pertes d’énergie caractéristiques des atomes étudiés. À l’aide d’un spectromètre, par exemple un prisme magnétique qui impose aux électrons une trajectoire circulaire dont le rayon dépend de leur énergie, on obtient le spectre des pertes d’énergie, c’est-à-dire le nombre d’électrons qui ont subi une perte d’énergie déterminée. La figure 6a représente un tel spectromètre placé sous un microscope électronique, de tension d’accélération 1 MV (cf. Chapitre 11) ; les électrons, issus du canon du microscope, interagissent avec l’objet constitué d’atomes, certains en perdant l’énergie nécessaire à une transition atomique vers un état d’énergie plus élevée. Le spectre de la figure 6b est celui de l’hélium, dans lequel il y a, outre un pic sans perte d’énergie, deux pics supplémentaires : le premier à 22 eV relatif aux électrons qui ont provoqué par collision une excitation atomique, et le second à 2 × 22 = 44 eV, associé aux électrons qui en ont provoqué deux successivement.

Figure 6 Version moderne de l’expérience de Frank et Hertz. a) Montage, b) spectre des pertes d’énergie des électrons dans l’hélium.

302

LA PENSÉE EN PHYSIQUE

RUTHERFORD ET BOHR : LE MODÈLE ATOMIQUE

LIMITES DU MODÈLE DE BOHR Bien que le modèle de Bohr de l’atome d’hydrogène ait permis de prévoir, avec une excellente précision, les valeurs des différents niveaux d’énergie, il présente de sérieuses limites, principalement en raison de son manque de cohérence interne. En effet, les deux hypothèses de Bohr apparaissent comme des hypothèses ad hoc que l’on s’impose, de façon arbitraire, dans un cadre classique incompatible avec elles. Rappelons l’hypothèse essentielle et totalement incompréhensible du point de vue de l’électromagnétisme : l’électron, bien qu’accéléré, puisqu’en mouvement circulaire autour du noyau, ne perd pas d’énergie par rayonnement ! Aussi la communauté scientifique émit-elle des réserves sur la théorie de Bohr, dès sa parution, malgré les succès dans sa capacité prédictive ; Bohr, lui-même, partagea ce scepticisme, et reconnut que son modèle, provisoire et incomplet, pointait du doigt des difficultés en rapport avec l’électromagnétisme de Maxwell. Dès 1916, Arnold Sommerfeld tenta d’apporter des améliorations au modèle classique de Bohr en supposant les orbites non plus circulaires mais elliptiques, comme dans le modèle planétaire du système solaire ; en outre, il prit en compte des corrections relativistes. Cependant, malgré ces retouches élaborées, le modèle s’avéra vite dépassé par les résultats de plus en plus précis fournis par les techniques de spectrométrie de plus en plus fines. Aussi le besoin d’une reconstruction de la physique atomique, à partir de postulats clairement énoncés, est-il apparu indispensable, ce qui a conduit à l’actuelle théorie quantique (cf. Chapitre 18).

303

17 De Broglie et Ruska : le comportement ondulatoire des objets

En complément de l’aspect ondulatoire de la lumière, bien établi par Maxwell depuis 1873, Einstein a montré, en interprétant l’effet photoélectrique, que la lumière présentait aussi un aspect corpusculaire, précisément à partir de l’hypothèse de Planck (cf. Chapitre 15). La relation entre ces deux aspects ondulatoire et corpusculaire se traduit par les deux équations de proportionnalité suivantes : E = ~ ω et p = ~ k, le facteur de proportionnalité étant la constante de Planck barrée ~. Le couple (ω, k) est caractéristique d’une onde lumineuse, monochromatique et plane, alors que le couple (E , p) rassemble, lui, l’énergie et la quantité de mouvement, d’une particule, ici le photon 1 .

1. Si on avait choisi le couple fréquence ν et vecteur d’onde réduit σ = k/(2π), la constante aurait été h.

305

DE BROGLIE ET RUSKA : LE COMPORTEMENT ONDULATOIRE DES OBJETS

La question que se posa alors, dès 1923, le Français Louis de Broglie, dans sa thèse, fut d’envisager la possibilité que, réciproquement, tout objet physique, doté d’une énergie E et d’une quantité de mouvement p, manifeste, dans certaines circonstances, un comportement ondulatoire. Fait remarquable, cette interrogation nouvelle ne lui vint que par la seule pensée, car il n’était confronté à aucune difficulté d’interprétation d’un fait nouveau, comme ce fut le cas pour l’effet photoélectrique. Il appela alors les physiciens à confronter son idée à l’expérimentation, ce qui fut fait et confirmé quatre ans plus tard !

HYPOTHÈSE FONDAMENTALE DE DE BROGLIE Analogie entre la mécanique et l’optique Le point de départ de la réflexion de de Broglie fut la conviction que la mécanique et l’optique présentaient une forte analogie, en partie révélée par l’Irlandais William Hamilton, dès 1835. En effet, de Broglie confia que l’idée d’une mécanique ondulatoire lui vint lorsqu’il apprit que des nombres entiers avaient été introduits par Bohr pour expliquer les niveaux d’énergie discrets de l’atome d’hydrogène (cf. Chapitre 16). Or, l’optique ondulatoire avec les phénomènes d’interférence impliquait aussi des nombres entiers (cf. Chapitre 12). Afin de préciser les termes de cette analogie, rappelons la loi de la dynamique de Newton ou d’Einstein pour un corpuscule en mouvement (cf. Chapitres 3 et 13) et celle de l’optique des rayons lumineux (cf. Chapitre 10). On a, avec les notations habituelles : i) pour la mécanique classique 1p =F 1t

ce qui s’écrit aussi

1p F = 1s v

en introduisant l’abscisse curviligne s sur la trajectoire et la vitesse curviligne v = 1s/1t.

306

LA PENSÉE EN PHYSIQUE

DE BROGLIE ET RUSKA : LE COMPORTEMENT ONDULATOIRE DES OBJETS

ii) pour l’optique des rayons lumineux 1(net ) = grad n 1s n désignant l’indice du milieu, grad n le vecteur selon la plus grande variation de l’indice, et et le vecteur unitaire tangent au rayon lumineux au point considéré. Comme la théorie électromagnétique de Maxwell a absorbé naturellement toute l’optique ondulatoire et donc toute l’optique des rayons lumineux (cf. Chapitre 10), se pose la question suivante : la mécanique classique ne serait-elle pas l’approximation d’une mécanique ondulatoire, comme l’optique des rayons lumineux est l’approximation d’une optique ondulatoire (Fig. 1)?

Figure 1

Analogie mécanique-optique.

Relation de de Broglie Tout objet physique isolé, de quantité de mouvement p et d’énergie E , manifeste sous certaines conditions un comportement ondulatoire caractérisé par une onde de vecteur d’onde k et de pulsation ω, tels que : k=

p ~

et ω =

E . ~

Einstein soutint dès le début cette idée originale, ce qui incita de Broglie, le jour de sa soutenance de thèse, en 1924, à suggérer, en réponse à une question posée par un membre du jury sceptique, d’effectuer un test expérimental. 307

DE BROGLIE ET RUSKA : LE COMPORTEMENT ONDULATOIRE DES OBJETS

Historiquement, de Broglie formula autrement son hypothèse fondamentale, en introduisant la longueur d’onde à partir de k selon λ D B = 2π/k, d’où : h λD B = . p Il se plaça d’emblée dans le cadre relativiste, en utilisant l’expression p = γβmc de la quantité de mouvement, avec β = v/c et γ = (1 − β 2 )−1/2 (cf. Chapitre 13). Dans l’approximation newtonienne, précisément lorsque β ≪ 1 et donc γ ≈ 1, cette relation se réduit à λ D B ≈ h/(mv). Compte tenu de la valeur extrêmement faible de la constante de Planck, on conçoit que les aspects ondulatoires de la matière se manifestent surtout avec des objets de faible masse et de faible vitesse. Ainsi, on réalise des phénomènes interférentiels avec des atomes ou des molécules en les ralentissant, notamment à l’aide de lasers (cf. Chapitre 7). De la même façon qu’en optique, on est naturellement conduit à comparer la longueur d’onde broglienne λ D B à toute dimension D caractéristique du système. Si λ D B ≪ D, la mécanique classique du corpuscule suffit largement. Cette condition s’écrit autrement en introduisant l’action h, concept défini par le produit d’une énergie par une durée, ou par le produit d’une quantité de mouvement par une distance. La forte inégalité précédente donne, en effet : λD B p ≪ p D

soit

h≪S

avec S = p D.

Pour une balle de tennis (masse m = 58 g), de vitesse v = 35 m.s−1 , λ D B ≈ 3,26 × 10−34 m. La mécanique classique de Newton suffit donc, puisque λ D B est négligeable devant le diamètre de la balle, environ 6,5 cm. Il en est de même pour un proton en mouvement circulaire uniforme, à grande vitesse, dans le synchrotron LHC (Large Hadron 308

LA PENSÉE EN PHYSIQUE

DE BROGLIE ET RUSKA : LE COMPORTEMENT ONDULATOIRE DES OBJETS

Collider). En effet, comme v ≈ c, on a entre la quantité de mouvement et l’énergie totale la relation p ≈ E /c avec E = γ m p c2 (cf. Chapitre 13). Il en résulte λ D B ≈ λC, p /γ , en introduisant la longueur d’onde de Compton, associée au proton λC, p = h/(m p c), qui vaut environ 1,3 × 10−3 pm (cf. Chapitre 15). Comme λ D B est négligeable devant les dimensions du LHC (diamètre du tunnel 3 m et longueur de 27 km), la mécanique classique d’Einstein suffit. En revanche, pour un électron évoluant dans un édifice matériel (atome, molécule, solide), dont une dimension caractéristique est le diamètre moyen d’un atome ou la distance inter-atomique, de l’ordre de D ≈ 0,1 nm, l’analyse quantique est indispensable. En effet, un ordre de grandeur de λ D B est obtenu à partir de la valeur de l’énergie cinétique Ek , que l’on sait être de quelques électron-volts. Comme Ek = p 2 /(2m e ), il vient : λ D B = h/ p = h/(2m e Ek )1/2 , d’où, pour Ek ≈ 10 eV, λ D B ≈ 0,39 nm, ce qui est de l’ordre de grandeur de D. Il en est de même pour l’énergie cinétique moyenne d’agitation thermique d’un atome dans un gaz en équilibre, à la température absolue T ; cette dernière vaut 3k B T /2, d’où λ D B = h/(3mk B T )1/2 , k B étant la constante de Boltzmann et m la masse d’un atome. Pour un gaz de neutrons (m n ≈ 1,67×10−27 kg), à la température T = 300 K, on trouve λ D B ≈ 0,15 nm, ce qui est de l’ordre de grandeur du pas des réseaux cristallins. Ces neutrons, dits thermiques, sont particulièrement précieux dans l’exploration des structures cristallographiques, notamment magnétiques.

CONFIRMATIONS EXPÉRIMENTALES Diffraction des électrons En étudiant, en 1927, la diffraction d’électrons, de faible énergie cinétique, par un monocristal de nickel, les Américains Clinton Davisson et Lester Germer réalisèrent avec succès le test confirmant les prédictions de de Broglie. Ils constatèrent, en effet, que le flux d’électrons diffractés dans une certaine direction par le cristal, était 309

DE BROGLIE ET RUSKA : LE COMPORTEMENT ONDULATOIRE DES OBJETS

maximal pour un certaine valeur de l’angle α que faisait cette direction avec celle du faisceau incident (Fig. 2). Précisément, avec un potentiel d’accélération Va = 33 V, le flux était maximal pour α = 80°. Ils purent interpréter ce résultat expérimental en retrouvant les conditions dans lesquelles des ondes brogliennes diffractées par le cristal étaient déphasées d’un nombre entier de fois 2π, ce qui est caractéristique d’un phénomène d’interférence (cf. Chapitre 12). L’analyse précise montra que la longueur d’onde à prendre en compte dépendait de l’énergie cinétique Ek des électrons, selon λ D B = h/ p = h/(2m e Ek )1/2 , puisque Ek = p 2 /(2m e ).

Figure 2

Expérience de diffraction d’électrons de Davisson et Germer.

Diffraction des neutrons Les premières expériences d’optique neutronique ont été réalisées en 1945-1946, par les Américains Ernest Wollan et Clifford Shull, avec des neutrons froids (T = 20 K et donc λ D B ≈ 0,56 nm). Ils ont pu observer des phénomènes ondulatoires caractéristiques de la diffraction d’une onde matérielle par un bord d’écran en gadolinium. Les résultats ressemblent en tout point à ceux obtenus avec la lumière.

310

LA PENSÉE EN PHYSIQUE

DE BROGLIE ET RUSKA : LE COMPORTEMENT ONDULATOIRE DES OBJETS

En 1969, Shull réussissait à faire passer des neutrons froids (λ D B = 0,443 nm) à travers une fente de largeur a = 5,6 µm. L’ouverture angulaire du faisceau diffracté présentait une largeur à mi-hauteur de 15,4 arcsec, en bon accord avec les prévisions théoriques, puisque la distance angulaire 1θ qui sépare le premier minimum nul de l’axe optique vaut 1θ = λ D B /a ≈ 7,91 × 10−5 rad, soit 15,8 arcsec. Diffraction des atomes Les propriétés ondulatoires des atomes furent mises en évidence pour la première fois en 1929, avec de l’hélium, par le physicien allemand, naturalisé américain, Otto Stern ; il provoqua la diffraction d’un faisceau d’atomes d’hélium par un cristal de chlorure de sodium, de période caractéristique de réseau ar = 564 pm. Le dispositif ressemble à celui de l’expérience de Davisson et Germer, mais la source est dans ce cas un jet atomique, de longueur d’onde quantique λ D B = 57 pm ; l’angle de diffraction correspondant à la détection maximale est θ ≈ λ D B /ar , soit 0,10 rad ou 6◦ . Interférence avec des atomes En 1991, les Allemands, Olivier Carnal et Jürgen Mlynek ont réalisé un interféromètre atomique, de type bifente d’Young, avec des atomes d’hélium. Ces atomes étaient envoyés sur une feuille d’or d’épaisseur très fine, percée de deux fentes F1 et F2 , de largeur ǫ = 2 µm et distantes de a = 8 µm. On obtient, conformément aux prévisions de de Broglie, des résultats analogues à ceux de l’optique.

MICROSCOPE ÉLECTRONIQUE Formation de l’image d’un objet On sait qu’en optique les détails d’un objet ne sont accessibles que si leur taille est de l’ordre de la longueur d’onde : (1x o )min ∼ λ (cf. Chapitre 11). Pour observer des objets de taille très inférieure au micron, on utilise le plus souvent un microscope électronique par 311

DE BROGLIE ET RUSKA : LE COMPORTEMENT ONDULATOIRE DES OBJETS

transmission dans lequel le transfert de l’information, depuis l’objet jusqu’à l’image, n’est plus assuré par la lumière, mais par des électrons ; ces derniers sont émis par une cathode et accélérés par une anode portée à un potentiel électrique positif par rapport à la cathode (Fig. 3). Des lentilles magnétiques modifient la trajectoire des électrons, comme le font les lentilles en verre ou en plastique pour les rayons lumineux. Les lois de l’optique électronique ressemblent alors à celles de l’optique lumineuse.

Figure 3

Schéma d’un microscope électronique par transmission.

Le premier microscope électronique par transmission a été construit par l’Allemand Ernst Ruska en 1937 ; la valeur defv la tension d’accélération était de 20 kV. Avec un microscope électronique courant, de tension d’accélération 100 kV, la longueur d’onde broglienne est de l’ordre du picomètre, précisément 3,7 pm, ce qui montre l’étendue des possibilités dans la vision des objets de petite taille. Dans la pratique instrumentale, le détecteur est le plus souvent une caméra dont les éléments sont des composants semiconducteurs de très petite taille au point que la limite de résolution est limitée par les aberrations 312

LA PENSÉE EN PHYSIQUE

DE BROGLIE ET RUSKA : LE COMPORTEMENT ONDULATOIRE DES OBJETS

des lentilles magnétiques, les fluctuations de la tension d’accélération et du courant d’alimentation des lentilles, ainsi que par les vibrations mécaniques. Actuellement un grandissement de 500 000 est aisément obtenu avec un bon microscope électronique commercial de 100 kV. Pour des électrons rapides, comme ceux issus du canon d’un microscope électronique à haute tension, où les électrons sont émis, sans vitesse, par une cathode portée à un potentiel négatif −Va par rapport à l’anode, on a, puisque l’énergie d’un électron se conserve (cf. Chapitre 13) : Ek = (γ − 1)m e c2 = eVa , avec β = v/c et γ = (1 − β 2 )−1/2 . On en déduit : λD B =

h h = p γβm e c

soit

λD B =

λC,e λC,e = 2 , γβ (γ − 1)1/2

en introduisant λC,e = h/(m e c) ≈ 2,43 pm, la longueur d’onde Compton pour les électrons (cf. Chapitre 15). Pour γ ≈ 1, on retrouve évidemment la valeur non relativiste : λ D B = λC,e /(2Ek /m e c2 )1/2 . Une erreur fréquente de débutants consiste, lorsque l’on connaît l’énergie E d’un objet physique quelconque, à calculer la fréquence associée ν = E / h, et à utiliser à tort l’expression λ = c/ν, qui n’a de sens que pour un photon ou, de façon approchée, pour un objet ultra-einsteinien. Ainsi, un photon et un électron, de même énergie cinétique 2 eV, ont des longueurs d’ondes très différentes, respectivement λ ≈ 0,62 µm et λ D B,e ≈ 0,87 nm, précisément en raison de l’énergie de masse, qui est nulle pour un photon et vaut 0,511 MeV pour un électron. Dans le tableau 1, on a rassemblé les valeurs de λ D B pour plusieurs tensions d’accélération Va ; λ D B demeure très faible devant les dimensions macroscopiques du canon ou des lentilles du microscope. Aussi, la mécanique classique einsteinienne demeure-t-elle suffisante pour analyser la trajectoire des électrons dans le vide. En revanche, les interactions avec la cible matérielle devront prendre en compte le comportement ondulatoire des électrons. 313

DE BROGLIE ET RUSKA : LE COMPORTEMENT ONDULATOIRE DES OBJETS

Tableau 1 lération.

Longueur d’onde broglienne d’un électron en fonction de la tension d’accé-

Va (V ) λ D B ( pm)

103 38,8

104 12,2

105 3,70

106 0,87

107 0,12

En 2008, une résolution de 50 pm a pu être obtenue au laboratoire Lawrence à Berkeley aux États-Unis, avec un microscope électronique fonctionnant sous une tension d’accélération de 200 kV, cela en corrigeant efficacement l’objectif de son aberration de sphéricité. Cependant, une interprétation correcte de l’image d’un atome, obtenue avec un microscope électronique, exige une connaissance suffisante de la formation ondulatoire de ces images, ainsi que des interactions entre l’électron incident et l’atome. Interférence avec des électrons Des franges d’interférence ont été obtenues pour la première fois, en 1954, par l’Allemand Gottfried Möllenstedt, à l’aide d’un microscope électronique, de tension d’accélération 30 kV. Un fil cylindrique F, chargé positivement et placé à 10 cm d’une source d’électrons S, provoque le dédoublement de cette source primaire en deux sources secondaires virtuelles S1 et S2 , cohérentes entre elles (Fig. 4). Le système se comporte alors comme un biprisme optique de Fresnel dont les caractéristiques géométriques sont : S1 S2 = a = 10 µm et d = 23 cm qui est la distance séparant S du plan d’observation. Le calcul de l’interfrange η est conduit comme en optique classique (cf. Chapitre 12), en remplaçant simplement la longueur d’onde optique λ par λ D B . Cette dernière valant 7,12 pm à 30 kV, η = λ D B d/a ≈ 0,16 µm. Le nombre de franges observées est limité par l’étendue de la source primaire S et donc par sa cohérence spatiale. Dans cette expérience, la largeur de la source était de 50 pm.

314

LA PENSÉE EN PHYSIQUE

DE BROGLIE ET RUSKA : LE COMPORTEMENT ONDULATOIRE DES OBJETS

Figure 4

Expérience de Möllenstedt.

En 1956, l’expérience précédente a été améliorée et complétée à Toulouse par Jean Faget et Charles Fert 2 . Le dispositif interférentiel avec une bifente d’Young a été réalisé, en 1992, par le Japonais Fujio Shimizu, en laissant tomber, en chute libre, des atomes de néon ultra-froids (T = 2,5 mK) au-dessus d’une plaque percée de deux fentes microscopiques ; la vitesse des atomes à ce niveau était d’environ 2 m.s−1 , d’où une longueur d’onde d’environ 15 nm ; avec des fentes écartées de 6 µm et placées à 85 cm de l’écran, l’interfrange est de 2,1 mm, ce qui est aisément observable. Les franges d’interférence d’atomes ultra-froids sont actuellement exploitées tant pour les applications en métrologie que pour tester les fondements de la théorie quantique.

2. Charles Fert était le père d’Albert Fert, spécialiste de spintronique (cf. Chapitre 20).

315

DE BROGLIE ET RUSKA : LE COMPORTEMENT ONDULATOIRE DES OBJETS

INTERPRÉTATION PROBABILISTE Une interprétation de l’onde 9, qui caractérise le comportement ondulatoire d’un objet physique, a été proposée en 1926 par le physicien allemand Max Born, puis confortée expérimentalement. L’expérience des trous d’Young, bien connue en optique lumineuse (cf. Chapitre 12), a aussi été réalisée avec des électrons, en 1956, par Faget et Fert (Fig. 5) ; ils ont obtenu des franges d’interférence équidistantes, à l’intérieur d’une enveloppe caractéristique de la figure de diffraction relative à un seul trou.

Figure 5

Interférence d’électrons dans un montage de type trous d’Young.

Cette expérience pionnière a été reproduite de façon plus précise avec deux fentes par l’Allemand Claus Jönsson en 1961. En envoyant des électrons, d’énergie cinétique Ek = 50 keV, sur une feuille de cuivre, percée de deux fentes, de largeur 0,5 µm et distantes de a = 2 µm, Jönsson observa sur une plaque photographique placée dans le plan d’observation des franges d’interférence des ondes électroniques. En transposant l’analyse classique à cette expérience, on trouve (cf. Chapitre 12) : η = λ D B d/a. Cette interfrange mesurée à une distance d = 35 cm était de 1µm, une fois pris en compte le grandissement transversal du système de formation de l’image électronique. Admettant pour longueur d’onde la valeur donnée par la relation de de Broglie, soit λ D B ≈ 5,48 pm, la théorie prévoit une interfrange égale à η ≈ 0,96 µm, en excellent accord avec l’expérience.

316

LA PENSÉE EN PHYSIQUE

DE BROGLIE ET RUSKA : LE COMPORTEMENT ONDULATOIRE DES OBJETS

Dans l’expérience interférentielle avec des électrons, la source primaire S émet des électrons que l’on détecte, après franchissement de la feuille, en un point P du plan d’observation. En réduisant le flux d’électrons, de telle sorte qu’entre S et P, il n’y ait, à tout instant, qu’un seul électron dans l’instrument, on observe des points d’impact discrets dus aux électrons collectés pendant la durée de détection Td . Si cette durée est faible, les points d’impact semblent se répartir de manière aléatoire. En revanche, si elle est suffisamment longue, on obtient une répartition conforme au résultat prévu par la théorie ondulatoire : les impacts se répartissent peu à peu selon la figure d’interférence. Ces évènements étant indépendants, on est conduit à admettre que la fonction d’onde de chaque électron contient toute l’information révélée par la statistique de l’ensemble des impacts, et à avancer avec Born, que, dans un volume élémentaire 1V entourant le point P, la probabilité élémentaire de détecter un électron, à un instant t, est directement reliée à une certaine fonction d’onde 9(r,t) selon l’expression : 1P (r, t) = |9(r, t)|2 1V . Dans cette interprétation, la fonction d’onde a la signification d’une amplitude complexe de probabilité de détecter l’objet physique, au point r à l’instant t, et son module au carré celle d’une probabilité volumique |9(r, t)|2 ; la probabilité de détecter l’objet dans tout l’espace est alors égale à l’unité, puisqu’on est certain de détecter l’électron, à tout instant dans l’interféromètre, entre l’émission par la source et la détection sur l’écran. Ainsi l’onde considérée en quantique est une onde de probabilité ; elle diffère cependant d’une onde classique, mécanique ou électromagnétique, puisqu’elle ne représente pas la variation d’une grandeur physique, comme un déplacement, une pression ou un champ électromagnétique. Selon Born, l’aspect probabiliste exprime un hasard par essence, contrairement à celui que l’on trouve en physique 317

DE BROGLIE ET RUSKA : LE COMPORTEMENT ONDULATOIRE DES OBJETS

classique et que Boltzmann développa en thermodynamique statistique ; dans ce dernier cas, il s’agirait d’un hasard par ignorance. Une expérience analogue à la précédente a été réalisée en 1988, avec un flux de neutrons, très faible, de l’ordre d’un neutron toutes les deux secondes, par le physicien autrichien Anton Zeilinger : la figure d’interférence obtenue est celle attendue. Avec des atomes d’hélium, Jürgen Mlynek a obtenu en 1991 des résultats analogues, ce qui constitue une excellente confirmation de l’interprétation probabiliste de Born. En outre, en tentant de détecter le passage de l’atome par l’une des ouvertures du dispositif interférentiel, à l’aide d’un laser provoquant la luminescence de l’atome, on a constaté la disparition de la figure d’interférence. On en conclut que les deux descriptions, ondulatoire pour interpréter l’interférence des ondes atomiques, ou corpusculaire pour rendre compte des impacts sur le détecteur, sont simultanément incompatibles, comme sont fondamentalement incompatibles les concepts de particule et d’onde : le premier est par définition localisé, contrairement au second. Certains auteurs ont proposé d’introduire un nouveau mot pour exprimer un nouveau concept capable de rassembler ces deux aspects contradictoires en formant un oxymore. Ainsi, le physicien et philosophe argentin Mario Bunge, proposa en 1967 le nom de quanton, que le Français Jean-Marc Lévy-Leblond a tenté de diffuser dans l’enseignement. Dans son livre Lumière et Matière sur l’électrodynamique quantique, qui date de 1985, Richard Feynman cite le mot wavicle, contraction des mots anglais wave et particle, qu’il renonce finalement à utiliser. Ici, nous préférons l’expression générique objet physique pour désigner électron, proton, atome, balle de tennis, etc., dont la réalité complexe fait émerger, selon les conditions expérimentales, soit un comportement particulaire soit un comportement ondulatoire.

318

LA PENSÉE EN PHYSIQUE

DE BROGLIE ET RUSKA : LE COMPORTEMENT ONDULATOIRE DES OBJETS

MICROSCOPE À EFFET TUNNEL Comme son nom l’indique, ce microscope construit en 1982, par les physiciens suisses Gerd Binnig et Heinrich Rohrer, s’appuie sur la possiblité pour un électron de surmonter une barrière d’énergie potentielle Es supérieure à son énergie cinétique Ek , ce qui est exclu en physique classique, mais concevable en physique quantique. Ce franchissement est appelé «effet tunnel», car il suggère que l’électron a traversé classiquement la barrière dans un tunnel. Dans un tel microscope, la barrière considérée est celle constituée par la surface de l’échantillon à analyser et par une électrode métallique, souvent en tungstène et en forme de pointe. La distance x entre les deux surfaces, qui est de l’ordre du nanomètre, est contrôlée par un système piézo-électrique (Fig. 6).

Figure 6

Microscope à effet tunnel.

Un microampèremètre placé dans le circuit extérieur détecte un courant d’intensité I , que l’on attribue à un transfert d’électrons, dans le vide, d’une surface à l’autre, précisément par effet tunnel. Ce courant, proportionnel au facteur de transmission en intensité T de la barrière d’énergie potentielle, varie de façon exponentielle ; en effet, les mesures montrent une décroissance linéaire de lnI avec la largeur L de la barrière, lorsque la tension entre les surfaces en regard est maintenue constante. Ce résultat est conforme à l’analyse quantique : l’intensité I , après traversée d’une épaisseur x, est de la forme :

319

DE BROGLIE ET RUSKA : LE COMPORTEMENT ONDULATOIRE DES OBJETS

  x I (x) = I (0) exp − L0



L0 =

~ . 2(2m e Es )1/2

Avec une pointe en tungstène, matériau pour lequel Es = 4,52 eV, L 0 = 0,46 × 10−10 m = 46 pm. Le mode de fonctionnement le plus fréquent consiste à maintenir le courant tunnel constant au moyen d’un asservissement. Cela conduit à imposer une distance L constante. En effectuant un balayage dans un plan parallèle à la surface, et en enregistrant les variations de position de la pointe, dans la direction perpendiculaire à la surface analysée, on obtient une reproduction fidèle des irrégularités de la surface observée. La résolution spatiale obtenue est de l’ordre de la taille des atomes !

320

LA PENSÉE EN PHYSIQUE

18 Heisenberg et Schrödinger : inégalités, superposition, intrication

Après la tentative de Bohr d’interpréter le rayonnement des atomes à partir d’une théorie classique, contrainte par des règles arbitraires de quantification (cf. Chapitre 16), et la contribution décisive de de Broglie sur le comportemment ondulatoire des objets (cf. Chapitre 17), un réexamen théorique s’imposait pour expliquer les nouveaux résultats que la théorie classique ne permet pas d’expliquer. Deux articles majeurs furent publiés à une année d’intervalle : le premier en 1925, « Réinterprétation des relations cinématique et mécanique dans le cadre de la théorie quantique », de l’Allemand Werner Heisenberg, le second en 1926, « L’équation non relativiste des ondes de de Broglie ; quantification et valeurs propres », de l’Autrichien Erwin Schrödinger. Ces deux textes fondateurs sont à l’origine d’une nouvelle théorie, dite quantique, capable de prévoir et d’expliquer des phénomènes physiques nouveaux très fins, en restituant les résultats de la mécanique classique par approximation. C’est ce que l’hypothèse de de Broglie a permis de préciser, en comparant la 321

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

longueur d’onde associée à une dimension caractéristique de l’objet physique étudié en mouvement (cf. Chapitre 17). En montrant, dès 1926, que son approche était compatible avec celle d’Heisenberg, Schrödinger ouvrit la voie à une nouvelle construction, la physique quantique, que nous désignerons aussi plus brièvement par Quantique. On dit que la relativité d’Einstein a bouleversé les concepts de temps et d’espace (cf. Chapitres 13 et 14) ; cependant, on ne pourrait y voir qu’un raffinement subtil des concepts newtoniens. Au contraire, avec la quantique, un retour sur les fondements épistémologiques de la physique classique s’avère indispensable, afin d’éviter que les résultats obtenus paraissent tous paradoxaux, au point d’entretenir, voire promouvoir, une pensée magique et donc obscurantiste.

CONTRIBUTION D’HEISENBERG La mécanique des matrices Devant les difficultés rédhibitoires soulevées par le modèle que Bohr proposa pour l’atome d’hydrogène, cela malgré une restitution remarquable des valeurs des raies spectrales observées (cf. Chapitre 16), Heisenberg considéra illusoire de traiter le problème posé en introduisant, comme en mécanique classique, des grandeurs, telle la position de l’électron dans l’atome, qui sont en fait inobservables. Il proposa une théorie ne s’appuyant que sur les seules grandeurs observables, telle la fréquence du rayonnement émis, directement liée à la différence de niveaux d’énergie ; ainsi, il introduisit les différents éléments spectraux νnm = (E n − Em )/ h, qui caractérisent les seules transitions. Tout se passe comme si l’électron dans l’atome d’hydrogène ne pouvait être caractérisé que par l’ensemble des transitions auxquelles il était associé. C’est pour cette raison qu’Heisenberg considéra qu’en Quantique tout grandeur physique, associée à un objet physique, devait être représentée par un tableau de nombres, appelé matrice. Aussi, la théorie fondant la réinterprétation d’Heisenberg fut 322

LA PENSÉE EN PHYSIQUE

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

appelée « la mécanique des matrices ». À sa sortie, en 1925, elle n’eut pas de succès auprès des physiciens, notamment parce que beaucoup parmi eux ignoraient le calcul matriciel, connu seulement depuis le milieu du xixe siècle, mais pas uniquement ; en outre, l’expression des lois nouvelles s’éloignait trop de celles auxquelles ils étaient habitués. Inégalités spatiales d’Heisenberg Les inégalités spatiales d’Heisenberg concernent la position et la quantité de mouvement d’un objet physique. Plus généralement, ces inégalités sont relatives à tout couple de grandeurs physiques, dites incompatibles, relatives à l’objet. Avec la diffraction en optique, on avait déjà constaté la vaine tentative de localisation d’un faisceau lumineux parallèle, par simple réduction de sa largeur ; cette dernière implique irrémédiablement un éparpillement de la lumière qui satisfait aux inégalités de la forme 1x 1kx ≥ 1/2, où 1x et 1kx désignent respectivement les écarts quadratiques en position et en orientation, tels qu’on a pu les estimer concrètement (cf. Chapitre 10). On montre que la valeur minimale 1/2 est obtenue pour un groupe d’ondes gaussien, c’est-à-dire un groupe d’ondes caractérisé par une dépendance spatiale de la forme exp(−x 2 /a 2 ). Il en résulte qu’un paquet d’ondes est d’autant plus étalé spatialement qu’il est comprimé en orientation. On retrouve le cas limite de l’onde lumineuse plane et monochromatique, pour laquelle 1kx = 0 et donc 1x infini. En multipliant l’inégalité précédente par ~, on introduit l’extension de la composante px = ~kx de la quantité de mouvement du photon : 1x 1px ≥

~ 2

Cette inégalité établit que l’extension spatiale caractéristique 1x doit nécessairement être associée simultanément à une extension en quantité de mouvement, dans la même direction. les grandeurs conjuguées x et px sont incompatibles. Étendues aux deux autres directions de 323

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

l’espace, on obtient les inégalités spatiales suivantes : 1y 1p y ≥

~ 2

et 1z 1pz ≥

~ 2

Notons que rien ne s’oppose à une détermination précise simultanée de la position selon Ox et de la composante de la quantité de mouvement selon O y ou Oz. Les mesures de px et de y ou z sont, elles, compatibles. En 1927, Heisenberg généralisa les relations précédentes à tout objet physique, de quantité de mouvement p, astreint à passer à travers une ouverture d’extension spatiale limitée. On peut mettre en évidence expérimentalement ce type d’inégalités en envoyant, sur une fente de largeur D, un objet physique comme un électron par exemple. Après traversée de la fente, l’objet est diffusé avec un vecteur quantité de mouvement p′ , de même valeur que p, mais qui fait l’angle θ avec la direction incidente (Fig. 1a). La relation d’Heisenberg donne alors : D 1px ≥

~ 2

avec 1px = p ′ sin θ = p sin θ

Les inégalités spatiales précédentes permettent de déterminer la limite de résolution (cf. Chapitre 17) d’un microscope électronique à transmission parfait, c’est-à-dire sans imperfections instrumentales (Fig. 1b).

Figure 1 Mise en évidence de l’inégalité spatiale d’Heisenberg. a) Par une fente. b) Dans un microscope électronique parfait.

324

LA PENSÉE EN PHYSIQUE

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

En 1930, Heisenberg justifia ces inégalités spatiales par une expérience de pensée, connue désormais sous le nom de « microscope d’Heisenberg » ; il proposait d’analyser les conditions dans lesquelles un instrument permettrait de mesurer la position d’un électron. L’analyse est la même que précédemment, même si Heisenberg introduisit inutilement une collision de type Compton (cf. Chapitre 15) entre un photon γ , le médiateur de la mesure, et l’électron, l’objet à observer. Ces inégalités spatiales d’Heisenberg conduisent à un effondrement du concept classique de trajectoire, car ce concept suppose implicitement la connaissance précise de la position et de la quantité de mouvement de l’objet physique considéré. Précisons cependant que, pour un objet physique, de petite taille, par exemple un grain de poussière, de masse m = 1 µg, l’analyse classique est largement suffisante. Avec un appareil de mesure capable d’estimer sa position, à quelques nanomètres près, soit (1x)m ≈ 10−9 m, la limite imposée par l’inégalité d’Heisenberg, à la connaissance simultanée précise de sa vitesse, est donnée par : 1vx ≥ ~/(2 m 1x m ) ≈ 5 × 10−17 m.s−1 , ce qui est beaucoup plus petit que la précision (1v)m donnée par les instruments les plus performants. Le cadre classique suffit donc largement pour décrire avec précision le mouvement d’un tel objet à l’aide de sa trajectoire. Inégalité temporelle d’Heisenberg Il existe une quatrième inégalité d’Heisenberg qui concerne le temps et l’énergie, en raison du lien entre ces deux grandeurs : le produit de l’un par l’autre est dimensionnellement fixé ; c’est une action, comme le produit d’une distance par une quantité de mouvement. Cette inégalité rappelle celle bien connue en électromagnétisme, qui relie la durée 1t d’une vibration et son extension spectrale 1ω : 1t 1ω ≥ 1/2. En multipliant les deux membres par ~, on fait apparaître la largeur énergétique 1E = ~ 1ω, associée au photon, ce qui donne le résultat suivant :

325

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

~ 2 Heisenberg généralisa l’inégalité précédente à un objet physique quelconque, de durée caractéristique 1t et d’énergie E . Cette inégalité ressemble aux trois inégalités précédentes, mais elle en diffère fondamentalement, en raison du rôle particulier du temps comme paramètre d’évolution. En effet, cette quatrième inégalité implique que la conservation de l’énergie E d’un système isolé ne peut être réalisée qu’avec une certaine approximation ~/1t, directement liée à la durée caractéristique 1t du phénomène étudié. À la limite, lorsque cette durée devient infiniment grande, l’extension 1E s’annule ; aussi les systèmes stationnaires sont-ils caractérisés par une énergie déterminée. 1t 1E ≥

Dérives sémantiques On cite souvent les inégalités d’Heisenberg en utilisant l’expression « principe d’incertitude ». Si cette expression a plongé les physiciens dans la perplexité, même Heisenberg qui en est à l’origine, elle a, semble-t-il, beaucoup plu à certains artistes, philosophes, journalistes et même personnes politiques. Tous, de formation non scientifique, ont été à l’origine d’une publicité naïve du concept, voire d’une promotion de la pensée magique auprès de la population. Nous l’avons ici volontairement évitée pour deux raisons. La première est que, historiquement, ces inégalités ont été énoncées dans un contexte de découverte et non d’approfondissement d’une théorie physique élaborée. Aujourd’hui, ces inégalités apparaissent sous forme de théorèmes, car elles résultent de la description de la réalité en termes d’ondes de probabilité. À l’analyse, en Quantique, toute grandeur physique est spécifiée par un spectre de valeurs probables. La seconde raison est que le terme « incertitude » fait penser à une imprécision expérimentale éventuellement surmontable, et non à une limitation fondamentale, indépendante de la qualité technique d’un instrument. Dans son texte original, Heisenberg utilise certes le mot 326

LA PENSÉE EN PHYSIQUE

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

allemand « Ungenauigkeit », que l’on traduit par « incertitude », mais il fait remarquer que le terme « Unbestimmtheit », qui signifie lui « indétermination », serait plus approprié. L’expression « principe d’indétermination », finalement choisie par Heisenberg, déclencha une réaction antidéterministe, même parmi les scientifiques de renom, tels Eddington, Bohr et Born. En réalité, comme l’a souligné, en 1933, Paul Langevin 1 , les inégalités d’Heisenberg expriment non pas une crise de la physique mais la crise d’une vision mécaniste de la physique. Cette dernière, héritée du xixe siècle, réduit les objets physiques, de taille microscopique, à des points matériels qui évoluent sur des trajectoires, alors que la réalité de ces objets est certainement plus complexe, comme le montre l’émergence de l’aspect ondulatoire. Dans ce contexte, l’expression encore trop souvent employée de « dualité onde-corpuscule » est un résidu fâcheux de cette prise de position mécaniste. Il vaudrait mieux admettre d’emblée que la réalité est certainement plus complexe et présente, selon le mode détection, divers aspects dont au moins deux, l’un corpusculaire et l’autre ondulatoire. C’est la raison pour laquelle nous utilisons l’expression générique, objet physique, pour désigner un électron, un proton, ou autre, ces objets de masse et de charge définies ne se réduisant à des corpuscules, localisés dans l’espace, que dans une vision mécaniste simplifiée. On cite souvent, avec raison, la métaphore du cylindre (Fig. 2), dont la projection, selon un plan perpendiculaire à son axe de révolution, est un disque, alors que sa projection dans un plan parallèle à cet axe est un rectangle. La réalité, représentée ici par le cylindre, est évidemment plus complexe, et aucune des réductions précédentes ne peut l’exprimer convenablement, d’autant moins qu’elles tendent à le réduire à des figures contradictoires, alors qu’« elle est les deux à la fois ». Une manière de souligner la pertinence de cette métaphore est de rappeler l’une des expériences de pensée proposées en 1978 par Wheeler. Il imagina un dispositif interférentiel, de type bifente d’Young, éclairé par une source lumineuse lumineuse S, capable 1. Bernadette Bebsaude-Vincent, Propos d’un physicien engagé, Vuibert, 2007. 327

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

Figure 2 Métaphore du cylindre se projetant selon un rectangle ou un disque, respectivement dans un plan longitudinal et dans un plan transversal.

d’émettre des photons un par un, de façon contrôlée. Deux détecteurs D1 et D2 sont disposés le long des directions définies par S et les fentes F1 et F2 , symétriquement (Fig. 3).

Figure 3

Expérience de pensée de Wheeler.

Une fois un photon émis par la source, un écran d’observation (sensible à la lumière) est interposé devant les deux détecteurs ou enlevé, très rapidement et de façon aléatoire. Connaissant la durée qui sépare l’instant d’émission de l’instant de détection par D1 ou D2 , Wheeler pensait ainsi pouvoir préciser les conditions du choix pour 328

LA PENSÉE EN PHYSIQUE

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

le photon, à la sortie de la bifente : soit maintenir un comportement corpusculaire, selon une trajectoire rectiligne vers les deux détecteurs, soit adopter un comportement ondulatoire sur un écran d’observation placé devant les détecteurs. Aussi ce type d’expérience est-il dit à choix retardé. En 2007, le physicien français Philippe Grangier put réaliser une expérience analogue à celle suggérée par Wheeler. Les résultats expérimentaux obtenus confirment les prédictions quantiques : i) En l’absence d’écran, le photon émis par la source S est détecté, soit par D1 , soit par D2 , de façon équiprobable. ii) En présence d’écran, on observe des franges d’interférence. Cette expérience montre que la lumière n’est ni un corpuscule, ni une onde, mais un objet physique manifestant, selon les conditions expérimentales, soit un comportement corpusculaire, soit un comportement ondulatoire 2 .

CONTRIBUTION DE SCHRÖDINGER Opérateur hamiltonien et opérateur énergie Rappelons que le comportement d’un objet physique libre, c’est-àdire soumis à aucune interaction, d’énergie E et de quantité de mouvement p, est décrit, selon de Broglie, par une onde de probabilité, d’expression complexe :   i 9(r, t) = ψ m exp − (E t − p · r) ~ dans laquelle ψ m est une amplitude constante a priori complexe (cf. Annexe 1). La question cruciale qui se pose alors concerne la nature de l’équation à laquelle cette fonction satisfait ; c’est précisément ce à quoi Schrödinger s’employa avec détermination. 2. Certains auteurs ont cru, à cette occasion, devoir introduire l’oxymoron « causalité rétrograde ».

329

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

Dans la suite, on omettra dans l’énergie E l’énergie de masse mc2 , qui est constante, tant que les objets considérés gardent leur intégrité (cf. Chapitre 13). Cette omission n’aura pour conséquence qu’une réduction de la pulsation ω = E /~ de l’onde de la pulsation constante mc2 /~, par l’intermédiaire du terme de phase exp(−i mc2 t/~). Notons que, dans l’expression précédente de la fonction d’onde, la pulsation, rapport de l’énergie E sur ~, doit être positive, et par conséquent l’énergie aussi. C’est en prenant en compte l’énergie de masse, dans l’approximation non relativiste, qu’on lève l’absurdité des pulsations ou des fréquences négatives, lorsque l’énergie est négative ; en effet, en physique newtonienne, on peut choisir arbitrairement l’origine des énergies, ce qui est exclu en relativité. Lorsque l’objet est soumis à une interaction caractérisée par l’énergie potentielle E p (r), sa quantité de mouvement et son énergie cinétique ne sont plus des constantes du mouvement, en raison des lois de la mécanique classique (cf. Chapitres 3 et 5). En quantique, l’analyse est plus subtile, car l’état d’un objet, par exemple un électron ou un atome, à un instant t, est entièrement déterminé par une certaine fonction d’onde 9(r, t), à valeur complexe, définie en tout point de l’espace. La question essentielle est alors de savoir comment accéder à cette fonction d’onde. L’équation de Schrödinger répond précisément à cette interrogation ; elle fait apparaître effectivement la fonction 9, soumise à deux opérateurs qui agissent sur elle. Le premier est l’opérateur énergie, noté Eˆ , défini à partir du paramètre d’évolution qu’est le temps t, selon Eˆ = i ~(1/1t) r 3 ; dans cette expression, la parenthèse avec l’indice r signifie que l’action de l’opérateur sur la fonction 9 se calcule en considérant le rapport 19/1t tout en maintenant le vecteur spatial r inchangé. Le second est l’opérateur hamiltonien, Hˆ , appelé ainsi car construit à partir de l’hamiltonien classique, concept introduit par l’Irlandais William Hamilton dès 1837 ; c’est la somme de l’énergie cinétique 3. Eˆ se lit E chapeau.

330

LA PENSÉE EN PHYSIQUE

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

Ek = p 2 /(2m) et de l’énergie potentielle E p ; la quantité de mouvement p est remplacée par un opérateur d’expression −i ~(1/1x)t , à une dimension spatiale. La lettre H fut choisie par Lagrange, en l’honneur de Huygens et Hamilton. L’équation de Schrödinger s’écrit alors : Hˆ 9 = Eˆ 9, ce qui traduit l’égalité des actions de l’opérateur hamiltonien et de l’opérateur énergie sur 9. En raison de la relation étroite entre l’énergie et le temps, cette équation donne l’évolution de l’état 9. Aussi doitelle être considérée comme l’équation fondamentale à laquelle satisfait l’évolution de tout objet physique, tout comme les lois du mouvement de Newton ou d’Einstein, dans l’approximation classique. Sa validité repose évidemment sur la concordance des résultats expérimentaux et des prévisions théoriques. Précisons que l’équation précédente n’est pas relativiste et que, dans ce contexte, l’énergie de masse de l’objet a été omise dans l’expression de l’énergie. Influence d’un champ magnétique Lorsque l’objet porte une charge électrique q, l’énergie potentielle E p est directement liée au potentiel électrique V , associé à l’interaction électromagnétique avec un système extérieur : E p = qV . L’influence d’un champ magnétique B sur l’objet fait apparaître dans l’équation de Schrödinger, non pas ce champ, mais le potentiel vecteur A dont il dépend ; à la quantité de mouvement p, on doit alors faire correspondre l’opérateur −i ~ grad − q A. Contrairement aux champs E et B, les potentiels V et A ne sont pas parfaitement déterminés ; on dit qu’ils dépendent d’une jauge, c’està-dire d’une certaine fonction arbitraire du temps et de l’espace qui permet de les mesurer. Une question se pose donc sur la modification de la fonction d’onde 9 qu’implique cette indétermination. L’analyse montre que cette modification ne concerne que la phase, et donc n’a

331

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

aucune incidence sur la seule grandeur expérimentalement accessible qui est, non pas 9, mais |9|2 . En 1949, deux physiciens britanniques William Ehrenberg et Raymond Siday, spécialistes de microscopie électronique, proposèrent de modifier un système interférentiel, de type biprisme de Fresnel, avec des électrons (cf. Chapitre 17), en soumettant ces derniers au champ magnétique uniforme B produit par un long solénoïde (Fig. 4). Ils prédirent une modification de l’état interférentiel de l’onde électronique, dans le plan d’observation, par suite de cette interaction magnétique. Après analyse, ils en conclurent que cette modification faisait apparaître essentiellement, non pas le champ magnétique B, ni le potentiel vecteur A dont il dérive, mais son flux à travers la surface définie par le contour fermé SC1 PC2 S, P étant le point de détection, C1 et C2 deux portions de contour entourant le solénoïde.

Figure 4 Expérience de Möllenstedt avec décalage interférentiel provoqué par un flux magnétique.

Le problème soulevé par l’indétermination des potentiels électromagnétiques fut repris, une dizaine d’années plus tard, par deux Américains, Yariv Aharonov et David Bohm, sans référence au travail précédent. Selon eux, les potentiels V et A, pourtant indéterminés, joueraient un rôle fondamental plus important que les champs E,B. Leur argument était fondé sur une vision locale de l’interaction magnétique, les électrons évoluant dans une zone où le champ B était nul, contrairement au potentiel vecteur A. De nombreux physiciens, et non des moindres, adoptèrent ce même point de vue, probablement en raison de l’intérêt technique incontestable des potentiels. 332

LA PENSÉE EN PHYSIQUE

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

L’interprétation actuelle serait plutôt dans la prise en compte du caractère non local de la théorie quantique 4 . Application à l’atome d’hydrogène Dans l’atome d’hydrogène, formé par un électron en interaction coulombienne avec un proton, l’énergie potentielle a pour expression (cf. Chapitre 16) : E p (r ) = −qe2 /r avec qe2 = e2 /(4π ǫ0 ). Schrödinger, aidé par le mathématicien Hermann Weyl, a pu montrer, en 1926, que son équation permettait d’obtenir, sans hypothèse supplémentaire ad hoc, les états stationnaires de l’atome d’hydogène. En effet la résolution de cette équation conduit à des solutions qui n’existent que pour des valeurs particulières En de l’énergie, n étant un entier :

En =

E1 n2

où E1 = −

m e qe4 ≈ −13,6 eV 2~2

Cette énergie E1 , caractéristique de l’atome d’hydrogène, dans son état fondamental, s’écrit aussi qe2 /(2a B ), a B = ~2 /(m e qe2 ) ≈ 52,9 pm étant le rayon de l’atome de Bohr (cf. Chapitre 16). La restitution des valeurs des énergies des états de l’atome d’hydrogène, à partir d’une théorie autonome et cohérente, a constitué le premier succès incontestable de la physique quantique. Une analyse plus poussée montre que, si les valeurs de l’énergie ne dépendent que du nombre quantique n, il n’en est pas de même de la fonction d’onde 9 ; cette dernière faitssssss apparaître aussi d’autres nombres quantiques, notamment le nombre ℓ directement relié au moment cinétique de l’électron orbitant autour du proton. Pour chaque valeur de n, ce nombre quantique ℓ ne peut prendre que les n valeurs comprises entre 0 et n −1, précisément ℓ = 0, 1, 2, · · · , n −1. En outre, pour chaque valeur de ℓ, une composante quelconque du moment cinétique orbital prend 2ℓ+1 valeurs. Sur la figure 5, on a représenté les trois premiers niveaux du spectre énergétique de l’atome d’hydrogène, E1 ≈ −13,6 eV, E2 ≈ −3,4 eV et E3 ≈ −1,5 eV. 4. BUP, Effet ESAB et signification physique du potentiel vecteur, 2020.

333

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

Figure 5

Spectre énergétique de l’atome d’hydrogène.

Propriétés de l’équation de Schrödinger Comme la loi de la dynamique de Newton et les équations de l’électromagnétisme de Maxwell, l’équation de Schrödinger est déterministe, au sens où la connaissance, à un instant t, de la fonction d’onde 9(r, t) d’un objet physique, en interaction avec l’environnement, permet d’en déduire cette fonction à tout autre instant, ultérieur ou antérieur. À ce déterminisme théorique, on doit ajouter, comme en physique classique, l’influence éventuelle d’une grande sensibilité aux conditions initiales, laquelle peut altérer la prédictibilité des résultats obtenus. La signification probabiliste du module de la fonction d’onde complexe n’implique pas un indéterminisme, mais plutôt une insuffisance des notions introduites en physique classique pour décrire une réalité plus riche et donc plus difficilement accessible. L’équation de Schrödinger est fondamentalement réversible, c’està-dire que le changement de la variable temps en son opposé ne 334

LA PENSÉE EN PHYSIQUE

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

provoque qu’un simple changement de l’état 9 en son conjugué, ce qui laisse inchangé le terme de probabilité accessible. Bien que son écriture mathématique suggère une analogie avec l’équation de diffusion de la température, celle établie par Fourier en 1815 (cf. Chapitre 7), elle en diffère fondamentalement par son rapport au temps, précisément en raison de la présence du nombre imaginaire i qui accompagne le taux de variation par rapport au temps ; en effet, la diffusion thermique est au contraire irréversible, comme toute la thermodynamique réelle (cf. Chapitre 8). Elle s’apparenterait plutôt à l’équation de propagation des ondes électromagnétiques dans le vide. Une autre propriété essentielle de l’équation de Schrödinger est la linéarité, laquelle signifie que, si 9 1 (r, t) et 9 2 (r, t) sont deux solutions de cette équation, toute combinaison linéaire, de la forme : 9(r, t) = c1 9 1 (r, t) + c2 9 2 (r, t), où c1 et c2 sont deux facteurs complexes arbitraires, est aussi une solution de l’équation. C’est précisément en raison de cette linéarité que le système peut exhiber plusieurs solutions possibles au cours d’une mesure. Une analyse attentive montre que l’équation de Schrödinger fait apparaître une dissymétrie entre les variables spatiales et la variable temporelle : en effet, les premières interviennent à l’ordre deux, alors que le temps n’apparaît qu’à l’ordre un. Cette dissymétrie, mise en évidence par Dirac, dès 1928, est à l’origine de la nécessité d’ajouter « à la main » le spin (cf. Chapitre 20). L’idée essentielle de Dirac fut d’introduire un hamiltonien à l’ordre un, dans lequel espace et temps apparaissent tous deux au premier ordre, ce qui fit émerger naturellement le spin. Dirac le fit en s’appuyant sur la transformation de Lorentz, ce qui induisit en erreur beaucoup de scientifiques qui s’étaient contentés de survoler le contenu de la publication. En utilisant la transformation de Galilée et non celle de Lorentz, on peut faire émerger le spin de façon analogue, ce qui établit que le spin est une

335

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

grandeur essentiellement quantique, sans aucun lien avec la relativité d’Einstein. Le chat de Schrödinger La transposition cavalière de la superposition quantique à un objet macroscopique, plongé dans un environnement classique, a été présentée historiquement par Schrödinger, lui-même, en 1935, dans une lettre adressée à Einstein, sous la forme de l’expérience de pensée suivante. Un chat est enfermé dans une boîte opaque, dans laquelle on a placé préalablement un flacon, contenant un poison violent ; un système, commandé par la désintégration aléatoire d’un noyau radioactif, est capable de briser le flacon, libérer le poison, et donc provoquer la mort immédiate du chat. Si l’on considère le chat comme un objet quantique, ce qu’il n’est pas, au bout d’une durée égale à une demi-vie radioactive, il peut se trouver dans l’un des deux états équiprobables suivants : l’état vivant ev ou l’état mort em (Fig. 6).

Figure 6

Chat de Schrödinger.

En physique classique, avant toute mesure, l’état est soit ev, soit em. En revanche, en physique quantique, avant toute mesure, l’état est 336

LA PENSÉE EN PHYSIQUE

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

une combinaison linéaire des deux états ev et em, donc intermédiaire entre ev et em ! Le passage de cet état quantique intermédiaire au résultat de la mesure, ev ou em, est appelé la réduction du paquet d’ondes. Son mécanisme a été interprété, il y a une dizaine d’années environ, à l’aide du concept de décohérence, c’est-à-dire de disparition de l’interférence entre les deux états ev et em. C’est l’environnement, essentiellement macroscopique, qui provoque la disparition de cette interférence ; cependant, la décohérence ne permet pas de prévoir la nature précise de l’état final, ev ou em. Afin d’analyser la transition quantique-classique et donc la progression de la décohérence, le physicien français Serge Haroche a réalisé, en 1996, un système constitué de quelques photons, pouvant exister dans un état de superposition à deux états. Il a constaté qu’en augmentant progressivement le nombre de photons du système, la superposition interférentielle des deux états ev et em s’estompait jusqu’à disparaître ; en outre, il a montré que la durée de vie de l’état intermédiaire, appelée durée de décohérence, variait comme l’inverse de la taille de l’objet. Le paradoxe de l’expérience de pensée du chat de Schrödinger est donc levé par la nature macroscopique du chat et de son environnement. Intrication L’intrication entre deux systèmes Sa et Sb est un concept introduit par Schrödinger, dès 1935, sous le mot allemand « Verschränkung » qui signifie « imbrication », « enchevêtrement » ou « emmêlement ». Selon Schrödinger, ce phénomène est essentiellement quantique, au point qu’il a considéré l’intrication, non comme une particularité permise par la physique quantique, mais comme la propriété caractéristique de cette dernière. L’intrication entre Sa et Sb impliquerait une relation entre eux, quelle que soit la distance qui les sépare, ce qui semble en contradiction avec la vitesse finie de propagation des signaux. Aussi, à cette même 337

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

date, Einstein publiait-il, avec deux de ses collègues américains, Boris Podolsky et Nathan Rosen, un article mettant en cause cette prédiction en avançant une argumentation subtile dite EPR (initiales des trois auteurs). Techniquement, on attribue l’intrication à la propriété de la fonction d’onde 9(qa , qb ) du système global S , réunissant Sa et Sb , qui dépend des variables qa de Sa et qb de Sb ; elle ne peut pas être mise sous la forme séparable d’un simple produit 9a (qa ) 9b (qb ). Par exemple, si chacun des systèmes Sa et Sb peut se trouver dans deux états 1 et 2, alors on doit envisager, en physique quantique, des états de la forme : 9(qa , qb ) = c1,2 9a,1 (qa ) 9b,2 (qb ) + c2,1 9a,2 (qa ) 9b,1 (qb ) c1,2 et c2,1 étant deux coefficients constants. Il en résulte que la mesure d’une grandeur sur Sa conditionne le résultat de mesure de la même grandeur effectuée sur Sb . Montronsle sur deux objets physiques Sa et Sb , identiques et sans interaction, confinés dans deux états 91 et 92 , d’énergies respectives E1 et E2 . La mesure de l’énergie de Sa donne soit E1 soit E2 , avec la même probabilité 0,5. La mesure de l’énergie de Sb fournit, elle, instantanément, en raison de la conservation de l’énergie, soit E2 soit E1 respectivement, puisque l’énergie totale de l’ensemble est, elle, parfaitement déterminée, et vaut E = E1 + E2 . Les résultats de mesure de l’énergie sur Sa et sur Sb sont donc parfaitement corrélés : une fois la mesure sur Sa effectuée, le résultat de mesure sur Sb est certain, que cette mesure soit effectuée ou non. Ainsi, l’intrication de Sa et Sb se manifeste par des corrélations entre des résultats de mesure d’une même grandeur, ceci sans que les deux systèmes communiquent entre eux. L’intrication peut concerner deux objets identiques discernables ou deux objets indiscernables, comme deux électrons, deux atomes identiques ou deux photons.

338

LA PENSÉE EN PHYSIQUE

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

Deux systèmes Sa et Sb peuvent s’intriquer s’ils interagissent au moment de leur création : paires d’électrons ou de photons, ou produits d’une dissociation. L’intrication peut également survenir lors de la réflexion-transmission sur un miroir, ou lors de la collision entre objets identiques. La mesure ultérieure d’une grandeur physique sur l’un des sous-systèmes conduit immédiatement à une connaissance partielle, voire totale, de la même grandeur sur l’autre : les résultats de mesure sont alors partiellement, voire totalement, corrélés. Si Sa et Sb se trouvent en deux lieux très éloignés l’un de l’autre, il y a corrélation à grande distance, au moment de la mesure. Ces corrélations quantiques diffèrent fondamentalement des corrélations classiques ; en effet, ces dernières peuvent être illustrées par une paire de gants : l’identification par un observateur A d’un élément de la paire, droite ou gauche, donne immédiatement, à un observateur B qui emporte l’autre gant, la nature, gauche ou droite, de ce dernier, même si les deux gants (observateurs) sont très éloignés l’un de l’autre, et même après une seule observation. En raison de l’intrication, les corrélations quantiques impliquent que les deux objets physiques n’aient pas d’individualité, au point de ne présenter que des propriétés conjointes. C’est la mesure réalisée par un observateur A, qui affecte une propriété à Sa , et révèle alors instantanément la propriété homologue de Sb , indépendamment d’une mesure éventuelle effectuée par un autre observateur B. Cette absence d’individualité des objets par l’intrication est appelée la non-séparabilité 5 . En 1982, le physicien français Alain Aspect montra expérimentalement que le système formé par une paire de photons, émis en cascade, pouvait être intriqué. Pour cela, il s’appuya sur un test établi de façon générale et rigoureuse par le scientifique irlandais John Bell : en l’absence d’intrication, un certain facteur de corrélation bien 5. Cette propriété relève du holisme, attitude philosophique qui consiste à considérer toute caractéristique d’un objet comme issue d’une relation avec tous les autres objets.

339

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

défini ne devrait pas dépasser une valeur précise ; il constata pourtant clairement un dépassement, confirmant ainsi l’analyse de Schrödinger et infirmant par conséquent les réserves d’Einstein 6 . L’expérience d’Aspect fut reprise, confortée et étendue à des distances d’intrication de photons de plusieurs kilomètres. La possibilité de remplacer l’intrication de deux photons par celle de deux atomes a permis d’obtenir des états intriqués de durée de vie suffisamment grande, et donc d’étudier expérimentalement l’intrication de manière plus approfondie. On envisage actuellement des applications de l’intrication dans plusieurs domaines, notamment en cryptographie, cette dernière consistant, pour un émetteur A, à transmettre un message à un destinataire B, dont le contenu est caché à tout autre destinataire « espion » E ; ici, l’intrication permettrait de détecter sans ambiguïté l’espion. Téléportation quantique En science-fiction, la téléportation consiste à faire disparaître un objet quelconque, initialement placé à un endroit, par exemple sur Terre, et à le faire réapparaître instantanément en un autre lieu, même très éloigné du précédent, par exemple dans une galaxie lointaine. Pour les physiciens, même les plus audacieux, une telle performance est impossible à réaliser, car elle suppose un abandon des lois universelles connues en physique. En effet la relativité exclut le dépassement de la vitesse de la lumière ; de même, la thermodynamique, précisément le premier principe de la thermodynamique, exclut que l’on puisse provoquer la disparition d’un objet, sans apporter de l’énergie, puis le faire réapparaître en un autre endroit très éloigné, toujours sans énergie supplémentaire. Aussi est-il nécessaire de préciser avant tout que la téléportation quantique ne concerne nullement la matière ou l’énergie d’un objet, 6. Contrairement à une affirmation répandue, la contribution d’Einstein à la physique quantique exprima moins un rejet de cette théorie qu’une interrogation philosophique sur les conséquences physiques de l’intrication. Elle a même joué un rôle essentiel dans le développement actuel de la théorie.

340

LA PENSÉE EN PHYSIQUE

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

mais seulement la fonction d’onde, laquelle contient toute l’information portant sur ses caractéristiques, par exemple son état physique. Le qualificatif quantique est donc essentiel, d’autant plus que cette téléportation s’appuie généralement sur les propriétés singulières des objets quantiques intriqués. La première téléportation quantique a été réalisée avec des photons, en 1997, par l’Autrichien Anton Zeilinger ; l’une des dernières le fut en 2016, par Pan Jianwei, l’un de ses élèves chinois, encore avec des photons, mais entre un télescope situé au Tibet et un satellite distant de 1 200 km. Ces dernières années, l’intrication d’atomes (masse non nulle) a permis d’étendre les possibilités de téléportation quantique à des fermions, pour lesquels la durée de vie des états intriqués est suffisamment grande, ce qui permet d’améliorer la qualité de l’analyse expérimentale. Ordinateur quantique Le fonctionnement d’un ordinateur classique s’appuie sur l’existence de deux états, notés 0 ou 1, appelés des bits, contraction de « binary unit ». Ces états expriment par exemple l’absence ou la présence d’un courant dans un composant électronique,. Dans un ordinateur quantique, on utilise des bits quantiques ou qubits, qui ont la propriété de prendre simultanément les valeurs 0 et 1, par superposition et intrication. On donne ainsi à l’élément considéré la possibilité d’être dans une infinité d’états, et non plus dans l’un des deux états uniquement. Cette propriété particulière permet de remplacer le mode de fonctionnement séquentiel d’un ordinateur classique par le mode parallèle d’un ordinateur quantique, évidemment plus rapide. Le problème délicat qu’il faut résoudre est la réalisation de tels qubits, capables d’être dans les deux états à la fois, cela pendant une durée suffisante. En effet, en raison de la décohérence due à l’influence de l’environnement, la durée d’existence des qubits est limitée aujourd’hui à quelques minutes, pour des ions de calcium piégés à l’aide de 341

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

lasers. Avec des circuits supraconducteurs, de taille micrométrique, interrompus par des barrières isolantes, qui sont plus simples à réaliser, les durées de cohérence sont plus courtes mais leur manipulation est bien plus rapide. Une troisième voie pour réaliser des qubits en nombre suffisant est celle des spins des électrons dans le silicium. Il est actuellement difficile de prévoir une date de naissance pour le premier ordinateur quantique aussi performant qu’un modeste ordinateur classique.

BASES ÉPISTÉMOLOGIQUES DE LA PHYSIQUE QUANTIQUE Dès sa naissance, la physique quantique a posé des problèmes d’interprétation, même à ses fondateurs, précisément en raison de la remise en cause des hypothèses de base implicitement admises par la physique classique. C’est Einstein qui permit d’expliciter les nouvelles bases épistémologiques. En physique quantique non relativiste, aucune des bases épistémologiques de la physique classique ne peut être conservée : i) il n’y a pas de localisation spatiale des objets, ii) il n’y a pas de séparabilité des objets, iii) il n’y a pas d ′ individualité des objets, iv) il n’y a pas de principe d’action locale, ce principe stipulant que les interactions se propagent à vitesse finie, conformément aux conclusions de la relativité restreinte. En physique quantique relativiste, le principe d’action locale est évidemment conservé. On comprend dès lors que la physique quantique soit contreintuitive, encore bien plus que la relativité ! Déjà en 1935, Schrödinger affirmait que les constituants ultimes de la matière n’avaient aucune « identité » 7 . 7. Physique quantique et représentation du monde, Éditions du Seuil, p. 37, 1992.

342

LA PENSÉE EN PHYSIQUE

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

En philosophie des sciences, on sépare aujourd’hui globalement les attitudes des scientifiques en deux grandes catégories. La première est celle des réalistes, pour lesquels la pensée peut, sinon atteindre la réalité en soi, s’en approcher de façon asymptotique ; Einstein et le physicien américain Steven Weinberg en sont des représentants illustres. Pour beaucoup d’entre eux « l’attitude réaliste est la seule qui ne fasse pas du succès de la science un miracle ». La seconde est formée par celle des anti-réalistes, précisément les positivistes. Pour eux, la pensée ne pourrait atteindre que les relations et les lois et non les choses en elles-mêmes. Cette doctrine, qui se réclame de la seule connaissance des faits, fut celle des fondateurs, eux-mêmes, de la physique quantique ! Curieusement, cette attitude fut celle prise, à la fin du xixe siècle, par le chimiste français Marcelin Berthelot et l’Allemand Ernst Mach ; ils ne croyaient pas à la théorie atomique et donc à l’interprétation microscopique du comportement des gaz proposée par Maxwell, Boltzmann, mais aussi par Épicure vingt-quatre siècles plus tôt ! En résumé, La physique quantique est une théorie non classique, c’est-à-dire non locale, non séparable, non individuelle ; en outre, elle est probabiliste par essence, ce qui lui permet « de prédire et d’expliquer » l’ensemble des phénomènes physiques microscopiques ; enfin, elle restitue la théorie classique par approximation, sans remise en cause du réalisme. Ajoutons que la physique quantique et la relativité restreinte ont été efficacement rassemblées dans la théorie quantique des champs, au point de prévoir l’existence de l’antimatière. Reste encore la délicate synthèse de sa compatibilité avec la relativité générale ; mais cette intégration, qui semble si difficile à mettre en œuvre, est-elle nécessaire, si on peut convenir d’un partage suffisamment clair de leurs territoires?

343

HEISENBERG ET SCHRÖDINGER : INÉGALITÉS, SUPERPOSITION, INTRICATION

THÉORIE ALTERNATIVE DE DE BROGLIE-BOHM En 1952, Bohm proposa de développer la théorie de l’onde pilote initiée par de Broglie, dès 1927. Cette théorie, qui s’appuie essentiellement sur la localisation spatiale d’un objet, auquel on associe une onde, eut de nombreux adeptes, notamment John Bell, connu pour avoir établi les inégalités fondamentales sur les corrélations quantiques, dans l’hypothèse d’une séparabilité de deux sous-systèmes. Les résultats obtenus sont analogues à ceux de la théorie standard précédente de Schrödinger, mais ils s’accommodent mal d’une prise en compte de la relativité restreinte ; plus grave, cette théorie alternative introduit un potentiel quantique, sans relation avec un potentiel ordinaire (électrique, gravitationnel ou autre), et qui présente la singularité de ne pas s’évanouir lorsque la distance augmente infiniment. Dans ce contexte, la théorie quantique standard est plus féconde et plus cohérente que celle de Bohm, précisément par ses capacités prédictives et explicatives. En dehors de sa contribution discutable dans la signification du potentiel vecteur en électromagnétisme, dans l’interprétation de l’effet ESAB, Bohm fut un participant actif au congrès de Cordoue de 1979, au cours duquel des physiciens, éminents pour certains, se rapprochèrent de diverses théories ésotériques, toutes éloignées du rationalisme scientifique. Après plus de quarante ans, les retombées scientifiques et philosophiques significatives de ce congrès sont inexistantes.

344

LA PENSÉE EN PHYSIQUE

19 Einstein et Townes : émission stimulée, lasers

Le développement de l’optique, avec ses applications à l’holographie (cf. Chapitre 12), est incontestablement lié à l’apparition des sources de lumière à la fois intenses et cohérentes que sont les lasers. Ces nouvelles sources artificielles, qui datent des années 1960, émettent en effet des ondes qui sont d’excellentes réalisations d’ondes de grande intensité, pratiquement monochromatiques et planes. Probablement sommes-nous aujourd’hui bien plus sensibles à l’intérêt des lasers dans les nouveaux objets courants tels que le lecteurlaser des CD (Compact Disc) ou des DVD (Digital Video Device) et même le pointeur-laser. Mais, comment fonctionne un laser? Pour le savoir, il est nécessaire de revenir sur le mécanisme de l’émission de lumière par les atomes (cf. Chapitre 16). À la base de son fonctionnement, il y a d’abord un processus nouveau d’émission de lumière, introduit par Einstein en 1917 à partir d’une simple réflexion sur la réciprocité entre la réception et l’émission de lumière. À l’absorption de lumière par les atomes, 345

EINSTEIN ET TOWNES : ÉMISSION STIMULÉE, LASERS

on doit associer une émission de lumière, qui est son exacte opposée, fondamentalement différente de l’émission spontanée totalement aléatoire. Il fallut attendre presque quatre décennies pour que l’on puisse réaliser les conditions dans lesquelles l’émission stimulée soit prépondérante devant l’émission spontanée, et quelques années de plus encore pour élargir, au domaine lumineux, les premières réalisations dans le domaine des micro-ondes.

ÉMISSION DE LUMIÈRE PAR LES ATOMES L’émission de lumière est attribuée aux transitions des atomes, d’un certain niveau d’énergie vers un niveau d’énergie plus faible : si E 1 et E2 , supérieure à E1 , sont les énergies de deux niveaux atomiques 1 et 2, la fréquence ν du photon émis, lors de la transition 2 → 1, est telle que l’énergie de ce dernier soit égale à la différence des énergies des niveaux : hν = E2 − E1 , h étant la constante de Planck (cf. Chapitres 1 et 15) ; dans cette expression, on a négligé le recul de l’atome, provoqué par l’émission elle-même. En 1872, Boltzmann montra que, lorsque les atomes sont en équilibre thermique avec une source à la température T , le rapport des populations d’atomes, dans ces niveaux, était relié à l’écart énergétique 1E = E2 − E1 par l’équation : N2 1 = exp(−β1E ) avec β = N1 kB T k B étant la constante de Boltzmann (cf. Chapitre 1). Il en résulte, puisque 1E et T sont positifs, que N2 est inférieur à N1 : le niveau le plus énergétique est le moins peuplé.

346

LA PENSÉE EN PHYSIQUE

EINSTEIN ET TOWNES : ÉMISSION STIMULÉE, LASERS

Il existe trois types de transition entre deux niveaux atomiques. i) Transition 2 → 1, par émission spontanée. C’est la transition par laquelle un système excité (atome, molécule, cristal ou autre), d’énergie E2 , cède spontanément l’énergie E2 − E1 , en tombant sur un niveau moins énergétique, et en émettant un photon (Fig. 1a). L’émission spontanée de lumière qui en résulte est un phénomène quantique fondamentalement aléatoire, en raison des multiples collisions subies par les atomes en mouvement incessant. Cette émission est prépondérante dans la plupart des sources lumineuses classiques telles que le Soleil, les lampes à incandescence, les lampes à décharge, les lampes à halogènes, etc.

Figure 1 a) Émission spontanée. b) Absorption stimulée ou induite. c) Émission stimulée ou induite.

Cette émission spontanée diffère de la luminescence qui est attribuée à la transition énergétique entre le niveau d’énergie E2 et un niveau dont l’énergie E1′ est inférieure à E2 mais supérieure à E1 ; la fréquence du rayonnement émis est alors plus faible que celle du rayonnement spontané. ii) Transition 1 → 2 par absorption stimulée ou induite. Dans cette transition, un photon incident cède l’énergie hν à un système qui passe alors du niveau fondamental 1 au niveau excité 2 (Fig. 1b). C’est le cas lorsqu’une onde électromagnétique, de fréquence ν = (E2 − E1 )/ h, traverse un matériau constitué d’atomes, qui présentent deux niveaux d’énergies E1 et E2 = E1 + 1E ; elle cède l’énergie 1E aux atomes, lesquels passent alors du niveau 1 au niveau 2 en absorbant un photon. Il en résulte un amortissement dit exponentiel de l’intensité I de l’onde 347

EINSTEIN ET TOWNES : ÉMISSION STIMULÉE, LASERS

qui se propage dans le milieu, selon la direction Oz ; on a, en effet, I = I0 exp(−µz), où µ positif est le coefficient d’atténuation linéique. iii) Transition 2 → 1, par émission stimulée ou induite. C’est la transition réciproque de la précédente. Elle correspond à l’émission d’un photon par le système excité, à la suite de l’absorption d’un photon incident (Fig. 1c). Les ondes ainsi émises par émission stimulée accompagnent l’onde incidente et sont fortement reliées à cette dernière : elles ne diffèrent que par leur amplitude, les autres caractéristiques, la phase, la polarisation et le vecteur d’onde restant identiques.

RÉALISATION D’UNE ÉMISSION STIMULÉE La première émission électromagnétique stimulée, avec amplification, a été réalisée dans le domaine des micro-ondes, en 1953, par le physicien américain Charles Townes ; il excita les molécules du gaz ammoniac (NH3 ), à l’aide d’un rayonnement électromagnétique, de fréquence 23 830 MHz, dans le domaine micro-onde. Le maser venait de naître ; son nom est l’acronyme de « Microwave Amplification by Stimulated Emission of Radiation » (amplification d’un rayonnement micro-onde par émission stimulée). À ce résultat, il faut associer les deux physiciens russes, Nikolaï Basov et Alexandre Prokhorov, qui en sont arrivés au même point, indépendamment à Moscou. Une question se posa alors rapidement, celle de la faisabilité d’un maser optique ; c’est en 1959 que l’Américain Gordon Gould réalisa le premier une telle source, qu’il nomma alors laser, en remplaçant simplement la première lettre « m » de maser par celle « l » de lumière ; cette invention du laser est souvent attribuée à Theodore Maiman, un autre scientifique américain. Pour que l’amplification de lumière puisse se maintenir, il est nécessaire que, dans le matériau, l’émission stimulée soit plus importante que l’absorption, et qu’en outre elle compense l’émission spontanée ; ceci exige que les populations des niveaux atomiques soient inversées, c’est-à-dire que N1 soit inférieur à N2 . En effet, on montre que le 348

LA PENSÉE EN PHYSIQUE

EINSTEIN ET TOWNES : ÉMISSION STIMULÉE, LASERS

coefficient µ est proportionnel à la différence des populations N1 − N2 entre le nombre d’atomes N1 , qui peuvent absorber un photon, et le nombre d’atomes N2 , qui peuvent émettre un photon stimulé sous l’action de l’onde incidente. Une telle inversion des populations des niveaux d’énergie produirait une amplification de l’intensité de l’onde, puisque le coefficient linéique d’atténuation µ du milieu serait négatif. Un tel milieu, avec possibilité d’inversion des populations, est dit actif. Notons que cette inversion des populations des niveaux d’énergie est artificielle, au sens où elle rompt avec l’équilibre thermique caractérisé par la distribution de Boltzmann. Il existe plusieurs méthodes pour produire cette inversion. Le schéma général est le suivant : à l’aide d’une excitation extérieure, optique ou électrique, on amène le système à un troisième niveau, d’énergie E3 plus élevée que celle du niveau 2. Avec cette opération dite de pompage, le niveau 3 « nourrit » le niveau 2, par transition sans rayonnement, ce qui produit l’inversion de population recherchée. Dans le laser à gaz hélium-néon, les niveaux 1 et 2 sont ceux du néon, auxquels correspond notamment la transition dans le rouge, bien connue de longueur d’onde λ = 632,8 nm, alors que le niveau 3 appartient à l’hélium (Fig. 2).

Figure 2

Pompage optique dans un laser hélium-néon.

349

EINSTEIN ET TOWNES : ÉMISSION STIMULÉE, LASERS

On dit parfois qu’une inversion de population réalise une température absolue négative, puisque l’inégalité (N2 > N1 ) entraîne, dans la relation de Boltzmann supposée encore satisfaite, une température T (en kelvin) négative ! Ce résultat ne remet pas en cause les acquis fondamentaux de la thermodynamique, car un tel système est hors d’équilibre (cf. Chapitre 7). Il n’est pas inutile de préciser que l’amplification de lumière par un milieu actif n’est pas en contradiction avec le caractère conservatif de l’énergie. En effet, il s’agit de l’amplification de l’onde qui traverse le milieu actif, ce dernier nécessitant par ailleurs de l’énergie, fournie par l’extérieur, afin de maintenir l’inversion des populations. L’amplification est considérablement augmentée si l’on impose aux ondes émises de traverser plusieurs fois le milieu actif, ce que permettent les cavités optiques. La plus simple est constituée de deux surfaces réfléchissantes en regard (Fig. 3) ; éclairée, une telle cavité se comporte comme un interféromètre de Fabry-Pérot, lequel réalise l’interférence entre les ondes émergentes, successivement réfléchies par les surfaces. Parmi les composantes monochromatiques du faisceau initial, seules sont transmises celles qui vérifient la condition d’interférence constructive, appelée aussi condition de résonance (cf. Chapitre 12). Cela définit les modes longitudinaux de vibration (suivant l’axe Oz) : si l est la longueur de la cavité et n l’indice du milieu actif, la durée d’un trajet aller et retour de la lumière 2nl/c doit

Figure 3

350

Cavité hémisphérique.

LA PENSÉE EN PHYSIQUE

EINSTEIN ET TOWNES : ÉMISSION STIMULÉE, LASERS

être égale à un nombre entier de périodes de l’onde optique. On a donc, si T est la période et m z un nombre entier : 2n l/c = m z T soit ν = m z c/(2n). En introduisant la longueur d’onde λ = cT , la condition précédente s’écrit plus simplement : n l = mz

λ 2

La longueur optique de la cavité est égale à un nombre entier de demi-longueurs d’ondes. Ce résultat est caractéristique d’une onde stationnaire, c’est-à-dire d’un ensemble de deux ondes, de même fréquence, se propageant en sens inverse ; on l’observe en mécanique, le long d’une corde fixée à ses deux extrémités, ou dans un instrument à cordes telle une guitare. La distance spectrale qui sépare deux modes longitudinaux consécutifs est donc : 1ν = c/(2nl). Par exemple, pour nl = 30 cm et λ = 632,8 nm, 1ν = 500 MHz. Ainsi, la cavité se comporte comme un oscillateur à plusieurs degrés de liberté excités par des ondes électromagnétiques : seules certaines ondes, celles dont la fréquence coïncide avec la fréquence des modes propres longitudinaux de vibration, sont amplifiées, et émergent de la cavité ; les autres sont étouffées par interférence destructive. Sur la figure 3, la cavité optique est hémisphérique : le miroir plan est placé au centre de courbure du miroir sphérique ; c’est l’une des plus utilisées, car elle permet d’obtenir un faisceau émergent stable, c’est-à-dire un faisceau qui diverge faiblement. On montre que le champ électrique de l’onde dans la cavité peut se décomposer en modes Transverse Électro-Magnétiques (TEM). Le plus souvent, en optique, le mode prépondérant est celui pour lequel le champ électrique est gaussien, c’est-à-dire que son amplitude varie, en fonction de la coordonnée radiale, dans le plan de front, selon :  E = E 0 exp −ρ 2 /w02 ; dans cette expression, w est le plus petit rayon de la distribution spatiale de l’onde émise par le laser, appelé la taille (waist en anglais) du faisceau. L’extension du champ électrique 351

EINSTEIN ET TOWNES : ÉMISSION STIMULÉE, LASERS

étant spatialement limitée, il en résulte par diffraction (cf. Chapitre 11) une divergence angulaire minimale du faisceau θ = λ/(π w0 ).

DIFFÉRENTS TYPES DE LASERS On distingue plusieurs types de lasers, ceux à gaz, initialement très répandus, et ceux à semi-conducteurs, désormais très bien implantés tant dans les domaines scientifiques qu’industriels. Laser à gaz He-Ne Le milieu actif est constitué d’un mélange gazeux composé essentiellement d’hélium (85 %) et de néon (15 %). La longueur d’onde 632,8 nm est celle associée à une transition précise du néon, entre le niveau supérieur 5 s et celui inférieur 3 p (Fig. 4a). Une décharge électrique excite l’hélium jusqu’à son niveau 2 s ; c’est le pompage. Ce niveau, proche en énergie du niveau 5 s précédent du néon, permet de nourrir ce dernier par collisions avec des atomes de néon. L’inversion de population en résulte. Le milieu actif étant gazeux, donc peu dense, le gain sur un aller et retour de la cavité est faible. Aussi la réalisation de tels lasers est-elle délicate, car elle nécessite des miroirs très réfléchissants et des contraintes d’alignement sévères. Dans les masers, ces contraintes techniques étaient moins drastiques, car la longueur d’onde est dix mille fois plus élevée. Le schéma de la figure 4b est typique d’un laser He-Ne. Les extrémités de l’enceinte contenant le gaz sont des lames de verre, optiquement planes, souvent inclinées de l’angle de Brewster, afin que l’onde émergente soit entièrement transmise. Le faisceau émergent est alors caractérisé par un champ qui vibre selon une direction déterminée ; on dit qu’il est polarisé rectilignement. Lasers à semi-conducteurs Les lasers à semi-conducteurs ont des propriétés spécifiques intéressantes directement reliées au nombre d’atomes par unité de volume 352

LA PENSÉE EN PHYSIQUE

EINSTEIN ET TOWNES : ÉMISSION STIMULÉE, LASERS

Figure 4

Laser HeNe. a) Niveaux d’énergie. b) Enceinte.

concernés par l’émission stimulée : petite taille (cavité de l’ordre de 300 µm), robustesse et faible coût ; aussi sont-ils de plus en plus utilisés. On retrouve dans ces lasers les éléments fondamentaux décrits précédemment : les transitions entre différents niveaux, situés ici dans des bandes d’énergie caractéristiques des milieux condensés, le pompage réalisé en faisant passer un courant dans le matériau, la cavité définie par les faces partiellement réfléchissantes du cristal. Ces lasers sont des diodes électroluminescentes (LED pour Light Emitting Diodes en anglais), c’est-à-dire des jonctions entre deux parties d’un même semiconducteur. L’une est de type p, car dopée avec des éléments, non à quatre, mais à trois électrons périphériques comme l’aluminium, et donc excédentaire en charges positives, d’où le nom du type. L’autre partie est de type n, car elle présente un excédent de charges négatives, en raison d’un dopage par des éléments, non à quatre, mais à cinq électrons périphériques comme l’arsenic. En raison 353

EINSTEIN ET TOWNES : ÉMISSION STIMULÉE, LASERS

de la diffusion dans le matériau, les électrons et les lacunes d’électrons, qu’on appelle trous, en excès se déplacent en sens inverse, alors que les atomes et les ions restent fixes. Apparaît donc une différence de potentiel électrique entre les zones p et n de la jonction, puisque la première se charge négativement et la seconde positivement. Lorsqu’on applique aux bornes d’une jonction p-n une tension dans le sens direct, c’est-à-dire p au pôle + et n au pôle −, on favorise la diffusion initiale et donc la recombinaison des électrons et des trous. Cette recombinaison d’un électron et d’un trou peut provoquer l’émission de lumière (Fig. 5). Pour de nombreux semiconducteurs, cette émission se produit dans le visible ou dans le proche infrarouge. La jonction forme alors une diode électroluminescente. Autrefois, l’émission des LED ne concernait que l’infrarouge, le rouge ou l’orangé, mais aujourd’hui il existe des LED qui émettent aussi dans le bleu, voire dans l’ultra-violet. Ces diodes, qui fonctionnent sous faible tension, sont abondamment utilisées pour l’affichage lumineux.

Figure 5

Jonction p-n dans une diode électro-luminescente.

Une diode électroluminescente peut fonctionner en laser, si on augmente l’intensité du courant qui la traverse, ce qui permet d’avoir un nombre d’électrons plus grand que le nombre de trous. Comme le niveau énergétique des électrons est supérieur à celui des trous, on réalise ainsi une inversion des populations. La recombinaison électrontrou s’accompagne d’une émission de lumière qui est amplifiée par les 354

LA PENSÉE EN PHYSIQUE

EINSTEIN ET TOWNES : ÉMISSION STIMULÉE, LASERS

réflexions successives sur les faces clivées du semi-conducteur. La longueur d’onde λ du rayonnement émis est reliée à l’écart énergétique Eg entre la bande de conduction et la bande de valence par la relation : hc/λ ≈ Eg , soit λ( µm) ≈ 1,24/Eg ( eV). Un exemple typique de laser à semi-conducteur est le laser dont le milieu actif est un composé d’arséniure de gallium (GaAs). Le rayonnement est émis dans le domaine spectral rouge et infrarouge (630 nm ≤ λ ≤ 1 57 nm).

PROPRIÉTÉS DES FAISCEAUX LASERS Les lasers, tels que celui à gaz He-Ne qui fonctionne de façon continue dans le domaine du visible, sont devenus des sources que l’on utilise couramment dans les montages d’optique. Ces sources de lumière sont caractérisées par une grande intensité et aussi par une grande cohérence à la fois temporelle et spatiale (cf. Chapitre 12) ; on peut donc les représenter par une onde électromagnétique monochromatique et plane, avec une excellente approximation. Dans le cas typique d’un laser He-Ne, de largeur spectrale 1ν = 1 400 MHz, le rapport 1ν/ν est de l’ordre de 3 × 10−6, d’où une longueur de cohérence temporelle L t = c/1ν d’environ 20 cm. Quant à la cohérence spatiale, que l’on évalue à partir de la divergence angulaire θ du faisceau qui est de l’ordre de 1 arcmin, elle est grande aussi, puisque la largeur de cohérence spatiale du faisceau à la sortie du laser est donnée par : ls = λ/θ ≈ 2 mm. En utilisant un étendeur de faisceau de grandissement transversal G t = 10, la largeur de cohérence utilisable est 2 cm, ce qui est largement suffisant pour la plupart des objets dont on forme l’image en éclairage cohérent (cf. Chapitre 11). L’éclairement ou puissance électromagnétique par unité de surface est considérable ; en effet, pour un laser de faible puissance 8 ≈ 1 mW, dont la taille d du spot de focalisation sur la rétine est de l’ordre de 10 µm, l’éclairement de la rétine de l’œil vaut : E´ = 8/(πd 2 /4) ≈ 1,3 × 107 W.m−2 . L’amplitude du champ électrique de l’onde électromagnétique issue du laser est alors de l’ordre 355

EINSTEIN ET TOWNES : ÉMISSION STIMULÉE, LASERS

de 105 V.m−1 . À titre de comparaison, l’éclairement du rayonnement solaire sur la rétine, considéré comme dangereux, est de 105 W.m−2 .

SPECKLE Lorsqu’on éclaire un écran diffusant avec un laser, on constate que la partie éclairée de l’écran est formée d’une multitude de petites taches brillantes, de formes diverses et réparties de façon désordonnée (Fig. 6a). On obtient ce même aspect sur un écran, si le faisceau laser, rendu convergent à l’aide d’une lentille, traverse un milieu diffusant, par exemple un verre dépoli ou une feuille de papier calque (Fig. 6b). Cet aspect granuleux est dû à des petites taches ou tavelures, que l’on désigne le plus souvent par speckle. De façon générale, ce dernier apparaît chaque fois qu’une onde lumineuse, spatialement cohérente, rencontre un milieu diffusant. On l’interprète par l’interférence des ondes cohérentes émises par les différents points du diffuseur.

Figure 6 Speckle. a) Aspect sur un écran. b) Obtention après traversée d’un diffuseur par un faisceau laser.

On caractérise le speckle par la taille moyenne s des grains lumineux sur l’écran ; on peut estimer cette taille en comptant le nombre N de ces grains sur une surface déterminée, d’aire A, de quelques cm2 , et en calculant (A/N )1/2 . L’étude expérimentale montre que la taille des grains du speckle obtenu sur un écran, après traversée d’un diffuseur, est indépendante de la structure de l’objet diffusant ; en revanche, elle varie avec la longueur d’onde λ de la lumière, la distance d du 356

LA PENSÉE EN PHYSIQUE

EINSTEIN ET TOWNES : ÉMISSION STIMULÉE, LASERS

diffuseur à l’écran et la taille D de la zone éclairée du diffuseur. Plus précisément, s ≈ λd/D. L’interprétation interférentielle du speckle permet de justifier aisément cette expression ; s est l’interfrange associée à l’interférence des deux ondes issues des points les plus éloignés du diffuseur (cf. Chapitre 12). On peut vérifier cette expression en mesurant s pour différentes valeurs de d et de D. On fait varier aisément D en éclairant le diffuseur, limité par un diaphragme circulaire de diamètre variable, à l’aide d’un faisceau laser préalablement élargi.

LASERS DE GRANDE PUISSANCE Les lasers de grande puissance, par unité de surface éclairée, offrent de nombreuses possibilités, notamment dans le domaine de la chirurgie réfractive de l’œil. Cette technique chirurgicale consiste le plus souvent à modifier la courbure de la cornée, car cette dernière contribue de façon significatice à la puissance optique de l’œil (cf. Chapitre 11). On corrige ainsi les principales pathologies de l’œil (myopie, hypermétropie, presbytie, astigmatisme), car une impulsion lumineuse issue de ces lasers peut produire sur la cornée une ablation autour de l’impact, sans trop de débris ; on utilise alors préférentiellement des lasers à exciplexes, car constitués de molécules dont les atomes différents sont dans des états excités, par exemple le fluorure d’argon (ArF). C’est la Kératectomie Photo-Réfractive par laser exciplexe (PRK), le plus souvent de longueur d’onde 193 nm. Cette technique, où seul l’épithélium cornéen est retiré avant photoablation de la cornée, est distincte de celle dite lasik (Laser-Assisted In Situ Keratomileusis), dans laquelle on découpe une fine lamelle dans l’épaisseur de la cornée, ce qui implique une modification de la courbure de la cornée. Au début des années 1980, le Français Gérard Mourou augmenta de façon significative la puissance des lasers à partir de la technique de l’amplification par dérive de fréquence, plus connue sous le sigle anglais CPA pour « Chirped Pulse Amplification » (le mot « chirp » 357

EINSTEIN ET TOWNES : ÉMISSION STIMULÉE, LASERS

désigne habituellement le gazouillis à fréquence variable de certains oiseaux). Cette technique consiste d’abord à augmenter la durée d’une impulsion lumineuse initiale, en séparant temporellement ses différentes composantes spectrales, à l’aide d’un double système dispersif, à prismes réfractifs ou à réseaux de diffraction. On peut alors, sans risque de détériorer les composants optiques du système, amplifier l’impulsion étirée. Ensuite, on procède au regroupement de toutes ces impulsions amplifiées, en utilisant un autre double système dispersif, mais fonctionnant en mode inverse : on obtient alors une impulsion laser de très grande intensité. Les éclairements obtenus sont de l’ordre de 1025 W.m−2 . Cela permet aujourd’hui d’atteindre en laboratoire des températures considérables, de l’ordre de celles qui caractérisent le cœur des étoiles ; en effet, en raison de la pression énorme en leur sein, les étoiles réalisent la fusion nucléaire des noyaux, ce qui produit une énergie cinétique considérable, à l’origine de l’énergie électromagnétique qu’elles rayonnent (cf. Chapitre 13). Une autre application à venir, en laquelle croit le scientifique français, est la transmutation des déchets radioactifs par modification de leur structure ; la durée de vie de ces déchets serait alors considérablement réduite !

358

LA PENSÉE EN PHYSIQUE

20 Dirac et Purcell : spin, RMN et spintronique

Au début des années 1920, l’analyse fine des spectres atomiques, et des modifications qu’ils subissent en présence d’un champ magnétique, ont conduit les physiciens à attribuer aux électrons atomiques un moment magnétique, directement relié à leur moment cinétique orbital autour du noyau (cf. Chapitre 16). On put ainsi interpréter le triplement de la raie rouge Hα , caractéristique de la lumière émise par l’atome d’hydrogène, lorsqu’on le soumet à l’action d’un champ magnétique. Cependant, l’existence d’autres raies, autour de cette même raie rouge, restait inexpliquée, à moins de supposer que les électrons atomiques étaient aussi dotés d’un autre moment magnétique, associé à un moment cinétique interne, appelé spin. Ce nom fut ainsi choisi car on pensait que l’électron était doté d’un mouvement de rotation propre (spin en anglais), à la manière de la Terre qui tourne autour de son axe des pôles. Très vite, on dut abandonner cette analogie, car le spin s’avère un concept de nature exclusivement quantique, en outre sans rapport aucun avec la relativité. Cette relation étroite entre spin 359

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

et magnétisme est à l’origine de la représentation courante du spin par un petit aimant doté d’un pôle nord et d’un pôle sud. C’est elle qui permet d’expliquer le magnétisme spontané de certains corps simples, tels que le fer, le cobalt et le nickel, ou de certains alliages tel l’alnico (aluminium, nickel, cobalt) ; ce magnétisme est précisément attribué au spin des atomes. L’intérêt du spin est non seulement prédictif et explicatif, mais aussi applicatif, essentiellement dans deux domaines: la RMN ou résonance magnétique nucléaire, et la spintronique qui est l’utilisation de l’influence du spin des électrons sur la conduction électrique. Un autre problème se pose sur le plan fondamental : l’équation de Schrödinger, à la base de la physique quantique, ignore le concept de spin (cf. Chapitre 18), ce qui oblige à le prendre en compte « à la main ». Ce n’est qu’en modifiant notablement l’écriture de cette équation qu’on put le faire émerger naturellement ; pour cela, il est nécessaire d’introduire un nouvel hamiltonien, d’ordre un à la fois pour les variables temporelle et spatiales. Comme le comportement d’un spin dans un champ magnétique présente quelque ressemblance avec le mouvement classique d’une toupie rapide dans le champ de pesanteur terrestre, il est judicieux de rappeler d’abord en quoi consiste la précession d’une toupie autour d’un axe vertical.

PRÉCESSION La précession est le changement d’orientation de l’axe de révolution d’un corps, autour d’un axe déterminé, sous l’action d’un moment de force perpendiculaire à ces deux axes. Un exemple simple est fourni par le mouvement d’une toupie gyroscopique. Un autre exemple est donné par la précession dite des équinoxes.

360

LA PENSÉE EN PHYSIQUE

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

Toupie gyroscopique Une toupie, solide de révolution en rotation autour d’un point fixe, est dite gyroscopique, lorsque sa vitesse de rotation autour de son axe de révolution est très grande devant toutes les autres vitesses de rotation. Le moment cinétique de la toupie est alors pratiquement porté par son axe, et donc par le vecteur O C reliant le point de fixation O de la toupie à son centre de masse C. Le théorème du moment cinétique, appliqué en O, à la toupie, de masse m, en mouvement dans le champ de pesanteur terrestre g, donne vectoriellement (cf. Chapitre 3) :   1L O 1L O LO = O C × m g soit =− l × mg 1t 1t LO puisque le moment cinétique s’écrit : L O = (L O /l) O C, si on introduit la distance l = OC. Il en résulte, en posant  p = −(ml/L O )g : 1L O = −L O ×  p =  p × L O 1t De cette dernière équation, on déduit une première propriété remarquable, en la multipliant à gauche et à droite par le vecteur L 0 : la valeur L O du moment cinétique est une constante. En multipliant l’équation par le vecteur unitaire défini par g, on trouve que la projection L Oz du vecteur L O , selon l’axe vertical Oz, est aussi une constante. Il en résulte que le vecteur L O décrit un cône de sommet O, d’axe Oz, défini par le champ de pesanteur, et de demi-angle au sommet de l’angle θ0 que fait L O avec l’axe vertical (Fig. 1). Ainsi, l’axe de la toupie gyroscopique précessionne autour de la direction du champ de pesanteur g, avec le vecteur vitesse angulaire de rotation  p . Ce mouvement de précession suppose que l’on ait négligé les forces de frottement. Dans le cas contraire, la vitesse de rotation propre diminue et l’angle d’inclinaison θ augmente. Si la fixation est maintenue en O, cet angle atteint la valeur π, pour laquelle l’axe de rotation de la toupie est orienté selon g. 361

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

Figure 1

Mouvement d’une toupie gyroscopique.

Cette vitesse angulaire de précession s’exprime simplement en fonction de la vitesse de rotation  de la toupie autour de son axe de révolution :  p = mgl/(I3 ), puisque L O = I3 , I3 étant le moment d’inertie de la toupie par rapport à son axe (cf. Chapitre 3). Pour une toupie gyroscopique, qui tourne à la vitesse de 30 tr.s−1 , la vitesse de précession est d’environ 6 rad.s−1, ce qui correspond à environ un tour complet (6/2π) de précession, effectué en 1 s (T p = 2π/  p ). Précession des équinoxes Le mouvement de l’axe de révolution de la Terre, sous l’action de la gravitation due au Soleil et à la Lune, rappelle celui de l’axe de la toupie gyroscopique. En effet, il subit une lente précession d’environ 30° tous les deux millénaires. Rappelons que le Soleil semble décrire, dans son mouvement apparent autour de la Terre, une trajectoire qui traverse plusieurs constellations ; ces constellations sont situées dans le voisinage du plan de l’écliptique, c’est-à-dire le plan du mouvement orbital du centre de la Terre autour du Soleil (cf. Chapitres 4 et 6) ; on l’appelle ainsi, car c’est dans ce plan que sont observées les éclipses de Soleil et de Lune. Dans son mouvement apparent, le Soleil semble traverser le plan équatorial terrestre, une première fois dans l’année, après l’hiver, lorsqu’il émerge du plan équatorial, à l’équinoxe de 362

LA PENSÉE EN PHYSIQUE

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

printemps, jour où les durées d’ensoleillement et d’obscurité de la Terre sont égales ; le Soleil semble traverser une seconde fois ce plan, en passant en dessous, à l’équinoxe d’automne (Fig. 2a).

Figure 2

a) Précession des équinoxes. b) Renflement de la Terre à l’équateur.

La précession des équinoxes est la très lente variation de la position apparente du Soleil dans le ciel, à chaque printemps, ce que l’on explique par la sphéricité imparfaite de la Terre, précisément un renflement équatorial ou un aplatissement polaire ; en effet, depuis Newton qui l’a prédit, contre Cassini, et Maupertuis qui l’a confirmé, en se rendant en Laponie en 1736, on sait que la Terre est renflée à l’équateur (Fig. 2b) 1 . Sous l’action des forces gravitationnelles exercées par tous les astres, principalement la Lune très proche et le Soleil très massif, la Terre est soumise à un moment de forces en son centre T qui est perpendiculaire au plan formé par son axe de révolution et par l’axe perpendiculaire au plan de l’écliptique. Ces deux contributions font apparaître des contributions solaire et lunaire analogues à celles qui interviennent 1. Citons, à cette occasion, la strophe élogieuse de Voltaire à son endroit : « Héros de la physique, Argonautes nouveaux, etc. » et, un peu plus tard, la strophe qui l’est beaucoup moins: « Vous avez découvert, en des lieux pleins d’ennuis, ce que Newton découvrit sans sortir de chez lui » ; ce changement d’attitude est attribué à sa jalousie devant le succès amoureux de Maupertuis auprès de Gabrielle Émilie du Châtelet, traductrice des œuvres de Newton.

363

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

dans les marées océaniques (cf. Chapitre 4) ; précisément ces effets sont proportionnels à la masse de ces astres et inversement proportionnels, non pas au carré de la distance qui les sépare de la Terre, mais à leur cube. L’influence de la Lune est alors sensiblement le double de celle du Soleil. En outre, cette action est directement reliée à la différence I3 − I1 des moments d’inertie selon l’axe de révolution et selon un axe perpendiculaire, due à l’aplatissement de la Terre aux pôles. Dans le référentiel géocentrique Rg , le mouvement de la Terre peut donc être considéré comme celui d’une toupie gyroscopique : en effet, la durée de rotation propre de la Terre est de 1 jour, alors que celle de la précession est d’environ 259 siècles, d’où un rapport des deux vitesses de rotation de 25 900. L’angle de nutation θ, que fait l’axe de révolution avec l’axe perpendiculaire au plan de l’écliptique, est pratiquement constant et vaut θ0 ≈ 23,5◦ . Depuis environ 2 000 ans, le déplacement a été de 27,8◦ , soit pratiquement 360◦ /12 = 30◦ ; c’est précisément la distance angulaire qui sépare deux constellations successives dans l’ensemble des douze constellations que semble parcourir le Soleil, au cours de son mouvement annuel apparent. Cet ensemble de constellations est le zodiaque (représentation d’animaux en grec) : au printemps Bélier-TaureauGémeaux, en été Cancer-Lion-Vierge, en automne Balance-ScorpionSagittaire, enfin en hiver Capricorne-Verseau-Poissons. Or, il y a 2 000 ans, le Soleil se trouvait à la limite séparant la constellation du Bélier de celle des Poissons, le jour de l’équinoxe de printemps (20-21 mars), alors qu’à cette même date de l’année, il sera, en 2021, à la limite séparant celle des Poissons de celle du Verseau, une constellation en arrière, en raison du sens rétrograde de la précession. Il en résulte un décalage d’environ une constellation, entre la constellation dans laquelle se trouvait effectivement le Soleil, le jour de notre naissance, et le signe zodiacal que les adeptes de l’astrologie s’obstinent à nous attribuer, par croyance.

364

LA PENSÉE EN PHYSIQUE

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

Comportement gyroscopique en magnétisme L’action d’un champ magnétique B sur un barreau aimanté, avec ses deux pôles nord et sud, fournit un autre exemple de mouvement gyroscopique. En effet, on montre que le moment des actions électromagnétiques auxquelles le barreau est soumis peut se mettre sous la forme m × B, dans laquelle m est une grandeur vectorielle caractéristique de l’aimant, appelé moment magnétique (Fig. 3a). Or, l’analyse et l’expérience montrent qu’il existe une relation de proportionnalité entre le moment magnétique m du barreau aimanté et son moment cinétique L C : m = γ L C , γ étant le coefficient gyromagnétique (à ne pas confondre avec le facteur relativiste). L’application du théorème du moment cinétique au barreau, par rapport au référentiel du laboratoire R, donne l’équation vectorielle suivante : 1L C =m×B 1t

soit

1L C = L × LC 1t

avec  L = −γ B

On en déduit un mouvement de précession du moment magnétique autour du champ magnétique, avec une vitesse de rotation angulaire  L = −γ B, appelée pulsation de Larmor, du nom du physicien irlandais Joseph Larmor. Sous l’action de l’agitation thermique, on observe un ralentissement progressif du mouvement accompagné d’un alignement du

Figure 3 a) Précession d’un barreau aimanté autour d’un champ magnétique. b) Moment magnétique de l’atome d’hydrogène.

365

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

moment magnétique dans la direction et le sens du champ magnétique B ; c’est la relaxation. On retrouve une situation analogue à celle de la toupie qui, du fait d’une relaxation due aux frottements, finit par s’orienter dans le sens et la direction du champ de pesanteur g. Il en est de même pour une petite spire conductrice, parcourue par un courant électrique, et donc aussi pour une charge électrique, comme l’électron, en mouvement autour du proton dans l’atome d’hydrogène (cf. Chapitre 16). Le moment magnétique de cette spire élémentaire équivalente vaut, pour une trajectoire circulaire de rayon r (Fig. 3b) :    e  evr  1q m=isn= πr 2 n = − πr 2 n = − n 1t T 2 où s est l’aire du disque défini par la trajectoire circulaire, n la normale orientée de ce disque, v la vitesse du mouvement orbital et T = 2πr/v la période de révolution du mouvement de l’électron. Comme le moment cinétique L O de l’électron (charge −e, masse m e ), au centre O du noyau, est : L O = O A × m e v = m e vr ez , on a bien : m = γ (e) L O

avec γ (e) = −

e 2m e

On en déduit, dans ce cas d’un électron orbitant autour d’un noyau, la vitesse angulaire de précession :  L = −γ (e) B =

e B 2m e

Ainsi, comme pour une toupie gyroscopique, le vecteur moment cinétique a une valeur constante et une projection selon la direction du champ magnétique constante aussi. Le moment magnétique précessionne donc autour de B avec une vitesse angulaire proportionnelle à B. Dans le cas du modèle de Bohr de l’atome d’hydrogène, cette pulsation vaut, si le champ magnétique est de 1 T :  L = e B/(2m e ) ≈ 0,88 × 1011 rad.s−1 . Il est instructif de comparer cette 366

LA PENSÉE EN PHYSIQUE

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

valeur à la vitesse angulaire de l’électron sur son orbite. Ce modèle de l’atome d’hydrogène dans l’état fondamental conduit à : a B ≈ 53 pm, v ≈ c/137 ≈ 2 × 106 m.s−1 , d’où ω0 = v/a B ≈ 4 × 1016 rad.s−1 et  L /ω0 ≪ 1. La perturbation apportée par le champ magnétique au mouvement orbital de l’électron est donc très faible. SPIN Le spin fut introduit en 1925 par deux jeunes physiciens, l’Allemand George Uhlenbeck et le Néerlandais Samuel Goudsmit, à Leiden aux Pays-Bas, alors qu’ils tentaient d’interpréter l’action d’un champ magnétique sur les raies spectrales d’émission de l’atome d’hydrogène. Ils purent expliquer aisément la présence des raies les plus intenses, celles mises en évidence expérimentalement en 1897 par le physicien néerlandais Pieter Zeeman (effet Zeeman normal). En revanche, ils eurent beaucoup de difficultés pour interpréter l’existence de multiples autres raies, moins intenses, formant l’effet Zeeman qualifié d’anormal. Les deux physiciens furent alors convaincus de la nécessité d’affecter à l’électron atomique un nouveau concept intrinsèque, celui de moment cinétique de spin, totalement indépendant du moment cinétique orbital ; ils rédigèrent alors un article qu’ils envoyèrent pour publication à une grande revue scientifique. Apprenant que le physicien théoricien Wolfgang Pauli ne partageait pas leur analyse, ils tentèrent de retirer leur article, mais en vain, heureusement pour eux. Ironie du sort, Pauli reçut seul le prix Nobel, en 1945, pour ses contributions théoriques sur le spin des électrons. Deux représentations incorrectes du spin, initialement avancées, doivent être écartées. La première, intuitive, est celle d’une particule chargée en mouvement de rotation propre autour d’elle-même, à la manière de la Terre qui tourne autour de son axe de révolution en un jour ; c’est elle qui est à l’origine du nom historique donné à ce nouveau concept, pourtant sans équivalent classique. La seconde est le lien supposé à tort entre spin et relativité (cf. Chapitre 13) ; comme 367

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

l’a dit Steven Weinberg, le spin n’a rien à voir avec la relativité, et la relativité n’a rien à voir avec le spin 2 . Cette idée fausse est probablement due à une lecture trop rapide de la publication de l’Anglais Paul Dirac ; en effet, l’auteur put établir l’émergence du spin à partir d’une nouvelle écriture de l’équation de Schrödinger dans laquelle les variables temps et espace apparaissaient, dans les opérateurs hamiltonien Hˆ et énergie Eˆ , avec le même degré un (cf. Chapitre 18) ; en outre, Dirac utilisa la transformation de Lorentz et non celle de Galilée (cf. Chapitres 2 et 13). C’est le physicien français Jean-Marc LévyLeblond qui démontra cette émergence dans le cas non relativiste, dans sa thèse en 1965. Expérience de Stern et Gerlach L’expérience de Stern et Gerlach consiste à envoyer un jet d’atomes d’argent, neutres, dans l’entrefer d’un électro-aimant, où règne un fort champ magnétique non uniforme ; les atomes émis par un four, puis filtrés à l’aide d’un système de fentes, traversent l’entrefer pour être finalement collectés sur un écran ; sur ce dernier, on observe deux taches disposées symétriquement par rapport à celle, unique, obtenue en l’absence de champ, ce qui indique une division du jet d’atomes en deux faisceaux (Fig. 4). Elle fut réalisée, en 1922, par les physiciens allemands Otto Stern et Walther Gerlach ; le premier, d’ascendance juive, dut émigrer aux États-Unis d’Amérique dès 1933 et prit la nationalité américaine ; le second, au contraire, occupa des positions importantes pendant la période nazie. En physique classique, la force qui s’exerce sur un atome neutre, porteur d’un moment magnétique m, placé dans un champ magnétique B, se déduit de l’énergie potentielle d’interaction magnétique d’expression E p,m = −m · B. On montre que la force de déviation du faisceau d’atomes est proportionnelle à son gradient selon l’axe Oz, c’est-à-dire à sa variation spatiale selon cet axe, d’où l’intérêt d’un champ non homogène, 2. Lectures on quantum mechanics, Cambridge University Press, 2013, p. 99.

368

LA PENSÉE EN PHYSIQUE

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

Figure 4

Expérience de Stern et Gerlach.

typiquement 103 T.m−1 . Une interprétation classique de cette expérience aboutit à un échec, car la composante m z du moment magnétique des atomes d’argent prendrait toutes les valeurs comprises entre −kmk et kmk ; cela devrait conduire à un étalement de l’impact des atomes sur l’écran, continu et symétrique, de part et d’autre de l’axe optique, alors que l’expérience montre, au contraire, une quantification de la composante m z de m. Cette dernière ne prend que deux valeurs opposées, ce qu’il est impossible d’attribuer à un moment magnétique d’origine orbitale, puisqu’on devrait observer alors un nombre impair d’impacts, correspondant aux 2ℓ + 1 valeurs de m ℓ . Interprétation On explique l’expérience de Stern et Gerlach en considérant que le moment cinétique total de l’atome d’argent, somme du moment cinétique orbital et du moment cinétique de spin, n’est dû qu’à un électron atomique « périphérique », célibataire, qui occupe un état s (ℓ = 0); sa composante orbitale selon Oz est certes nulle, mais pas celle de son spin qui ne peut prendre que deux valeurs. Avec un jet d’atomes d’hydrogène, dans leur état fondamental (cf. Chapitre 16), le dédoublement ne peut résulter que d’un moment magnétique électronique intrinsèque ; c’est bien ce que confirma l’expérience réalisée en 1927 par les Américains William Phillips et Joseph Taylor. En transposant les résultats relatifs au moment cinétique orbital, on est conduit à introduire la valeur m s ~ pour la composante Sz du 369

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

moment cinétique de spin, m s étant un nombre entier quantique, qui peut prendre 2s + 1 valeurs, comprises entre −s et +s. Dans l’expérience considérée, où seulement deux taches sont observées, on a : 2s + 1 = 2, d’où s = 1/2 et m s = ±1/2. La valeur ~/2 prise par m s n’est pas contradictoire avec celle ~ du quantum de moment cinétique, car elle n’est pas issue d’une mesure directe ; ce que l’on mesure, c’est la transition entre deux états, précisément le retournement de spin, lequel conduit bien à l’échange d’un quantum ~ de moment cinétique avec le système avec lequel il interagit. L’expérience de Stern et Gerlach permet aussi de déterminer les valeurs prises par la composante m z du moment magnétique m, selon l’axe Oz, en mesurant la déviation du jet d’atomes ; m z s’écrit : m z ≈ ±µ B , où µ B = e~/(2m e ) est le magnéton de Bohr, de valeur 9,27 × 10−24 J.T−1 . On en déduit le rapport de m z sur la composante Sz = ~/2 du spin : |m z |/|Sz | ≈ 2µ B /~ = e/m e = 2|γ (e) |. Ainsi, le moment cinétique de spin contribue deux fois plus au moment magnétique que le moment cinétique orbital. Une analyse bien plus fine de ce rapport, prenant en compte aussi la relativité restreinte, montre que le rapport précédent est proche de 2, précisément 2,002 319 304 37 ; cette valeur est l’une des plus précises prévues par une théorie 3 et progressivement confirmées par l’expérience ! Le proton et le neutron sont aussi des objets physiques qui possèdent un moment magnétique intrinsèque. Celui du proton fut mis en évidence par Stern en 1933 ; historiquement, l’attribution d’un spin au proton fut proposée, dès 1927, par l’Allemand Friedrich Hund, puis confirmé par l’Américain David Dennison en étudiant la capacité thermique du dihydrogène. Quant à celui du neutron, dont la charge est nulle, il a été révélé par le physicien américain Luis Alvarez, en 1940.

3. Cette théorie, à la fois quantique et relativiste au sens restreint, porte le nom de « théorie quantique des champs ».

370

LA PENSÉE EN PHYSIQUE

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

RÉSONANCE MAGNÉTIQUE NUCLÉAIRE La résonance magnétique nucléaire (RMN) est une technique inventée en 1946, séparément par les Américains Edward Purcell et Félix Bloch. Elle consiste à soumettre les moments magnétiques nucléaires de spin, qui existent dans la matière, précisément dans les atomes d’hydrogène qu’elle contient, à un fort champ magnétique uniforme, B 0 = B0 ez , de l’ordre de quelques teslas. Pour réaliser des champs aussi intenses, on utilise généralement un électro-aimant à supraconducteurs que l’on plonge dans de l’hélium liquide à 4 K (Fig. 5a).

Figure 5

Résonance magnétique nucléaire.

Précession dans un champ magnétique intense D’après ce qui précède, le champ magnétique intense B 0 provoque une précession des moments magnétiques de spin, avec un vecteur vitesse de rotation qui vaut  L = γs(N ) B 0 ; γs(N ) est le coefficient gyromagnétique de spin du noyau, c’est-à-dire le rapport entre son moment magnétique intrinsèque ms et le moment cinétique correspondant. En raison de la relaxation, les moments magnétiques s’alignent selon B 0 , soit en position parallèle, soit en position antiparallèle. L’énergie d’interaction magnétique, d’expression −ms · B 0 , prend alors les deux valeurs suivantes : E− = −m s,z B0 et E+ = m s,z B0 , où m s,z est la projection du moment magnétique ms , suivant l’axe Oz défini par B 0 . On dit que B 0 lève la 371

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

dégénérescence des niveaux d’énergie ; l’écartement énergétique vaut alors 1E = 2m s,z B0 . Pour un noyau à un seul proton, comme celui de l’hydrogène, m s,z vaut µ N = e~/(2m p ) = 5,05 × 10−27 J.T−1 , appelé magnéton nucléaire. Addition d’un champ magnétique tournant On modifie légèrement l’alignement précédent en ajoutant au champ magnétique B 0 , un champ magnétique b qui lui est perpendiculaire et beaucoup plus faible. Ce champ est produit par une bobine parcourue par un courant sinusoïdal de haute fréquence, dans le domaine radio-électrique ; on peut le représenter par le vecteur bm ex ′ , bm étant son amplitude faible et e x ′ un vecteur unité, qui tourne autour de l’axe ez de B 0 (Fig. 5b), avec une vitesse angulaire égale à la pulsation ω du courant dans la bobine (cf. Annexe 1). Entre le moment magnétique m(N ) de spin du noyau d’un atome d’hydrogène et le moment cinétique associé S, on a la relation de (N ) (N ) proportionnalité suivante m(N ) = γs S, où γs est le coefficient gyromagnétique de spin du noyau. Si on applique le théorème du moment cinétique, au moment magnétique m(N ) , par rapport au référentiel du laboratoire R, on obtient : 

1S 1t



=m

(N )

× (B 0 + b) soit

R



1S 1t



= −γs(N ) (B 0 + b) × S

R

Dans le référentiel R′ = Ox ′ y ′ z, qui tourne autour de Oz, avec une vitesse angulaire par rapport à R égale à  ez , le champ b n’est pas constant. Pour prendre en compte ce changement de référentiel, précisément le fait que le vecteur unitaire e x ′ n’est pas fixe par rapport à R, on doit ajouter le terme complémentaire ω ez × S. Il en résulte :   1S + ω ez × S = −γs(N ) (B 0 + b) × S 1t R′ 372

LA PENSÉE EN PHYSIQUE

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

ce qui s’écrit aussi :     1S = −γs(N ) B 0 − γs(N ) b − ω ez × S. 1t R′ Si on introduit la vitesse angulaire de précession du moment magné(N ) (N ) tique de spin,  p = −γs B 0 − γs b − ω ez , on obtient:   1S = p × S 1t R′ Cette dernière équation traduit une précession du moment cinétique de spin S autour de l’axe Oz du champ B 0 , avec le vecteur vitesse angulaire  p . Ce dernier vecteur se réduit à :  p = −γs(N ) b

si ω = −γs(N ) B0

Ainsi, lorsque cette condition dite de résonance est réalisée, le moment cinétique de spin, et donc le moment magnétique m N correspondant, précessionnent autour de l’axe du champ magnétique tournant b, avec le vecteur vitesse angulaire  p précédent ; en raison de la relaxation, ils finissent par s’orienter selon le champ b. Cette technique RMN permet d’accéder, par l’intermédiaire de la pulsation ω du champ tournant, aux facteurs gyromagnétiques des noyaux. Dans cette technique, il s’agit précisément des noyaux d’atomes d’hydrogène et donc des protons présents dans les molécules qui composent les tissus biologiques, comme l’eau (H2 O) et les molécules organiques. Ces facteurs variant avec le milieu ambiant de ces protons, on tire des informations précieuses sur cet environnement. On déduit la fréquence correspondante du signal sinusoïdal de la bobine de B0 et du coefficient gyromagnétique de spin du proton, qui vaut 26,9 × 107 rad.s−1 .T−1 , selon : ( p)

ν=

ω γs B0 =− ≈ 42,6 × 106 × B0 Hz 2π 2π 373

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

Pour B0 = 7 T, valeur qui permet d’obtenir une très grande sensibilité de l’instrument, le domaine électromagnétique est celui de la radio ν ≈ 300 MHz (λ = c/ν = 10 m). C’est au début des années 1970 que l’on entrevit des applications de cette technique. Un progrès important fut accompli lorsque, s’inspirant des méthodes de reconstruction d’images, le chimiste américain Paul Lauterbur réalisa, pour la première fois, un système d’imagerie à deux dimensions fondé sur la RMN ; c’est l’Imagerie par résonance magnétique nucléaire (IRM), principalement dédiée à l’analyse des tissus mous, riches en eau et donc en atomes d’hydrogène (cerveau, moelle épinière, muscles, cœur et tumeurs). Cette technique n’est ni invasive, ni irradiante, contrairement au scanner médical, qui est un appareil d’imagerie dans lequel la zone à analyser est balayée (« scanned » en anglais), avec un faisceau de rayons X. Le scanner reste utile pour les tissus durs comme les os, qui sont trop pauvres en hydrogène et donc impropres à une analyse IRM efficace.

SPINTRONIQUE En électronique classique, seule la charge des particules mobiles est exploitée, principalement celle des électrons, cela indépendamment de leur spin ; ce dernier, on l’a vu, ne peut prendre que deux orientations, lorsqu’on le soumet à un champ magnétique, l’une selon le sens du champ, l’autre en sens opposé. La spintronique est précisément le domaine scientifique dans lequel le spin des électrons est associé à leur charge électrique, d’où son nom. La résistance électrique d’un matériau, c’est-à-dire sa capacité à s’opposer, en son sein, au déplacement des charges électriques mobiles, dépend essentiellement des imperfections du matériau, des impuretés notamment. Pour un fil conducteur, de section s et de longueur l, la résistance a pour expression R = l/(γ s), γ étant la conductivité du matériau. Ainsi la résistance d’un fil de connexion en cuivre, de longueur 1 m et de section 1 mm2 ne vaut que 0,015  ; 374

LA PENSÉE EN PHYSIQUE

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

celle du corps humain, qui est de l’ordre de 10 k entre les mains, peut chuter à 1 k si ces dernières sont humides. Magnétorésistance Lorsqu’on soumet certains matériaux à un champ magnétique, leur résistance change et devient une magnétorésistance ; c’est ce que découvrit Thomson (Lord Kelvin) en 1857 (cf. Chapitre 8), cela malgré une faible dépendance de la résistance, car la structure interne du matériau joue un rôle prépondérant. Dans certains matériaux, la magnétorésistance est anisotrope, car ses propriétés dépendent aussi de l’angle que fait le champ magnétique avec la direction du courant électrique. Magnétorésistance géante On appelle ainsi, brièvement GMR (acronyme pour Giant Magneto-Resistivity), la modification importante de la résistance d’une multicouche magnétique, formée par un empilement d’une dizaine de couches de métaux, alternativement ferromagnétiques (fer, cobalt, nickel) et non magnétiques (chrome, cuivre). Sur la figure 6, on n’a représenté que deux couches de fer, de même épaisseur 3 nm, d’aimantation spontanées opposées M 1 et M 2 , séparées par une couche de chrome plus mince (0,9 nm). En présence d’un champ magnétique extérieur B, le rapport de la résistance R B de la multicouche, en présence du champ magnétique, sur sa résistance R0 , en l’absence de ce dernier, peut atteindre plusieurs unités. On explique ce phénomène en tenant compte du spin des électrons, ce qui lui confère une nature essentiellement quantique

Figure 6

Schéma d’une multicouche de magnétorésistance géante.

375

DIRAC ET PURCELL : SPIN, RMN ET SPINTRONIQUE

(cf. Chapitre 18). Dans ces multicouches, les électrons ne rencontrent pas la même résistance selon leur spin ; ils circulent plus facilement lorsque leur spin a même orientation que l’aimantation, et plus difficilement dans le cas contraire. La résistance est donc faible lorsque l’aimantation des couches ferromagnétiques est la même ; au contraire, elle est élevée si les aimantations des deux couches ferromagnétiques sont antiparallèles. Cet affaissement de la résistance de ces multicouches, sous l’action d’un champ magnétique extérieur, a été découvert en 1988, indépendamment par le Français Albert Fert et l’Allemand Peter Grünberg ; le premier travaillait à basse température (4,2 K) et le second à température ambiante (300 K). Depuis cette découverte, on a augmenté l’empilement des couches, ce qui a permis d’obtenir un effondrement de leur résistance électrique, à température ambiante, sous l’action de très faibles champs magnétiques. On a ainsi put mettre au point des disposifs de détection de faibles champs magnétiques, mais surtout réduire considérablement l’espace nécessaire à la matérialisation de l’unité binaire, le bit (contraction de binary unit). La capacité de stockage de l’information des disques durs a été alors centuplée ! Aujourd’hui, la spintronique est en pleine expansion, avec la mise au point de nanosystèmes associant semiconducteurs et matériaux ferromagnétiques.

376

LA PENSÉE EN PHYSIQUE

Annexe 1 Quelques résultats mathématiques utiles

Il est difficile, sinon impossible, d’approcher la réalité profonde des choses qui nous entourent, sur lesquelles nous nous interrogeons, sans utiliser un langage efficace et condensé. Par exemple, l’énergie de masse, qui s’introduit naturellement en relativité, est le produit de la masse m d’un corps par le carré de la constante d’Einstein c, ou vitesse de la lumière dans le vide (cf. Chapitre 13) ; on lui préfère l’écriture définitoire condensée E = mc2 . C’est un nombre. Il existe d’autres grandeurs en physique, qui ne peuvent pas se réduire à un nombre ; c’est le cas des vecteurs qui sont caractérisés, eux, non seulement par leur longueur qui est un nombre positif, mais aussi par une direction orientée. Par exemple, la vitesse d’un corps est un vecteur : si le mouvement est rectiligne, la direction et le sens de ce vecteur sont la droite et le sens du mouvement ; si le mouvement est circulaire, la direction de sa vitesse est celle de la tangente, et le sens celui du mouvement. Autre exemple, la position d’un point dans l’espace est déterminée par la distance qui le sépare d’un autre point pris comme référence, mais aussi par la direction de la droite qui joint

377

ANNEXE 1 : QUELQUES RÉSULTATS MATHÉMATIQUES UTILES

ces deux points, et par un sens défini en prenant comme origine le point de référence.

LES NOMBRES Dans le développement quantitatif de la physique, les mathématiques jouent un rôle technique majeur, qui s’est grandement amplifié, car en physique on s’intéresse aujourd’hui à des problèmes de plus en plus subtils, avec des exigences croissantes sur le plan de la précision dans la prédiction. C’est dans ce contexte qu’il faut situer la sévère sentence du mathématicien allemand David Hilbert prononcée, en 1900, au deuxième congrès international des mathématiciens, à Paris : « La physique est devenue trop compliquée pour les physiciens ». Ici, on veut, au contraire, privilégier une pensée discursive en physique, en ne supposant acquis que des rudiments calculatoires. Ainsi, sur les nombres entiers naturels, 1, 2, 3, etc., on rappelle qu’on les obtient en ajoutant 1 plusieurs fois à lui-même, et que le 0 désigne l’absence de nombre entier. Les opérations habituelles d’addition (c = a + b), de multiplication (c = ab), de mise à la puissance (c = a b soit a multiplié par lui-même b fois), sont supposées connues. De même pour les opérations inverses, que sont la soustraction (b = c − a avec c ≥ a), la division (b = c/a avec a 6 = 0), l’extraction de racine et de puissance (a = c1/b ou b = loga c). Avec quelques précautions, les relations précédentes se généralisent aux entiers relatifs, aux nombres rationnels, ou nombres formés par le rapport (ratio) de deux entiers relatifs, 0 étant exclu au dénominateur, et aux nombres irrationnels (ceux qu’on ne peut pas √ mettre sous une forme fractionnaire) ; c’est le cas, par exemple, de 2. Cet ensemble, une fois complété, définit l’ensemble des nombres réels. Parmi eux, citons π ≈ 3,14159, rapport universel entre un cercle et son diamètre en géométrie euclidienne, et e ≈ 2,71828, base naturelle des logarithmes.

378

LA PENSÉE EN PHYSIQUE

ANNEXE 1 : QUELQUES RÉSULTATS MATHÉMATIQUES UTILES

Les nombres tels que leur carré soit négatif, par exemple ceux qui vérifient l’équation x 2 = −1, ne sont pas réels ; aussi les qualifie-t-on de nombres imaginaires, et note-t-on i et −i les solutions de cette équation. Il en résulte l’écriture d’un nombre complexe, sous la forme a + i b, a étant sa partie réelle et b sa partie imaginaire.

LES VECTEURS En physique, les vecteurs sont apparus historiquement avec la composition des vitesses et celle des forces, selon la règle dite du parallélogramme. Depuis, l’importance des vecteurs est devenue considérable, car de nombreuses grandeurs physiques (quantité de mouvement p, accélération a, champ de pesanteur g, champ électrique E, etc.) sont des vecteurs 1 . Leur connaissance exige celle de leur longueur, qui est un nombre suivi d’une unité, de leur direction et de leur sens. Souvent, on caractérise un vecteur par ses composantes dans une base vectorielle d’expression, laquelle est formée de trois vecteurs indépendants. Par exemple, on écrit, pour le vecteur vitesse : v = v x e x + v y e y + vz e z vx , v y , vz étant les trois composantes de v et ex , e y , ez les trois vecteurs de la base. La présentation formelle du calcul vectoriel est attribuée à l’Irlandais William Hamilton en 1843 et à l’Allemand Hermann Grassmann en 1855. Dans ce contexte, un vecteur est essentiellement un objet mathématique qui satisfait à un certain nombre de propriétés précises, caractéristiques d’un espace vectoriel. C’est le cas des vecteurs cités plus haut, qui sont à trois dimensions ; en relativité, on introduit les quadrivecteurs, qui sont à quatre 1. On distingue souvent typographiquement les vecteurs des nombres, soit en utilisant les caractères gras, comme dans ce texte, soit en surmontant leur symbole par une flèche, comme sur les figures d’illustration.

379

ANNEXE 1 : QUELQUES RÉSULTATS MATHÉMATIQUES UTILES

dimensions, la première en relation avec le temps, les trois autres avec les dimensions de l’espace habituel. En physique quantique, la fonction d’onde d’un système est un vecteur dit d’état, car il caractérise l’état de ce système. Les vecteurs ont des propriétés issues de la nature des lois physiques dans lesquelles ils apparaissent. La première d’entre elles est la multiplication d’un vecteur v par un nombre α, ce qui donne un nouveau vecteur αv, de même direction que v, mais de valeur α fois plus grande ; évidemment si α = 1, le vecteur ne change pas. L’addition de deux vecteurs u + v s’obtient selon la règle du parallélogramme (Fig. 1a) : on porte en un même point les deux vecteurs u et v, puis on construit le parallélogramme associé ; le vecteur somme u + v est le vecteur que l’on obtient en joignant ce point au sommet opposé du parallélogramme. Le vecteur différence, u − v, est le vecteur reliant les deux autres sommets du parallélogramme ; lorsque le sommet de ce dernier coïncide avec le point de départ, les deux vecteurs forment un vecteur nul, noté 0. Pour exprimer l’égalité de deux vecteurs, il suffit de montrer que leur différence est un vecteur nul.

Figure 1 a) Somme de deux vecteurs. b) Produit scalaire de deux vecteurs. c) Produit vectoriel de deux vecteurs.

Il est souvent commode de traduire l’égalité de deux vecteurs en exprimant l’égalité de leurs composantes dans une même base d’expression ex , e y , ez . Ainsi, si on explicite, à trois dimensions, les vecteurs u et v selon : u = u x e x + u x e y + u z ez 380

LA PENSÉE EN PHYSIQUE

et v = vx ex + vx e y + vz ez

ANNEXE 1 : QUELQUES RÉSULTATS MATHÉMATIQUES UTILES

dans la même base, l’égalité des deux vecteurs implique l’égalité de leurs composantes respectives : u x = vx , u y = v y , u z = vz .

LES FONCTIONS SINUSOÏDALES On définit simplement le mouvement sinusoïdal à partir du mouvement uniforme d’un point A, sur un cercle de rayon r . La longueur ℓ parcourue sur le cercle par A est directement reliée à l’angle θ que fait, avec l’axe de référence Ox, le vecteur O A, reliant le centre O du cercle à A (Fig. 2a) ; en effet, par définition de la mesure d’un angle, non en degré, mais en radian, qui est un nombre sans dimension, on a : θ = ℓ/r . Comme le mouvement est uniforme, θ = ωt, ω étant la vitesse angulaire associée au mouvement circulaire uniforme de A.

Figure 2 a) Mouvement circulaire uniforme d’un point et mouvement sinusoïdal. b) Tensions sinusoïdales en régime électrique triphasé.

Le vecteur O A se projette selon x = O H sur l’axe Ox, défini par la position initiale A0 de A sur le cercle. Le rapport de cette projection O H sur r est par définition le cosinus de l’angle θ. Comme le rayon r est précisément la valeur maximale de x, on a : x = x m cos(ωt), ce qui caractérise un mouvement sinusoïdal ; x m est l’amplitude du mouvement, ω sa pulsation, ν = ω/(2π ) sa fréquence et T = 1/ν sa période. Si T est exprimé en seconde, ν l’est en hertz (inverse d’une seconde) et ω en rad.s−1 . Dans l’écriture d’une fonction sinusoïdale, on ajoute le plus souvent un terme de phase φ à l’origine des temps, 381

ANNEXE 1 : QUELQUES RÉSULTATS MATHÉMATIQUES UTILES

selon :

x = x m cos(ωt + φ).

Ce mouvement est en avance de phase de φ par rapport au précédent. Un exemple bien connu de déphasage est celui fourni par la distribution de la puissance électrique en régime triphasé ; trois tensions sinusoïdales v1 = vm cos(ωt), v2 = vm cos(ωt − 2π/3) et v3 = vm cos(ωt − 4π/3), sont imposées, entre un conducteur neutre et trois autres, appelés respectivement « phase 1 », « phase 2 », « phase 3 » (Fig. 2b). En France, la fréquence ν = ω/(2π ) est maintenue à 50 Hz et l’amplitude vm à 230 V ; il en résulte qu’entre deux phases, la ten√ sion vaut 230 × (3) ≈ 400 V. Les trois tensions diffèrent par leurs phases ; précisément, v2 est en retard de 2π/3 par rapport à v1 , et v3 l’est de 4π/3. Les retards de phase sont ici comptés négativement. En optique, en électromagnétisme et en physique quantique, la convention est inversée : les retards de phase sont comptés positivement. La projection O K du vecteur O A selon l’axe O y, perpendiculaire à Ox, de telle sorte que l’angle entre eux soit égal à +π/2, varie au cours du temps selon une loi sinusoïdale aussi, ce que l’on écrit introduisant le rapport O K /r , appelé sinus ; ainsi y = x m sin(ωt + φ). Comme on passe facilement d’un cosinus à un sinus en ajoutant un angle π/2, on ne considère le plus souvent que le cosinus. Il existe un lien étroit entre le cosinus, le sinus et l’exponentielle complexe, lien établi pour la première fois par le mathématicien suisse Leonhard Euler : exp(i θ) = cos θ + i sin θ où exp i θ signifie eiθ . Pour θ = π, la relation précédente devient exp(i π) + 1 = 0, expression qui rassemble l’arithmétique par 1 et 0, la géométrie par π, l’analyse par e et l’analyse complexe par le nombre imaginaire i tel que i 2 = −1. On a dit que c’était l’une des plus belles formules mathématiques. Les fonctions sinusoïdales du temps ou de l’espace, ainsi que la fonction exponentielle complexe correspondante, sont précieuses en 382

LA PENSÉE EN PHYSIQUE

ANNEXE 1 : QUELQUES RÉSULTATS MATHÉMATIQUES UTILES

physique, d’une part par leur capacité à exprimer les fonctions qui ne sont pas sinusoïdales, d’autre part en raison de leur simplicité technique ; en effet, le taux de variation de la fonction dans le temps a la même forme que la fonction elle-même. Le premier point a été établi au xixe siècle (cf. Chapitre 7). On préfère généralement considérer la fonction : x(t) = x m exp i (ωt + φ) = x m exp i (ωt), dont la partie réelle est la fonction x(t) = x m cos(ωt + φ) précisément. On sépare ainsi aisément la contribution temporelle exp(i ωt) de l’amplitude complexe x m = x m exp(i φ). Produit scalaire de deux vecteurs Le produit scalaire de deux vecteurs u et v, noté souvent u · v, est défini par le produit suivant de leurs longueurs et du cosinus de l’angle qu’ils forment entre eux (Fig. 1b) : u · v = u v cos θ Un exemple physique de produit scalaire est fourni par la puissance d’une force, produit scalaire du vecteur force F par le vecteur vitesse v du corpuscule qui subit la force. On voit que le produit scalaire est commutatif u · v = v · u et que v · v = v2 . Lorsque les vecteurs d’une base sont tels que ei · e j = 0 pour i 6 = j et 1 pour i = j , la base est dite orthonormée. Le qualificatif scalaire a une signification précise : il rappelle que ce produit est indépendant de la base utilisée pour exprimer les vecteurs, ce qui n’est pas le cas des composantes des vecteurs. Produit vectoriel de deux vecteurs Le sinus apparaît explicitement dans la définition d’un autre produit des deux vecteurs u et v, appelé produit vectoriel. Il fut introduit en 1881 par le physicien américain Josiah Gibbs. Comme 383

ANNEXE 1 : QUELQUES RÉSULTATS MATHÉMATIQUES UTILES

son nom l’indique, ce produit n’est pas un scalaire, mais un autre vecteur w = u × v dont les propriétés sont les suivantes (Fig. 1c) : i) Il est dirigé selon la perpendiculaire au plan formé par les deux vecteurs u et v. ii) Sa longueur est égale au produit des longueurs des deux vecteurs par la valeur absolue du sinus de l’angle θ qu’ils font entre eux : w = u v | sin θ| ; elle est égale à l’aire du parallélogramme construit avec u et v. iii) Il est orienté à partir de la règle du tire-bouchon de Maxwell, selon laquelle une rotation d’un angle θ, amenant u vers v, s’accompagne d’un vissage dans le sens de w. Ainsi, ce produit vectoriel exige pour sa définition une convention d’orientation, ce qui le distingue fondamentalement des vecteurs définis préalablement, qualifiés de polaires, par opposition au nouveau vecteur issu du produit vectoriel, adjectivé par axial 2 . Un exemple historique de produit vectoriel est fourni par le vecteur champ magnétique B produit, en un point P, par une charge électrique (q) en M, en mouvement à la vitesse v. Ce vecteur B est perpendiculaire au plan formé par les vecteurs qv et r/r 3 , avec r = M P ; sa valeur est qv(r/r 3 ) sin θ, θ étant l’angle que fait le vecteur r/r 3 avec qv.

2. Le concept de tenseur permet d’englober toutes ces grandeurs : le scalaire est un tenseur d’ordre 0, le vecteur polaire un tenseur d’ordre 1, le vecteur axial un tenseur d’ordre 2, antisymétrique.

384

LA PENSÉE EN PHYSIQUE

Annexe 2 Itinéraire

Perrégaux, petite ville de l’Oranie Mes premières interrogations, en relation plus ou moins avec la science, remontent à mon enfance, dans les années 1950, dans une petite ville de l’Oranie, en Algérie, Perrégaux 1 . Cette ville portait le nom d’un général, Alexandre-Charles Perrégaux, Suisse naturalisé Français en 1816, et mort dans un combat à Constantine, en octobre 1837. Elle fut créée en 1853, selon un découpage géométrique militaire, au débouché de la rivière l’Habra, dans la plaine environnante. Elle se développa ensuite, autour de l’intersection de deux lignes de chemin de fer, la première, le long de la côte, allant d’Oran à Alger, créée en 1857, et la seconde d’Oran à Colomb-Béchar 2 , dans le Sud, construite peu après. Ces interrogations étaient celles de la plupart des enfants du quartier, et auxquelles seuls les plus grands donnaient des réponses assurées, mais toutes empreintes de superstition païenne ou religieuse, 1. Aujourd’hui Mohammadia. 2. Aujourd’hui Béchar.

385

ANNEXE 2 : ITINÉRAIRE

voire de magie : maisons hantées, fantômes, mauvais sort, mirages, etc. Seuls quelques adultes rejetaient ces explications, mais sans en proposer de nouvelles. Il est vrai que la plupart d’entre eux, d’origine espagnole ou arabe, n’avaient jamais fréquenté l’école ; les plus avancés ne déchiffraient que difficilement le journal local. Ils étaient tous ouvriers (maçons, boulangers, plombiers, tailleurs d’arbres, etc.), et aucun d’entre eux n’avait de livres chez lui ; quant aux mères, qui n’avaient pas non plus fréquenté d’écoles, elles étaient toutes femmes au foyer. En revanche, la plupart des adultes étaient capables de communiquer entre eux, en trois langues, même s’ils les parlaient toutes mal : l’espagnol, l’arabe dialectal et le français. Le niveau de pauvreté était tel que les petits fonctionnaires ou assimilés, des postes, des chemins de fer, de l’électricité et du gaz, et surtout de l’enseignement, leur paraissaient privilégiés. Il est vrai qu’ils percevaient eux un salaire mensuel, parlaient et écrivaient le français. L’École de la République Je n’ai que peu de souvenir de l’école primaire, en dehors d’une scolarité agréable et sans problème, avec des enseignants, dont l’activité était centrée essentiellement sur l’apprentissage du calcul et du français. Ce dernier me paraissait plus difficile à assimiler, probablement en raison de mes origines et des mots difficiles qui étaient souvent donnés sans référence à leurs origines grecques ou latines. Je fus ainsi surpris et heureux d’apprendre, bien plus tard, que le mot « sieste », repos que les parents en Algérie imposaient, en été, à leurs enfants, vers quatorze heures, venait de six heures, après le lever matinal. Je me souviens du jour où ma sœur, mon aînée de deux ans, se fit acheter un dictionnaire, comme son institutrice le lui avait demandé ; nous étions tous, dans la famille, fiers de cette acquisition, mais personne ne savait s’en servir ! Nous tournions autour d’une table basse sur laquelle reposait le précieux document, mon père ne cessant de 386

LA PENSÉE EN PHYSIQUE

ANNEXE 2 : ITINÉRAIRE

répéter « Dans le dictionnaire, il y a tout ! ». Heureusement, nous fûmes aidés par l’une des rares personnes instruites du voisinage. C’est à la fin du primaire, après l’enseignement du catéchisme, et au début du cours complémentaire que je me suis progressivement détaché de la superstition et de la religion, comme source d’explication. L’argumentation me paraissait compliquée à suivre, même si les réponses aux questions étaient toutes affirmatives. Je recherchais dans mes livres de classe des réponses aussi affirmatives aux questions scolaires ; souvent en vain, car c’était toujours plus subtil. Mon goût pour les sciences vient probablement de la clarté des réponses scientifiques à des questions élémentaires que nous nous posions : l’aspect de la Lune, la disposition des étoiles dans le ciel, l’origine des saisons, les couleurs de l’arc-en-ciel, etc. Je trouvais en revanche les interprétations profanes peu crédibles, et surtout trop difficiles à retenir. Les quelques documents scientifiques que j’avais pu lire sur le sujet me paraissaient plus simples à suivre et plus convaincants, même si des parties du raisonnement m’échappaient ; je sentais que l’École de la République comblerait ces lacunes. Ce fut le cas. Bien plus tard, en préparant l’agrégation à l’Université, je fus émerveillé en voyant le bleu du ciel reconstitué expérimentalement ; pour cela, on éclaire, avec un faisceau de lumière blanche, l’eau d’une cuve transparente dans laquelle on a versé quelques gouttes de lait ; la cuve prend latéralement une coloration bleutée, alors que le faisceau émergent dans la direction incidente vire au rouge, comme au Soleil couchant. Je garde en mémoire le visage d’un vieil espagnol républicain, réfugié de la guerre civile, nous parlant de science. Il nous impressionnait, car, en outre, il parlait, lisait et écrivait un excellent espagnol, ce qui nous paraissait extraordinaire ; tous les enfants du quartier auraient voulu s’exprimer aussi bien que lui. En plus d’être généreux dans ses explications, il était adroit de ses mains, ce qui lui permettait, entre autres choses, de réparer les montres à gousset de nos parents. C’est en le voyant travailler que je découvris pour la première fois les ingénieux 387

ANNEXE 2 : ITINÉRAIRE

mécanismes de l’horlogerie. Je me plus à l’imiter modestement, avec les montages élaborés que proposaient les boîtes de jeux Meccano. Finalement, le discours scientifique me parut le plus simple à suivre pour expliquer le monde environnant. Cette posture fut cependant délicate à assumer localement, car ma mère avait la réputation de soulager efficacement du mal de tête. Pour cela, elle n’avait besoin que d’un matériel rudimentaire : un récipient, dans lequel elle faisait bouillir de l’eau, et une assiette sur laquelle elle versait l’eau en retournant rapidement le récipient qu’elle avait entouré d’un chiffon pour ne pas se brûler ; ensuite, en analysant la vitesse avec laquelle l’eau du bocal envahissait l’assiette, et en accompagnant l’expérience de prières singulières, autour du seul prénom du plaignant, elle arrivait à estimer l’intensité du mal de tête, et surtout à le supprimer. Le fait le plus extraordinaire est que les personnes venaient, après cette intervention miraculeuse, pour la remercier. J’ai évidemment essayé de comprendre la raison de son succès, en vain. J’oubliais une condition essentielle au maintien de ce don : elle ne devait accepter ni rémunération ni cadeau, et impérativement le transmettre uniquement à sa fille. Quelques cinquante ans plus tard, j’ai rencontré un professeur de mécanique qui me rappelait ce don qu’avait ma mère et auquel, ému, il semblait croire encore ! Dans ce contexte, j’ai difficilement accepté que l’inculture puisse avoir quelque attrait, même exotique, comparée à la culture que je découvrais progressivement dans l’enseignement, parfois autoritaire, que mettaient à notre portée nos instituteurs. On dit souvent que toutes les cultures se valent ; c’est probablement vrai, encore fautil prendre la précaution de distinguer culture et civilisation : toute culture exige, contrairement à la civilisation, une pensée et un savoir construits autour de la philosophie et de la science. Un autre signal déclencheur pour la science fut probablement la lecture d’une bande dessinée dans laquelle un justicier de l’Ouest américain, le « visage pâle » Steve Adams, excellent cavalier et très adroit au tir à l’arc, se déguisait en Comanche pour punir tous les 388

LA PENSÉE EN PHYSIQUE

ANNEXE 2 : ITINÉRAIRE

hors-la-loi de la région, en général des Blancs ! Dans l’une des aventures du justicier, qui se faisait appeler « Flèche loyale », un mirage optique était curieusement responsable de la disparition incompréhensible des brigands qu’il poursuivait. Je trouvais cela doublement original : de la physique élaborée, dans une bande dessinée, et un justicier qui ne se masquait pas le visage comme Zorro, mais prenait volontairement les traits d’un Amérindien combattu par des colons d’Angleterre ! La première fois que j’ai entendu et lu de beaux textes d’auteurs, que j’ai écouté de la musique dite classique, c’était ausi à l’École de la République. De même, c’est là que je découvris, le samedi après-midi, certains films de qualité. Je garde en mémoire l’excellent western de John Ford, Le massacre de Fort Apache, qui traitait sévèrement de la lutte des classes sociales et du racisme. Le fait d’avoir lu et appris, par les livres, que mes ancêtres étaient blonds et avaient de longues moustaches, puis plus tard furent remplacés par Corneille, Voltaire, Rousseau et Hugo, ne m’a pas du tout perturbé. Même aujourd’hui, soixante ans plus tard, où la mode est aux arbres généalogiques, j’ai quelque plaisir à revendiquer leur adoption définitive. Cela ne m’a pas empêché d’approfondir le castillan, la langue de mes parents, dont je connaissais essentiellement les sons et les expressions populaires, et d’apprendre quelques éléments d’arabe dialectal algérien. La physique au cours complémentaire L’enseignement de la physique a commencé au « cours complémentaire », dès la classe de quatrième, et le souvenir que j’en ai gardé est excellent. Aussi, je plains les lycéens de l’époque d’avoir dû attendre la classe de seconde pour le découvrir. Cet enseignement se distinguait de celui des maths par sa vocation à découvrir et expliquer les lois physiques de la nature, par exemple la formation des images, la nature des forces et leur rôle dans le mouvement ou l’absence de mouvement des corps, le rôle de la température, etc. 389

ANNEXE 2 : ITINÉRAIRE

Notre professeur, un instituteur devenu professeur, était exceptionnel ; sa classe était tapissée d’affiches portant chacune l’un des grands noms de la science, avec leur période d’activité scientifique et leur spécialité. Évidemment, on y retrouvait ceux cités dans nos manuels, autour d’une découverte ou d’une loi. Mais on y découvrait aussi ceux, plus proches de nous, comme Jean Perrin, Pierre et Marie Curie, Paul Langevin, Albert Einstein, avec quelques mots sur leurs contributions. Sur un tableau réservé à l’actualité scientifique, on pouvait aussi lire des coupures de journaux sur Albert Einstein, à l’origine de la théorie de la relativité et donc de la célèbre formule E = mc2 reliant énergie d’un corps, masse et vitesse de la lumière dans le vide. Sa mort récente, l’année précédente, en 1955, nous fut présentée comme une perte dramatique. Je pressais alors mon père de m’offrir le dernier numéro de Science et Vie sur la fission et la fusion nucléaires ; mais j’avoue n’y avoir pas compris grand chose, tout en trouvant le texte passionnant. Je fus soulagé en découvrant plus tard des textes scientifiques à ma portée, dans la rubrique « Les histoires de l’Oncle Paul » de la bande dessinée Spirou. Ces histoires traitaient souvent d’avancées scientifiques et techniques autour de personnalités exceptionnelles (Pasteur, Nobel, Edison, etc.). Elles étaient très bien scénarisées par le Belge Jean-Michel Charlier et joliment dessinées par le Français Jean Graton. Ce professeur de physique et chimie illustrait tous les cours par des expériences auxquelles les élèves étaient invités à participer, autour de sa grande table de travail. À cette époque, les précautions prises en classe étaient moins contraignantes qu’aujourd’hui. En mécanique, les manipulations autour de ressorts, de leviers, de poulies et de balances, étaient sans danger, et nous rappelaient les objets de notre vie quotidienne. Avec lui, on analysait tout ce qu’on faisait et on justifiait l’introduction de tous les nouveaux concepts : la force avec l’exemple du poids et de l’allongement d’un ressort, et le « moment d’une force », plus énigmatique, mais décisif dans l’étude des mouvements de rotation ; j’ai regretté de ne pas avoir osé lui demander l’origine du mot 390

LA PENSÉE EN PHYSIQUE

ANNEXE 2 : ITINÉRAIRE

choisi pour le désigner, qui vient, non de durée, mais de mouvement (movimentum en latin). Ma première vraie surprise en cours de physique fut la découverte expérimentale du concept de pression dans un liquide, et surtout dans un gaz comme l’air, incolore. Vint alors l’expérience de l’Italien Evangelista Torricelli, permettant de mesurer la pression qu’exerce l’atmosphère terrestre, à l’aide de tubes de hauteurs différentes, tous remplis de mercure ; une fois remplis puis retournés sur la cuve, ils s’obstinaient à afficher une même hauteur, proche de 76 cm ! Nous abordâmes ensuite l’étude de la chaleur et de la dilatation des corps (solide, liquide, gaz), en fonction de la température, que l’on faisait varier en chauffant ces corps à l’aide d’une rampe à gaz. La dilatation était mise en évidence par un pyromètre rudimentaire, dont l’aiguille tournait sur un cadran métallique. Ce concept me parut clair, contrairement à celui de chaleur, que l’on comparait au travail d’une force, malgré une unité de mesure, la calorie, différente du joule. L’expérience spectaculaire du bouillant (et non bouillon) de Franklin m’impressionna aussi : on relance l’ébullition de l’eau, dans un ballon initialement portée à environ 100 °C, en appliquant simplement un chiffon humide sur le fond du ballon, une fois retourné. Sur l’optique, je ne savais rien, même si je portais des verres correcteurs en raison d’une légère myopie. Aussi je fus très flatté, lorsque le professeur, un quart d’heure avant le début de son cours, me confia les clés de la salle de classe et des placards de rangement, avec la mission de sortir le matériel d’optique nécessaire à une première leçon : glace transparente, bougie, miroirs, lentilles avec leurs supports ! Sans avouer mon ignorance sur les lentilles, j’acceptais cette tâche avec fierté, car j’étais autorisé à ouvrir seul cette salle qui sentait la science, au milieu de tous ces savants sur les murs qui semblaient me regarder. En ouvrant les placards, je fis aisément la différence entre celui de physique et celui de chimie rempli de flacons étiquetés ; je vis facilement où se trouvait rassemblé tout le matériel optique et je le disposai avec précaution sur le bureau de travail. Lorsque les autres élèves 391

ANNEXE 2 : ITINÉRAIRE

rentrèrent, en rang évidemment, je surpris alors le professeur lancer un rapide coup d’œil sur le matériel sorti, et esquisser un discret regard de satisfaction dans ma direction. Je décidai alors d’être dorénavant excellent en optique des rayons lumineux et même plus généralement en physique. Le cours probablement le plus spectaculaire fut celui de chimie, avec toutes les expériences d’oxydation des métaux, comme l’aluminium et le magnésium. Avec ce professeur, c’était bien mieux que la magie, car il n’y avait aucune tricherie, uniquement une explication logique à tout ce qu’il nous montrait et qui nous surprenait. Avec deux autres élèves de la classe, nous décidâmes de monter quelques expériences, notamment la fabrication de dihydrogène, à partir de la réaction de l’acide chlorhydrique sur du zinc. L’esprit de sel, vendu en droguerie, ainsi que des déchets de vieilles gouttières en zinc firent l’affaire. L’un se procura cuves, tubes à essai et éprouvettes, car son père était instituteur. Finalement, le résultat fut concluant, puisque nous pûmes gonfler plusieurs ballons de baudruche avec de l’hydrogène. La physique à l’École normale d’instituteurs Ma première surprise dans l’enseignement de la physique, à l’École normale d’instituteurs d’Oran, fut la reprise de nos cours de quatrième et de troisième. Je n’ai pas le souvenir d’avoir appris grand chose de plus, sinon qu’un professeur pouvait préférer passer des heures de cours à interroger oralement des élèves en les terrorisant, plutôt que leur enseigner la physique du programme. Évidemment, il se plaignait en permanence du niveau insuffisant de ses élèves. Ainsi, il s’est inutilement étendu sur la statique des solides, avec poids, réactions de support et ressorts dilatés ou comprimés. La statique des fluides était heureusement plus intéressante, avec la poussée d’Archimède, mais peu d’expériences nouvelles sur le sujet. Quant à la thermodynamique, elle fut bâclée, car notre professeur préférait nous faire constater publiquement nos faiblesses, plutôt que de les combler. Il est vrai qu’il était le seul professeur de physique dans l’établissement 392

LA PENSÉE EN PHYSIQUE

ANNEXE 2 : ITINÉRAIRE

et de fort mauvais caractère. Même le Directeur de l’École normale le craignait ; curieusement, je n’ai jamais assisté à une quelconque inspection de sa classe par une autorité pédagogique et scientifique ! L’année suivante, je retrouve cette terreur autour de l’optique et de l’électromagnétisme. Il modère son goût pour les interrogations orales pendant les cours, car la première partie du baccalauréat, avec son programme national, exige qu’aucune partie ne soit délaissée. Pour l’optique, on reprend en développant la réfraction et les formules de conjugaison des lentilles, avec leur implication dans la correction des défauts de l’œil. Je n’ai cependant aucun souvenir de la moindre application aux phénomènes naturels, l’arc-en-ciel ou les mirages. Même si son cours fut plus convaincant en électromagnétisme, il m’aura plutôt incité à m’intéresser davantage aux mathématiques. Afin de préparer l’option dite « mathématiques élémentaires » de la seconde partie du baccalauréat, je suis transféré, avec quelques autres élèves, à l’École normale d’Alger, « La Bouzareah », dans la banlieue d’Alger. Quelques professeurs me marquent par leur fortes personnalités, celui de mathématiques, original, expéditif et très élitiste, celui de Sciences de la vie, excellent pédagogue et d’une grande efficacité. Celui de physique, plus discret, souffrait probablement de l’influence envahissante de son collègue de maths ; pourtant son homonymat avec un grand scientifique atomiste français aurait dû lui donner plus d’assurance. À la suite d’une visite médicale scolaire, en novembre de l’année en cours, on me découvre une pathologie au point de m’envoyer au Sanatorium de la MGEN à Sainte-Feyre, dans la Creuse, à une dizaine de kilomètres de Guéret. Aussi n’ai-je que peu de souvenirs de ces enseignements. Une fois arrivé au Sanatorium, alité dans ma chambre, je décidai pourtant de préparer le bac, seul avec mes livres. Mes difficultés furent surtout dans la recherche d’exercices corrigés de maths et de physique, aggravées dans ce dernier cas par l’absence d’expériences. Je découvre là l’importance des discussions scientifiques 393

ANNEXE 2 : ITINÉRAIRE

entre élèves, et surtout l’intérêt d’un interlocuteur même silencieux pour développer des arguments, voire pour forger des convictions. Par chance, je rencontrai dans cet établissement médical un professeur de mathématiques, malade comme moi, qui proposa de m’aider en maths, ce que j’acceptai avec joie, d’autant plus qu’il m’encourageait sans cesse, en vantant mes quelques initiatives ou réponses heureuses. J’ai retenu dans mon activité ultérieure d’enseignant l’intérêt des encouragements prodigués à des élèves en difficulté, bien que déterminés dans leurs objectifs. J’avais avec lui un autre point commun, l’intérêt pour le ciné-club qu’organisait chaque semaine l’établissement. Parallèlement, je travaillais aussi la physique, mais cette matière me posait moins de problème, car plus concrète, sans oublier la philosophie des sciences que je lisais par goût en consultant des ouvrages à la bibliothèque. Je découvris, dans l’un d’entre eux, une description minutieuse de l’expérience de Michelson en physique, mais n’y comprenant pratiquement rien, je me promis d’approfondir le sujet plus tard. Le baccalauréat en 1960 comportait une première épreuve en février et une seconde en mai. Les résultats de février se soldèrent par une confortable avance, ce qui sauva cette année scolaire. L’année suivante, bloqué à Sainte-Feyre, j’ai pu passer le CFEN (Certificat de fin d’études normales), ce qui me permit de devenir élève-maître stagiaire et ainsi percevoir un salaire ! La physique à l’Université Après Sainte-Feyre, et quelques difficultés administratives liées à mon statut d’élève-maître, je décidai de suivre une propédeutique scientifique à l’Université d’Alger, avec la perspective de préparer le concours des IPES (Institut de Préparation à l’Enseignement Secondaire), ce qui me permettrait de recevoir un salaire durant les études, à la manière des élèves des Écoles Normales Supérieures. En contrepartie, je devrais m’engager à exercer une activité dans l’enseignement public, mais ce n’était pas une contrainte pour moi, puisque je n’imaginais pas d’autre profession qu’enseignant, et d’autre lieu que l’École 394

LA PENSÉE EN PHYSIQUE

ANNEXE 2 : ITINÉRAIRE

Publique pour l’exercer. J’ai évidemment hésité entre la filière MGP (Mathématiques générales, Physique), conseillée par les professeurs de maths des lycées à leurs bons élèves, et celle MPC (Mathématique, Physique, Chimie) préconisée à ceux moins assurés en maths. Tiraillé entre le prestige de la première et la prudence que l’on me conseillait, compte tenu de ma formation incomplète, je décidai d’opter pour la seconde, d’autant plus facilement qu’un étudiant (arabe) plus âgé, à qui je demandais son avis, me rétorqua sans hésiter que lui, à ma place, choisirait MPC ; les travaux pratiques de physique et de chimie étaient à ses yeux irremplaçables, alors que les insuffisances en maths pourraient être aisément corrigées, en cas de rechute médicale. Ce conseil s’avéra excellent ; merci à lui. Le premier cours de maths en MPC m’inquiéta. Le professeur était un logicien, réputé semble-t-il, mais manifestement éloigné de toute préoccupation pédagogique et pratique. Avec une conviction aristocratique à la fois de sa fonction et des mathématiques, il passait l’essentiel de ses cours à nous parler de la construction des nombres, des suites, des paradoxes associés, en laissant de côté toute référence, même lointaine, aux mathématiques nécessaires en physique et chimie. Il laissait ce soin à un collaborateur dévoué, dont la singularité était l’excellence pédagogique et la générosité ; nous admirions sa détermination, malgré une mobilité réduite (il se déplaçait avec des béquilles). Un ouvrage de maths avec exercices d’applications s’avéra très vite nécessaire. Je retrouvai heureusement, à l’Université d’Alger, un ami de l’École normale qui me conseilla utilement, notamment en me passant les excellents polycopiés de mathématiques que son professeur de MGP avait distribués, l’année précédente. En physique, tout m’a semblé plus facile, car le cours était dispensé par une dame élégante qui n’hésitait pas à l’illustrer à l’aide d’expériences en amphithéâtre, à la manière des leçons d’agrégation. En outre, son discours oral était bien complété par un support polycopié. Deux légers reproches, la profusion de formules à retenir en optique, et l’introduction des opérateurs différentiels en début de cours, sans 395

ANNEXE 2 : ITINÉRAIRE

relation avec les lois de la physique sous-jacentes. C’était la règle dans l’enseignement français de la physique : les mathématiques d’abord, la physique ensuite, ce qui me posait quelques problèmes, car je cherchais en vain la justification scientifique et historique de ces opérateurs en physique ; même difficulté avec les nombres complexes, présentés de façon formelle sans contexte physique, historique et épistémologique. La physique m’apparut alors pour la première fois plus intéressante que les mathématiques : recherche des lois du monde, avec l’utilisation de mathématiques plus ou moins avancées, selon le niveau de présentation ou d’approximation choisi. En chimie, l’enseignement était déconcertant : on devait admettre des résultats que seul un enseignement préalable de thermodynamique aurait permis de justifier. Concernant l’aspect expérimental, le travail se réduisait à la recherche d’ions dans des solutions, à l’aide de recettes complexes et surtout incompréhensibles ! Malgré l’arrêt des cours à la mi-mars, lié à la proclamation prochaine de l’indépendance de l’Algérie, l’année universitaire s’acheva, sans trop de perturbations, avec des examens reportés en septembre, et organisés en France métropolitaine. Finalement, l’issue de cette année universitaire fut positive, puisque j’étais admis au concours des IPES. Je reçus, le même jour, deux documents officiels, le premier m’annonçant que je pouvais poursuivre mes études tout en étant rémunéré comme professeur stagiaire, le second me demandant de rejoindre au plus vite mon affectation d’instituteur dans un lointain village de Moselle. Je choisis évidemment la première option. Les deux années suivantes, je découvris l’enseignement universitaire de la physique, découpé en certificats de licence, notamment ses grandes insuffisances, en comparant son contenu à celui des ouvrages publiés par des professeurs des classes de préparation aux grandes écoles. En mécanique physique, le professeur ne traita qu’une seule partie du programme, en occultant la propagation des ondes mécaniques dans les milieux matériels, pour se limiter aux seuls oscillateurs mécaniques ou électriques à un ou deux degrés de 396

LA PENSÉE EN PHYSIQUE

ANNEXE 2 : ITINÉRAIRE

liberté. En thermodynamique, science des principes sur l’énergie et sur l’entropie, toute la physique statistique fut oubliée, même celle élémentaire qui permet d’approcher la nature profonde des concepts de température et de pression. Le travail de Prigogine était évidemment ignoré, puisqu’on introduisait encore le deuxième principe à l’aide du moteur thermique de Carnot. En outre, l’étude des machines thermiques réelles (moteur à explosion, moteur Diesel) était réduite aux seuls aspects théoriques, sans aucune précision historique, expérimentale et encore moins épistémologique. En optique, les insuffisances du cours furent manifestes, cela malgré la réputation scientifique du professeur qui l’assurait. En effet, il traita essentiellement de la polarisation de la lumière, sans base électromagnétique ; le parti pris du spectacle par les couleurs de la polarisation avait manifestement pris le dessus. Curieusement, il passa sous silence les concepts de cohérence temporelle et de cohérence spatiale en interférométrie ; de même, il ignora la transformation de Fourier en diffraction et donc l’analyse spectrale des images optiques, en termes de filtrage des fréquences spatiales, pourtant si éclairante en strioscopie et en contraste de phase. Ce dernier point fut d’autant plus surprenant que l’une de ses préoccupations principales à l’époque, en microscopie électronique, était précisément la vision des atomes, objets dits de phase faible. Enfin, aucune justification sur l’importance de l’optique des rayons lumineux dans l’analyse ondulatoire, et rien sur la relation entre la première et la seconde qui la contient. En électromagnétisme, le cours était plutôt bien structuré, mais essentiellement technique et calculatoire, avec un usage intensif du calcul tensoriel, manifestement au-dessus des connaissances mathématiques des étudiants et même des meilleurs d’entre nous. Cependant, la part prise par l’électrostatique et la magnétostatique fut excessive, au détriment des phénomènes dépendant du temps. En outre, dans les milieux matériels, le professeur fonda son cours sur une analogie maladroite qui le conduisit à introduire une définition non standard de l’aimantation, handicapante pour les futurs 397

ANNEXE 2 : ITINÉRAIRE

agrégatifs dont je fus. Évidemment, rien sur l’essence relativiste du magnétisme. En électronique, même les élèves-ingénieurs avec lesquels nous suivions les cours ne faisaient pas le lien entre les lois des circuits et les équations de Maxwell ! On travaillait sur des schémas à lampes à vide, au moment où l’on parlait surtout des transistors. On nous demanda d’appliquer le théorème de Thévenin, mais personne ne semblait connaître la publication originale de l’auteur ! En Mécanique générale, anciennement rationnelle, le professeur était brillant, mais ce n’était pas un mécanicien ! Il privilégiait l’outil perfectionné, mais inutile des torseurs, introduit au début du xxe siècle par le géomètre britannique Robert Ball. Il ne crut pas utile de citer Galilée, et de parler du principe de relativité galiléenne. Évidemment, il passa sous silence la construction historique des concepts de quantité de mouvement, de moment cinétique, d’énergie cinétique qu’il s’obstinait à appeler force vive, et surtout d’énergie mécanique qu’il réduisait à une banale constante d’intégration. Évidemment, Poincaré et Einstein étaient ignorés, un demi-siècle après leurs contributions ; on disait pourtant que le peintre Picasso se promenait à Paris, en 1902, avec en poche le livre de Poincaré La Science et l’Hypothèse ! De même, pas de commentaire sur l’exceptionnelle égalité de la masse grave et de la masse inerte, propriété à la base de la relativité générale, même si la chute libre des corps offrait une occasion exceptionnelle de le faire. Ce résultat semblait totalement ignoré à l’Université, alors qu’une leçon à l’oral de l’agrégation invitait à en faire état. Ah, j’oubliais : dans cet enseignement de mécanique, l’aspect expérimental était totalement occulté ; les travaux dits pratiques se réduisaient à des exercices formels supplémentaires, sans aucun intérêt pratique évidemment. Dans tout cet enseignement découpé en plusieurs certificats, rien sur la physique quantique et même rien sur son ancêtre la mécanique ondulatoire, qui datait pourtant de 1923 ! Curieusement, le professeur d’optique venait de faire construire, à la suite du physicien allemand 398

LA PENSÉE EN PHYSIQUE

ANNEXE 2 : ITINÉRAIRE

Ernst Ruska, un microscope électronique très haute tension, dont le fonctionnement était précisément fondé sur la relation de Louis de Broglie appliquée à l’électron ! Son idée était d’atteindre les dimensions de l’atome, objectif exclu avec la lumière. Recruté dans l’Enseignement supérieur Dans les années 1960, être recruté dans l’Enseignement supérieur était assez simple ; il suffisait d’attirer l’attention d’un enseignant en mesure de vous présenter au professeur décideur, et de convaincre ce dernier de la bonne opportunité que vous représentiez pour lui. Dans mon cas, ce fut un grand professeur d’optique de Toulouse. Curieusement, il me demanda ce que je voulais faire dans son laboratoire. Ignorant tout du doctorat et persuadé que l’agrégation de physique était le plus haut diplôme de l’Université, je lui répondis directement « l’agrégation, monsieur le Professeur ». Cette réponse sans aucune hésitation lui plut, probablement parce qu’elle lui rappela son passé de jeune et brillant agrégé. Aussi proposa-t-il de me recruter dans le service d’enseignement de son directeur adjoint, lui aussi professeur ! Au moment de nous séparer, alors que je sortais de son bureau, il m’interpela en raison d’une dernière difficulté : il n’avait qu’un poste CNRS à me proposer ; je lui répondis que sa proposition était pour moi moins intéressante, car je tenais à enseigner. Intrigué par ma réponse négative, il promit de me contacter, en cas de nouvelle possibilité, ce qu’il fit. Je fus donc recruté et installé dans un bureau du Laboratoire de microscopie électronique, avec la mission de mener à bien un Diplôme d’Études Supérieures, sous la direction d’un enseignant-chercheur chevronné ; le travail consistait à étudier la figure de diffraction donnée par des structures périodiques, grilles uni- et bidimentionnelles. Je découvris à cette occasion l’usage du laser hélium-néon dans un montage optique de formation d’images, en éclairage spatialement cohérent. Je pus alors évaluer la grande capacité de ces systèmes à réaliser physiquement une transformation de Fourier, et à permettre la manipulation des fréquences spatiales 399

ANNEXE 2 : ITINÉRAIRE

des objets, dans le plan spectral, bref à réaliser de précieuses images filtrées. Alors que je sortais de la bibliothèque du laboratoire, avec sous le bras le livre du grand physicien Lev Landau Théorie des champs, dans lequel était exposée, de façon complète et magistrale, la diffraction en optique, avec ses différentes approximations, je fus interpelé par le Directeur, accompagné du Sous-Directeur, étonnés tous deux de me voir en dehors de mon bureau. « Que faites-vous dans les couloirs avec un tel livre, au lieu d’être dans votre bureau? Sachez, jeune homme, qu’il ne s’agit là, dans ce que vous tenez dans votre main, que de physique de papier et de chiffon ! » Se tournant alors vers le Sous-Directeur, il s’adressa à lui : « Faites apporter à ce jeune homme les outils dont il a besoin dans ce laboratoire ». Le lendemain, un ingénieur m’apporta, dans mon bureau, un fer à souder, de la soudure, une paire de pinces et un tournevis. Je découvris par la suite que le Directeur était positiviste au sens d’Auguste Comte et de Marcelin Berthelot : les atomes et les molécules, introduits vingt-cinq siècles plus tôt par Démocrite, repris par Épicure et Lucrèce, puis par les physiciens modernes de la fin du xixe siècle, notamment Jean Perrin, Albert Einstein, Paul Langevin et les Curie, n’étaient pour eux que des chimères dont il fallait se méfier. Pourtant, le Directeur avait montré une grande aptitude à maîtriser le fonctionnnement d’un microscope électronique ; mais ce dernier fut utilisé essentiellement pour réaliser de belles images. Pour mettre en évidence les atomes, il aurait été nécessaire qu’il s’impliquât davantage dans une réflexion approfondie sur la formation des images d’objets faibles en microscopie électronique. En effet, ces objets ne modifient que la phase de l’onde électronique incidente et non son amplitude ; il en résulte que le détecteur en bout de chaîne, qui est chargé d’extraire l’information, n’y est pas sensible, puisqu’il ne détecte que son amplitude. Un an après sa disparition, en 1986, le prix Nobel fut décerné à l’inventeur du microscope électronique par transmission, l’Allemand Ernst Ruska, ainsi qu’aux constructeurs du microscope à effet tunnel, 400

LA PENSÉE EN PHYSIQUE

ANNEXE 2 : ITINÉRAIRE

l’Allemand Gerd Binnig et le Suisse Heinrich. J’appris quelques années plus tard que ce n’était pas la première fois qu’un positiviste était victime de son idéologie ; dans le passé, la découverte de l’électron avait échappé au positiviste allemand Walter Kaufmann au profit du réaliste anglais Joseph Thomson ! Je fus dès lors convaincu de la nécessité d’enseigner la physique, non seulement dans sa dimension technique, mais aussi et en même temps dans ses aspects historique et épistémologique. Ainsi préparé, j’aurais probablement évité d’être perturbé, comme je le fus à mes débuts d’enseignant-chercheur, par un mathématicien prestigieux (médaillé Fields), assénant à un auditoire de physiciens, resté sans voix, la recommandation impérieuse suivante : « Il est temps que vous, physiciens, réhabilitiez enfin les lois de la physique d’Aristote » !

401

Du même auteur

J.-Ph. Pérez, Relativité et invariance, fondements et applications, 3e édition, Dunod, 2016, 439 pages J.-Ph. Pérez, Mécanique, fondements et applications, 7e édition, Dunod, 2014, 801 pages J.-Ph. Pérez, R. Carles et O. Pujol, Quantique, fondements et applications, de Boeck, mars 2013, 1150 pages J.-Ph. Pérez, C. Lagoute, J.-Y. Fourniols et S. Bouhours, Électronique, fondements et applications, 2e édition, Dunod, 2012, 868 pages J.-Ph. Pérez, Thermodynamique, fondements et applications, 3e édition, Dunod, 2011, 584 pages J.-Ph. Pérez, Optique, fondements et applications, 7e édition, Dunod, 2011, 698 pages J.-Ph. Pérez, C. Lagoute, O. Pujol, E. Desmeules, Physique en CPGE, une approche moderne, de Boeck, 2011, 1500 pages J.-Ph. Pérez, R. Carles, R. Fleckinger, Électromagnétisme, fondements et applications, 4e édition, Dunod, 2009, 740 pages J.-Ph. Pérez, O. Pujol, C. Lagoute, P. Puech, E. Anterrieu, Physique, une introduction, de Boeck, 2008, 492 pages A. Lannes et J.-Ph. Pérez, Optique de Fourier en microscopie électronique, Masson, 1983, 200 pages

403