L'aventure du grand collisionneur LHC: Du big bang au boson de Higgs 9782759812264

Que sont la physique des particules élémentaires, le LHC, et le boson de Higgs ? Ce livre présente le monde des quarks,

157 6 229MB

French Pages 332 [329] Year 2014

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

L'aventure du grand collisionneur LHC: Du big bang au boson de Higgs
 9782759812264

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

i

i

“master” — 2014/2/12 — 18:17 — page i — #3

i

i

Les auteurs

Daniel Denegri, né à Split en Croatie de père croate et de mère française, est directeur de recherche émérite au CNRS. Il a fait ses études de physique à l’université de Zagreb, Croatie, et a obtenu un doctorat ès science à la Johns Hopkins University de Baltimore aux État-Unis. Il entre au laboratoire du CEA Saclay en 1971. Il a participé directement à la découverte des bosons vecteurs W et Z en 1982 et 1983, dans l’expérience UA1. Il a pris part au lancement du projet LHC en 1989 avec Carlo Rubbia et, en 1990, a été l’un des coordonnateurs des études sur le potentiel de découverte du LHC. En 1991, il fonde avec Michel Della Negra et Jim Virdee l’expérience CMS dont il a été coordonnateur de la physique pendant quatorze ans. Il a participé activement à la découverte du boson de Higgs en 2012, et s’intéresse actuellement au futur programme du LHC. Claude Guyot est physicien à l’Institut de recherche sur les lois fondamentales de l’Univers (Irfu) du CEA. Après un doctorat d’État sur la recherche des oscillations de neutrinos en 1984 dans le cadre de l’expérience CDHSW au CERN, il a travaillé sur les interactions des neutrinos avec les nucléons pour étudier les interactions électrofaibles et la structure interne du nucléon. En parallèle à des recherches sur la violation des symétries CP et T dans le système des kaons neutres, il a rejoint en 1991 le groupe de physiciens qui formera la collaboration ATLAS auprès du LHC. Il a fait partie des quelques physiciens à l’origine de la conception du spectromètre à muons d’ATLAS et en particulier de son grand toroïde supraconducteur. Il dirige depuis 2011 le groupe ATLAS du CEA à Saclay.

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page ii — #4

i

i

Andreas Hoecker est né et a fait ses études de physique en Allemagne. Il a rejoint le Laboratoire de l’accélérateur linéaire à Orsay en région parisienne pour étudier lors d’une thèse de doctorat les propriétés du lepton τ et de l’interaction forte utilisant les données fournies par l’expérience ALEPH auprès de l’accélérateur LEP au CERN. Après sa thèse il a rejoint en 1997 le CNRS et a étudié la violation de symétrie entre matière et antimatière auprès de l’expérience BABAR, à Stanford aux États-Unis, où il a été basé pendant deux ans. En 2005, après son retour à Orsay, Andreas Hoecker a rejoint le CERN en tant que chercheur permanent. Il y travaille depuis dans l’expérience ATLAS où il a contribué dans différents domaines de la mise en œuvre de l’expérience et de l’analyse des données de physique, notamment dans la recherche de la supersymétrie et du boson de Higgs. Il est coordonnateur de la physique d’ATLAS en 2014 et 2015. Lydia Roos est directrice de recherche au CNRS. Pendant sa thèse de doctorat à Marseille, elle a étudié les propriétés des mésons beaux avec l’expérience ALEPH. Elle a rejoint le CNRS à Grenoble en 1993 et a contribué à la mise en œuvre d’un détecteur à pixels de silicium pour l’expérience DELPHI au LEP. Depuis 1996, elle travaille au Laboratoire de physique nucléaire et des hautes énergies à Paris. Elle s’est intéressée à l’étude de la symétrie matière-antimatière sur l’expérience BABAR. Pendant un séjour de quatre ans à Pékin consacré au développement des collaborations scientifiques franco-chinoises, elle a pris la responsabilité d’un laboratoire international associé de physique des particules. À son retour à Paris en 2008, elle a rejoint l’expérience ATLAS. Elle a travaillé depuis sur la recherche du boson de Higgs, la compréhension des bruits de fond associés et l’étude de ses propriétés.

ii

Les auteurs

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page iii — #5

i

i

Remerciements Nous tenons à remercier en premier lieu tous nos collègues physiciens, ingénieurs et techniciens des expériences du LHC et plus particulièrement ceux d’ATLAS et de CMS, qui ont contribué à la conception, la construction et la mise en œuvre de ces expériences et qui sont à l’origine des résultats de physique présentés dans ce livre. Nos remerciements vont aussi naturellement aux physiciens, ingénieurs et techniciens du CERN qui ont conçu, construit et fait fonctionner le LHC avec le succès que l’on sait, sans lesquels rien de cette aventure n’aurait été possible. Nous n’oublions pas le rôle essentiel tenu par la direction et le conseil du CERN qui ont su assurer les moyens financiers et humains nécessaires à la construction et la mise en route du projet, et en particulier les directeurs généraux successifs : Carlo Rubbia qui a lancé le projet et a eu la gentillesse d’écrire la préface, Chris Llewellyn-Smith, Luciano Maiani, Robert Aymar et Rolf Heuer qui l’ont mené à bien, sans oublier Herwig Schopper qui a fait construire le tunnel du LEP dont le LHC a hérité. Les auteurs saluent l’engagement et le soutien du CNRS/IN2P3, du CEA/Irfu et de leurs autorités de tutelle, dans l’aventure du LHC, tant au niveau des moyens financiers que techniques et humains, grâce auxquels les équipes françaises ont pu fournir des contributions significatives au succès de ce projet. Nos remerciements vont également aux collègues des expériences et du service des relations publiques du CERN, qui nous ont permis d’utiliser les résultats, les photos et divers diagrammes employés dans ce livre. Merci aussi à Lison Bernet pour ses dessins extraits de la bande dessinée du LHC sur la chasse au bison de Higgs et qui a pris le temps de les adapter pour le format de ce livre. Nous remercions également tous les collègues avec qui nous avons discuté pendant la réalisation de cet ouvrage. En particulier, nous tenons à mentionner nos collègues de l’Irfu, Mme Vanina Ruhlmann-Kleider et M. Jim Rich, pour les fructueuses discussions sur la cosmologie, ainsi que M. Jean Zinn-Justin pour certains éclairages théoriques. Merci également à M. Didier Vilanova pour ses conseils orthographiques et grammaticaux : les erreurs qui subsistent sont entièrement de la responsabilité des auteurs. Enfin, nous remercions la Société française de physique et nos éditeurs, Mme Michèle Leduc et M. Michel Le Bellac, qui nous ont offert d’écrire ce livre. Ils ont apporté des corrections et suggestions fort utiles et ont supporté stoïquement nos retards successifs.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

iii

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page iv — #6

i

i

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page v — #7

i

i

Préface Ce livre présente ce qui est indubitablement le plus grand projet scientifique jamais conçu, le grand collisionneur de hadrons au CERN, le LHC, et les expériences associées ATLAS, CMS, LHCb et ALICE, avec pour couronnement la découverte du boson de Higgs à l’été 2012. Le LHC est le plus grand instrument scientifique construit à ce jour et les détecteurs ATLAS et CMS sont d’une complexité sans précédent en physique. Dans les années 1980, les physiciens ont découvert au CERN les bosons de jauge W et Z confirmant ainsi l’unification des interactions électromagnétique et faible telle que proposée Carlo Rubbia par Glashow, Salam et Weinberg. Ce qu’il restait alors à faire pour compléter cette avancée scientifique spectaculaire était d’élucider le mécanisme par lequel ces bosons W et Z, de même que les quarks et les leptons, acquièrent leurs masses, le photon restant de masse nulle. Le niveau de compréhension des mécanismes naturels auquel est parvenu la physique des particules est tel que cette question était devenue une question scientifique légitime et le niveau de développement technologique permettait de s’y attaquer avec succès. Le schéma théorique le plus plausible pour expliquer cette masse, proposé dans les années 1960 du vingtième siècle, est le mécanisme de Brout-Englert-Higgs, dont la manifestation directe serait l’existence d’une particule communément appelée le boson de Higgs. La découverte du boson de Higgs cinquante ans plus tard, en 2012, est un immense succès scientifique, certainement le plus important en physique des particules depuis la découverte des bosons W et Z il y a de cela pratiquement trente ans. Ce sont là des découvertes qui marquent l’histoire des sciences. Il s’agit bien ici d’un projet purement scientifique, d’un coût global de l’ordre de six milliards d’euros, qui a été mené à bien par le CERN, l’organisation

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page vi — #8

i

i

européenne pour la recherche nucléaire située à Genève. Ce projet a néanmoins été mené dans un cadre vraiment mondial. Des pays tels que les États-Unis, le Japon, le Canada, la Russie, l’Inde, ont contribué à la construction de l’accélérateur et une cinquantaine d’autres pays à la construction des détecteurs, car les grandes expériences auprès du LHC sont totalement globalisées. La contribution des États non-membres du CERN est de l’ordre de 10 % du coût de la machine et de 25 % à la construction des expériences. Le nombre de chercheurs, physiciens et ingénieurs qui ont pris part au projet LHC est de l’ordre de dix mille. Le CERN est ainsi un lieu unique de rencontre des physiciens du monde entier et est donc bien plus que simplement un laboratoire de recherche fondamentale. Ce livre présente non seulement la genèse du projet LHC, mais aussi les idées principales et le cadre théorique qui motive la recherche au LHC en général. Ces dernières décennies, on assiste à la coalescence de la physique des particules élémentaires et du modèle cosmologique du big bang, car au tout début de l’histoire de la matière, les conditions de température et de densité extrêmes étaient telles que ne pouvaient subsister que des objets sans structure, les particules élémentaires. Les premières phases de l’évolution de la matière sont donc essentiellement gouvernées par la physique des particules. L’exploration des états de la matière et de son contenu en particules fondamentales faite au LHC peut être vue comme une remontée vers les tout premiers instants du big bang. Les collisions en mode proton-proton permettent l’étude de la nature des interactions entre particules à l’époque de la transition électrofaible entre 10−15 et 10−12 seconde après le big bang, et en mode de collision ion-ion, la période autour de la microseconde après le big bang, période de transition du plasma de quarks et gluons à la phase hadronique de la matière. Ce livre s’efforce d’indiquer les liens qui existent entre la physique des particules et le modèle du big bang, la quête sur l’origine de l’Univers passe autant par le LHC que par le télescope Hubble ou le satellite Planck. Il était évident dès 1990 au moment du lancement du projet LHC que cela serait un effort de longue haleine. Oser proposer une machine aussi complexe et novatrice dans son concept et poussée jusqu’à la limite concevable de la technologie était d’une grande audace. Le système magnétique du LHC avec son système d’aimants unique, à deux tubes à vide pour les deux faisceaux dans une même enceinte magnétique et cryogénique, non seulement était une nécessité, vu le manque de place dans le tunnel, mais représente aussi une considérable économie financière, sans parler de l’économie que représentait le tunnel du LEP et toute l’infrastructure du CERN déjà existante. Le LHC est le prototype d’un nouveau type d’accélérateur-collisionneur. La phase de conception et de recherche et développement technologique, aussi bien sur le LHC lui-même que pour les expériences, a pris dix ans. Ensuite la phase de construction et mise en

vi

Préface

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page vii — #9

i

i

route a pris encore dix autres années. S’il y a eu un retard dans la construction du LHC par rapport aux prévisions initiales, ceci est dû surtout à ce que le LHC a été construit à budget fixe pour le CERN. Dans le domaine du développement de nouvelles technologies, le projet LHC a amené ou provoqué des avancées majeures : en supraconductivité et cryomagnétisme, par l’emploi de supraconducteurs chauds, en technologie du froid et du vide à très grande échelle, dans le développement de nouveaux matériaux, par exemple des cristaux scintillants, et de systèmes électroniques rapides et intégrés dans les dispositifs d’acquisitions de CMS et ATLAS. Sans parler de l’invention de l’Internet au début des années 1990 pour permettre la communication entre physiciens sur toute la planète et l’introduction une dizaine d’années plus tard du WLCG (World LHC Computing Grid) pour analyser les données du LHC de par le monde. Avec le LHC comme point focal de la recherche sur la structure fondamentale de la matière pour les dix à vingt ans à venir, on peut s’attendre à élucider ou au moins faire de très importants progrès sur nombre de problèmes fondamentaux de la physique. Le problème de l’origine de la masse des particules élémentaires est en train d’être résolu, on peut aussi espérer tester l’idée de la supersymétrie en cours de route vers l’unification possible, voire probable, de toutes les interactions fondamentales. La découverte de la supersymétrie pourrait aussi apporter la réponse à l’énigme de la matière noire de l’Univers. L’hypothèse de l’existence de dimensions spatiales en plus des trois connues sera aussi testée. L’étude de la violation de la symétrie CP permettra d’approfondir la compréhension des subtiles différences entre matière et antimatière et de l’émergence finalement de la matière donc nous sommes constitués nous-mêmes. Plus généralement toutes ces études permettront de soumettre le modèle standard, aussi bien son versant QCD que celui électrofaible, au crible expérimental et aux tests les plus approfondis et incisifs. Ces études au LHC, avec celles dans d’autres domaines très actifs et très intéressants de la physique des particules telle la physique des neutrinos par exemple, devraient permettre dans les années à venir de tester les limites de validité du modèle standard et de montrer la voie vers la prochaine étape dans la compréhension de l’organisation et de la structure intime de la matière. Tout ceci nous aide à comprendre la place que nous occupons dans l’Univers et c’est cet incessant effort de compréhension de la part de l’homme qui a modifié notre mode de vie et a permis l’apparition de notre civilisation actuelle. Carlo Rubbia, le 7 mai 2013

L’AVENTURE DU GRAND COLLISIONNEUR LHC

vii

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page viii — #10

i

i

À la mémoire de Guy Roos.

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page ix — #11

i

i

Table des matières

Préface

v

Introduction 1

2

3

xiii

Le modèle standard de la physique des particules 1.1 Forces, champs de matière et paramètres du modèle standard 1.2 Les paramètres du modèle standard et leur influence sur notre vie quotidienne . . . . . . . . . . . . . . . . . . . . . . 1.3 Symétries externes, symétries internes . . . . . . . . . . . . . . 1.4 L’invariance de jauge et les forces fondamentales . . . . . . . . 1.5 Quand la symétrie se brise spontanément : le mécanisme de Brout-Englert-Higgs . . . . . . . . . . . . . . 1.6 L’unification électrofaible et le modèle de Glashow-Weinberg-Salam . . . . . . . . . . . . . . . . . . . 1.7 Théorie de Dirac et antiparticules . . . . . . . . . . . . . . . . . 1.8 La brisure de la symétrie matière-antimatière . . . . . . . . . . 1.9 Théorie quantique des champs et corrections virtuelles . . . . 1.10 Les constantes de couplages varient . . . . . . . . . . . . . . .

. .

1 1

. . . . . .

10 12 14

. .

17

. . . . .

. . . . .

23 27 30 32 36

. . . . .

41 41 45 48 53 58

Ce que le modèle standard n’explique pas 3.1 De la matière invisible : la matière noire . . . . . . . . . . . . . . . 3.2 Une énergie répulsive : l’énergie noire . . . . . . . . . . . . . . . . 3.3 Asymétrie entre matière et antimatière baryonique . . . . . . . . .

61 63 65 66

Le succès expérimental du modèle standard 2.1 Les débuts de la physique des particules expérimentale 2.2 Les premiers succès . . . . . . . . . . . . . . . . . . . . . ¯ . . . . . . . . 2.3 La découverte des bosons W et Z au SppS 2.4 Le LEP et la consolidation du modèle standard . . . . . 2.5 La violation de CP . . . . . . . . . . . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page x — #12

i

3.4

. . . . .

68 69 70 72 75

Quelle forme pourrait avoir la nouvelle physique ? 4.1 La supersymétrie et l’extension supersymétrique du modèle standard . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 L’unification des forces électrofaible et forte . . . . . . . . . . . . . 4.3 Des dimensions cachées dans l’Univers ? . . . . . . . . . . . . . .

77

3.5 3.6 3.7 3.8 4

5

Absence de brisure de symétrie entre matière et antimatière dans l’interaction forte . . . . . Les masses des neutrinos . . . . . . . . . . . . La gravitation . . . . . . . . . . . . . . . . . . Le boson de Higgs est trop léger . . . . . . . D’où vient le potentiel de Higgs ? . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

Retour vers le big bang 5.1 La fuite des galaxies . . . . . . . . . . . . . . . . . . 5.2 Le rayonnement cosmologique micro-onde . . . . . 5.3 La nucléosynthèse primordiale des éléments légers 5.4 L’Univers est en expansion accélérée . . . . . . . . . 5.5 Le big bang, la physique des particules et le LHC . .

6

Le LHC 6.1 Historique des techniques d’accélération . 6.2 Les collisionneurs hadroniques . . . . . . . 6.3 Le lancement du LHC . . . . . . . . . . . . 6.4 Le long chemin vers le démarrage du LHC

. . . .

. . . .

. . . .

. . . .

. . . .

. . . . .

. . . . .

. . . .

. . . . .

. . . . .

. . . .

. . . . .

. . . . .

. . . .

. . . . .

i

. . . . .

. . . .

. . . . .

. . . . .

. . . .

. . . . .

. . . . .

. . . .

. . . . .

77 83 87

. . . . .

93 . 94 . 96 . 97 . 99 . 104

. . . .

109 109 115 120 124

. . . .

7

Qu’est-ce qu’un détecteur de particules ? 135 7.1 Bref rappel des techniques de détection des particules . . . . . . . 135 7.2 Conception générale d’un détecteur auprès d’un collisionneur . . . . . . . . . . . . . . . . . . . . . . . 140

8

Les expériences ATLAS et CMS 8.1 Les proto-collaborations EAGLE, ASCOT, L3P et CMS . 8.2 L’expérience CMS (Compact Muon Spectrometer) . . . . . 8.3 L’expérience ATLAS (A Toroïdal LHC ApparatuS) . . . . 8.4 Le système de déclenchement et d’acquisition d’ATLAS et de CMS . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5 Comment s’organisent les grandes collaborations en physique des particules ? . . . . . . . . . . . . . . . .

x

147 . . . . . . 147 . . . . . . 151 . . . . . . 161 . . . . . . 170 . . . . . . 171

Table des matières

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page xi — #13

i

9

i

Le démarrage du LHC et les premières données 177 9.1 Un démarrage prometteur . . . . . . . . . . . . . . . . . . . . . . . 177 9.2 L’incident du 19 septembre 2008 . . . . . . . . . . . . . . . . . . . 179 9.3 Les premières collisions . . . . . . . . . . . . . . . . . . . . . . . . 181

10 L’analyse des données 189 10.1 Qu’est-ce que l’analyse des données ? . . . . . . . . . . . . . . . . 190 10.2 Les défis de l’informatique et les analyses sur la grille . . . . . . . 205 11 Le boson de Higgs : recherche et découverte 11.1 Le temps du LEP . . . . . . . . . . . . . . 11.2 Le temps du Tevatron . . . . . . . . . . . . 11.3 La recherche du Higgs au LHC . . . . . . 11.4 La découverte . . . . . . . . . . . . . . . . 11.5 L’étude des propriétés du nouveau boson 11.6 Le prix Nobel . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

12 À la recherche de la nouvelle physique 12.1 L’étude du quark top . . . . . . . . . . . . . . . . . . . . . 12.2 Insaisissable supersymétrie . . . . . . . . . . . . . . . . . 12.3 Des signes de grande unification ? . . . . . . . . . . . . . 12.4 Où sont donc les dimensions spatiales supplémentaires ? 12.5 Des trous noirs au LHC ? . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . .

213 213 217 222 226 234 237

. . . . .

241 241 247 255 260 262

13 Les expériences LHCb et ALICE 265 13.1 La physique du quark b et le détecteur LHCb . . . . . . . . . . . . 265 13.2 La physique des ions lourds avec le détecteur ALICE . . . . . . . 273 14 Le futur 14.1 Le LHC et ses détecteurs dans la décennie à venir . . . . . . . . . 14.2 Les objectifs de physique . . . . . . . . . . . . . . . . . . . . . . . . 14.3 Au-delà du LHC . . . . . . . . . . . . . . . . . . . . . . . . . . . .

279 280 281 290

15 Conclusion

299

Unités de longueur, de temps et de masse-énergie avec les ordres de grandeurs correspondants 303 Bibliographie

305

Index

311

L’AVENTURE DU GRAND COLLISIONNEUR LHC

xi

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page xii — #14

i

i

LHCb ATLAS CMS

ALICE

F IGURE 1. Le site du LHC près de Genève. Sont indiqués le tracé de l’anneau (en rouge) et l’emplacement des quatre expériences. La circonférence du LHC est de vingt-sept kilomètres.

xii

Table des matières

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page xiii — #15

i

i

Introduction Ce livre décrit une des plus belles aventures de la science moderne : la construction et la mise en œuvre du grand collisionneur de hadrons du CERN, le LHC (Large Hadron Collider). Auprès de ce collisionneur ont été contruites quatre expériences non moins exceptionnelles : ATLAS, CMS, LHCb et ALICE. Le principal enjeu de ce fantastique dispositif expérimental est d’élucider le problème de la brisure électrofaible, qui est à l’origine de la masse des particules élémentaires. Dans les années 1960, Robert Brout et François Englert d’une part, Peter Higgs d’autre part, ont proposé une solution théorique, dans le cadre du modèle standard décrivant les particules élémentaires et leurs interactions. Ce mécanisme, qui porte désormais leurs noms, implique l’existence d’une nouvelle particule : le boson de Higgs. D’autres solutions avaient été proposées. Cependant, les données enregistrées et analysées en 2011 et 2012 ont permis de conclure à l’existence d’une nouvelle particule qui semble avoir toutes les propriétés de ce fameux boson. Ces résultats ont fait la une de tous les médias. Comprendre les interactions entre particules élémentaires à des échelles d’énergie toujours plus élevées, c’est aussi comprendre les premiers instants de l’Univers après le big bang. Ainsi, les collisions proton-proton fournies par le LHC et enregistrées par les expériences ATLAS, CMS et LHCb permettent-elles d’étudier les constituants élémentaires de la matière et leurs interactions tels qu’ils existaient dans le premier millième de milliardième de seconde. Dans le mode de collisions noyau-noyau, avec notamment l’expérience ALICE, on s’intéresse à un instant plus tardif, une microseconde après le big bang. La matière était jusqu’alors sous forme d’un plasma de quarks et de gluons. C’est à cette période que se forment les hadrons, tels que les protons et les neutrons qui constituent aujourd’hui notre monde, autant que nous-mêmes. Le LHC est l’accélérateur-collisionneur le plus puissant construit à ce jour, aussi bien en termes d’énergie que d’intensité de ses faisceaux de particules. De même, les détecteurs ATLAS et CMS surpassent de par leur taille et leur complexité tous leurs prédécesseurs. Ce projet exceptionnel a vu le jour grâce

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page xiv — #16

i

i

à l’Organisation européenne pour la recherche nucléaire, le CERN 1 , situé près de Genève. Organisme scientifique précurseur de l’Europe unifiée, créé en 1954, le CERN a permis à celle-ci de retrouver peu à peu sa place, la première, dans ce domaine de la recherche fondamentale. Pour réaliser le LHC, il a su fédérer les efforts à un niveau mondial et associer aux pays européens les États-Unis, le Japon, la Chine, la Russie, l’Inde ou le Brésil, pour n’en citer que quelques-uns. Ce livre présente les concepts théoriques qui décrivent ces états de la matière de manière qualitative, afin d’être compréhensible au plus grand nombre. Des encadrés offrent ici et là des développements mathématiques simples en complément. Les concepts exposés dans les premiers chapitres peuvent paraître ardus pour le lecteur qui ne possèderait pas les connaissances correspondant aux premières années de licence scientifique. Leur compréhension n’est cependant pas indispensable pour profiter de la lecture des chapitres expérimentaux qui suivent. L’ouvrage s’attache également à expliquer au lecteur comment l’on réussit avec des appareillages aussi sophistiqués que gigantesques à sonder l’infiniment petit et ainsi à confirmer ou infirmer les modèles théoriques. Les trois premiers chapitres présentent le modèle standard, sa validation expérimentale et ses faiblesses ou insuffisances au moment où le LHC démarre. Le chapitre 4 décrit ensuite quelques extensions théoriques qui pourraient répondre aux questions laissées en suspens. Dans le chapitre 5 sont abordées les relations entre la physique des particules étudiée au LHC et le monde de l’infiniment grand issu du modèle cosmologique du big bang. La suite du livre est consacrée aux aspects expérimentaux en commençant par la genèse et la construction de l’accélérateur-collisionneur (chapitre 6) et les techniques de détection des particules (chapitre 7). L’accent est ensuite mis sur les deux grandes expériences généralistes, ATLAS et CMS, qui sont décrites au chapitre 8. Le chapitre 9 relate le démarrage du LHC et la première phase de fonctionnement. Est ensuite introduit le principe de l’analyse des données en physique des particules (chapitre 10) afin de permettre au lecteur de comprendre comment ont été obtenus les résultats présentés dans les chapitres suivants : la découverte du boson de Higgs (chapitre 11) et la recherche acharnée de nouvelles particules dans le cadre des extensions théoriques du modèle standard (chapitre 12). Les deux autres expériences du LHC, LHCb et ALICE, dont les thèmes de recherche sont plus spécialisés, sont présentées au chapitre 13. Le livre se termine en ouvrant une fenêtre sur le futur.

1

À l’origine, les Européens ont créé le conseil européen pour la recherche nucléaire, rebaptisé organisation par la suite. Aujourd’hui, le principal domaine de recherche de cet immense laboratoire, où se croisent environ dix mille personnes, est la physique des particules. L’acronyme d’origine a toutefois été conservé.

xiv

Introduction

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 1 — #17

i

i

1 Le modèle standard de la physique des particules Forces, champs de matière et paramètres du modèle standard 1.1

L’humanité appréhende la science comme un enfant qui découvre le monde et pour lequel l’incroyable diversité des phénomènes auxquels il doit faire face constitue chaque jour un nouveau défi. Deux approches cohabitent : l’empirisme qui propose une réponse adaptée à chaque nouvelle observation expérimentale, et la catégorisation et la théorisation qui se basent, elles, sur la compréhension. C’est ainsi qu’un enfant qui regarde passer les voitures sur la route, sans l’aide de l’adulte voire contre son gré, commence d’abord par reconnaître des marques. Il a saisi la répétition des formes et des signes apparents. Il a reconnu des symétries et des régularités dans le monde qui l’entoure. L’origine de la physique des particules se situe dans la première moitié du XX e siècle. Ses débuts ont été marqués par l’observation de phénomènes complètement nouveaux : l’existence de l’antiparticule de l’électron (le positon) ou de nouvelles particules aux propriétés étranges (d’où leur nom) dans des rayons cosmiques ; la création de particules virtuelles dans le vide (le vide n’étant donc pas vide !) ; des violations de symétries considérées jusque-là comme absolues dans le monde de l’infiniment petit (symétrie entre la gauche et la droite, entre le futur et le passé ou entre particules et antiparticules). Le stade de développement de la physique des particules était alors celui d’un bébé. Puis, le bébé grandissant, il ne se contenta plus d’observer les phénomènes naturels. On construisit des

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 2 — #18

i

i

accélérateurs qui permirent de produire ces nouvelles particules en laboratoire et d’en étudier les propriétés de façon contrôlée. Les découvertes se succédaient tant et si bien qu’on pouvait craindre de ne pas avoir assez de lettres latines et grecques pour baptiser tous ces nouveaux objets ! La frustration était alors grande parmi les physiciens nucléaires (l’appellation physicien des particules n’existait pas encore). L’autrichien Wolfgang Pauli aurait dit, faisant référence à la prolifération de ces nouvelles particules : « Si j’avais prévu cela, je serais devenu botaniste ! » Existait-il un ordre sous-jacent ? Ou le chaos règnait-il dans ce monde à l’échelle du millionième de la taille de l’atome ? Peut-être existait-il un système périodique tel qu’il avait été établi par Dmitri Mendeleïev pour les éléments chimiques ? En 1964, George Zweig et Murray Gell-Mann remirent de l’ordre dans tout cela. Ils proposèrent un modèle dans lequel les hadrons 1 n’étaient plus des particules élémentaires mais étaient composés de deux ou trois particules, du même type ou de types différents, selon des règles bien déterminées. Ils nommèrent ces composants les quarks, terme emprunté par Gell-Mann à Finnegans Wake de James Joyce : « Three quarks for Muster Mark ! Sure he has not got much of a bark, and sure any he has it’s all beside the mark. » En observant attentivement la rue, l’enfant avait enfin compris que les similarités récurrentes des voitures passant sous ses yeux provenaient de leur mode de construction : c’était le début d’une véritable compréhension. Il s’avère, en effet, que la nature, bien que foisonnante dans ses expressions, suit le principe d’une grande économie. Tous les phénomènes du domaine de l’infiniment petit observés jusqu’à présent peuvent être expliqués par une théorie, dénommée modèle standard. Elle décrit trois interactions : l’interaction électromagnétique, responsable de l’électricité et du magnétisme (et donc des réactions chimiques), l’interaction faible, à l’origine de la radioactivité ainsi que de l’énergie solaire, et l’interaction forte, à l’origine de la cohésion des noyaux des atomes, elle-même étant un résidu de l’interaction dominante entre quarks. L’interaction faible est dénommée ainsi car son intensité est faible dans notre environnement actuel, en comparaison avec l’interaction forte ou électromagnétique. Elle n’a en outre qu’une très courte portée de 10−18 mètre, ce qui est mille fois plus petit que la taille d’un proton. Les trois interactions du modèle standard sont toutes liées à un principe géométrique, dont la compréhension et la formulation théorique ont constitué une des avancées théoriques majeures de la physique du XXe siècle. Nous y reviendrons plus en détail dans ce chapitre. Une quatrième interaction, peut-être la plus célèbre, est l’interaction gravitationnelle. Elle est responsable de la chute des pommes, du mouvement des 1

Particules sensibles à l’interaction forte dont on reparlera plus en détail dans les sections et chapitres suivants. Le proton et le neutron, par exemple, sont des hadrons.

2

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 3 — #19

i

Interaction électromagnétique

Couplage au Higgs photon

γ leptons νe e− νµ

µ−

ντ

τ−

Interaction forte

2/3

2/3

2/3

quarks u

d

c

s b

t

g

i

−1/3

−1/3

Bosons W et Z

Higgs

W+ Z0

−1/3

gluons

H

W−

Interaction faible

F IGURE 1.1. Les particules élémentaires et leurs interactions dans le cadre du modèle standard de la physique des particules. Les particules de matière sont les leptons et les quarks. Ils sont organisés en trois familles. Chaque famille de leptons contient un lepton neutre, appelé neutrino, et un lepton chargé : l’électron, le muon, et le lepton τ . Les neutrinos associés sont appelés neutrino électron, neutrino µ, et neutrino τ . La valeur absolue de la charge électrique de l’électron étant prise comme unité, la charge électrique des leptons chargés est de −1. Les quarks ont une charge électrique fractionnaire. Chaque famille contient un quark de charge +2/3 et un quark de charge −1/3. Les quarks up et down constituent la première famille, les quarks charmé et étrange la seconde, et les quarks top et beau la troisième. On parle souvent de fermions pour désigner les particules de matière. La signification précise de ce terme est expliquée plus loin. À chacune de ces particules est associée une antiparticule de charge opposée (section 1.7). Les interactions entre fermions sont véhiculées par des bosons : le photon pour l’interaction électromagnétique, les bosons W + , W − et Z pour l’interaction faible, et les gluons pour l’interaction forte. Le boson de Higgs joue un rôle très particulier qui sera expliqué en détail dans ce chapitre.

planètes autour du Soleil, ou encore de la structure de l’Univers, mais n’est pas incluse dans le modèle standard (figure 1.1). En effet, elle ne joue aucun rôle au niveau microscopique tel qu’on peut l’étudier aujourd’hui dans nos laboratoires. En revanche, son rôle est probablement déterminant, même au niveau microscopique, pendant les tout premiers instants de l’existence de l’Univers, lors du big bang. Outre les interactions, le modèle standard décrit les particules élémentaires constituant la matière. Elles se résument à six quarks, sensibles aux quatre interactions, et six leptons qui eux sont aveugles à l’interaction forte. Trois de ces leptons portent une charge électrique. Les trois autres sont neutres et ne sont donc pas concernés par l’interaction électromagnétique. On les appelle simplement des neutrinos. Une particule qui n’interagirait selon aucune des forces, hormis

L’AVENTURE DU GRAND COLLISIONNEUR LHC

3

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 4 — #20

i

i

la gravitation, est dite stérile. Elle n’interagirait donc pas avec la matière d’un détecteur et ne pourrait être vue que de manière indirecte, par exemple par la disparition d’une particule connue qui se métamorphoserait en une particule stérile. C’est un phénomène théoriquement possible, mais qui n’a pas encore été observé. Les neutrinos, sensibles à l’interaction faible, ne sont pas stériles, mais la faiblesse de cette interaction rend leur observation directe très difficile. L’existence des neutrinos (en fait, du neutrino partenaire de l’électron, le premier lepton à avoir été découvert) a été postulée par Pauli en 1930 afin de préserver la conservation de l’énergie, de la quantité de mouvement et du moment angulaire dans les processus de radioactivité. Son observation directe dans un laboratoire n’a été effective qu’en 1956. Dans le modèle standard (figure 1.1), les leptons ainsi que les quarks sont organisés en trois familles, selon leur saveur. Chaque famille contient un doublet de deux quarks et un doublet constitué d’un lepton chargé et de son neutrino associé. Toutefois, la matière stable connue dans l’Univers est constituée uniquement de particules de la première famille : les quarks up et down d’une part, et l’électron et le neutrino électron d’autre part (figure 1.2). Quel est donc le rôle (si rôle il y a) des autres familles et pourquoi n’y en a-t-il que trois ? électron

< 10−18 m

~ 10 −15 m

< 10 −19m

molécule

atome

noyau de l’atome proton/neutron

quark

F IGURE 1.2. La matière ordinaire que l’on trouve sur Terre est entièrement constituée des quarks up et down de la première famille qui forment les protons et les neutrons, et d’électrons.

À l’exception des neutrinos, pour lesquels la hiérarchie des masses n’est pas encore connue, les masses des leptons et des quarks augmentent avec le numéro de famille. En raison de l’équivalence entre énergie et masse 2 , une particule lourde demande une énergie plus grande pour être produite en laboratoire qu’une particule légère. Avec les progrès dans la puissance des accélérateurs, 2

Dans cet ouvrage, nous utiliserons les unités d’énergie dérivées de l’électronvolt (eV) pour exprimer à la fois les énergies et les masses. L’électronvolt est l’énergie acquise par un électron lorsque celui-ci est accéléré par une différence de potentiel d’un volt. Nous rencontrerons souvent le mégaélectronvolt (1 MeV = 106 eV), le gigaélectronvolt (1 GeV = 109 eV) qui correspond environ à l’énergie nécessaire pour créer un proton, et le téraélectronvolt (1 TeV = 1012 eV).

4

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 5 — #21

i

i

t

Masse (MeV)

c s u

b

τ µ

d

e

νe,µ ντ

Type de fermion F IGURE 1.3. Masses des fermions élémentaires (quarks et leptons). L’échelle logarithmique montre la grande différence entre les masses des fermions de familles différentes : par exemple, le quark top est près de cinquante mille fois plus lourd que le quark up, dont la masse est elle-même au moins un million de fois plus grande que celle du neutrino électronique dont on ne connaît toujours qu’une limite supérieure. Toutes ces masses sont des paramètres libres du modèle standard. Certains modèle de grande unification (voir section 4.2) faisant éventuellement appel à la supersymétrie prédisent des relations entre ces masses.

tous les leptons et quarks ont pu être identifiés (figure 1.3). Le plus lourd des leptons, le lepton τ, a été découvert en 1974 au Stanford Linear Accelerator Center (SLAC) en Californie et a valu un prix Nobel au physicien Martin Perl. La découverte du plus lourd des quarks, le top, a été annoncée en 1995, par le Fermilab, près de Chicago. Enfin, le neutrino partenaire du τ, dont l’existence avait déjà été établie indirectement, a été observé directement en 2000, toujours au Fermilab. Si l’on néglige pour le moment les très petites masses des neutrinos dont on sait qu’elles sont inférieures à un milliardième de celle du proton, le modèle standard repose sur dix-huit nombres 3 (dénommés paramètres), a priori inconnus. Nous devons attribuer neuf masses aux six quarks et aux trois leptons chargés. Ce sont neuf paramètres. Quels sont les autres ? Trois d’entre eux, appelés constantes de couplages, déterminent l’intensité des interactions électromagnétique, faible et forte. Les quarks participant à toutes les interactions, nous pouvons utiliser le quark le plus léger, le quark up, pour mesurer leurs intensités relatives. En prenant l’interaction forte comme référence, nous constatons que l’interaction électromagnétique est environ cent fois plus faible. L’interaction faible l’est un 3

Un dix-neuvième paramètre relève d’une possible violation de la symétrie entre matière et antimatière par l’interaction forte qui est permise dans le modèle standard mais qui n’a jamais pu être mise en évidence expérimentalement. Ce paramètre doit donc avoir une valeur extrêmement petite sinon zéro (voir section 3.4).

L’AVENTURE DU GRAND COLLISIONNEUR LHC

5

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 6 — #22

i

i

Encadré 1.1. Spin, bosons et fermions.

Le spin est une propriété intrinsèque d’une particule, au même titre que la masse et la charge électrique. Il est lié à son comportement dans les transformations de rotation, au niveau quantique. De manière un peu imagée, on peut dire qu’il correspond au moment cinétique interne de la particule bien que celle-ci soit considérée comme ponctuelle. Il est caractérisé par un nombre quantique qui ne peut prendre que des valeurs entières ou demi-entières (0, 1/2, 1, 3/2, 2...). Les particules de spin entier sont appelées bosons et celles de spin demi-entier fermions. Cette appellation provient du comportement collectif de ces particules : deux fermions identiques ne peuvent pas occuper le même état quantique (principe d’exclusion de Pauli) tandis qu’un nombre arbitraire de bosons identiques peuvent, voire aiment, s’accumuler dans le même état. On dit que les fermions obéissent à la statistique de Fermi-Dirac et les bosons à celle de Bose-Einstein. C’est la raison pour laquelle dans l’atome, les électrons, qui sont des fermions, se positionnent sur des couches successives au lieu de s’accumuler sur celle de plus basse énergie. Ceci explique le tableau de Mendeleïev. La statistique de Bose-Einstein est à l’origine du principe du fonctionnement du rayon laser où les photons (des bosons) se trouvent dans le même état et donc dans la même direction et avec la même fréquence. Cette relation entre spin et statistique peut se démontrer mathématiquement dans le cadre de la théorie quantique des champs : c’est le théorème spin-statistique. Comme le déplore Richard Feynman dans son célébre cours de physique, ce théorème, bien qu’étant probablement l’un des plus importants de la physique moderne, est aussi malheureusement l’un des plus difficiles à expliquer de manière simple. Dans le modèle standard, les particules de matière (leptons et quarks) sont des fermions de spin 1/2. Les particules vecteurs de force (photon, gluons, W, Z) sont des bosons de spin 1. Au niveau actuel de nos connaissances, le boson de Higgs serait la seule particule fondamentale de spin zéro (dite scalaire).

million de fois et l’interaction gravitationnelle, 1038 fois. Comment une interaction est-elle transmise aux particules de matière ? L’image moderne de la physique résultant de la théorie quantique des champs, une description mathématique bien définie 4 , consiste à introduire des sources et des quanta de champs de forces. Ainsi, la source de l’interaction électromagnétique est la charge électrique. Il en va de même pour les autres interactions : la charge de l’interaction forte est appelée la couleur et celle de l’interaction faible, l’isospin faible. Quant à la gravitation, cette charge est tout simplement la masse. 4

Un champ est une grandeur mathématique, par exemple un scalaire (un nombre réel ou complexe) ou un vecteur, prenant des valeurs distinctes en chaque point de l’espace-temps (~x, t). En théorie quantique des champs, il s’agit d’un opérateur, généralisant ainsi ce concept de base de la mécanique quantique dans laquelle, par exemple, la position et l’impulsion d’une particule sont des opérateurs agissant sur sa fonction d’onde (voir section 1.9).

6

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

n

q Espace

Interaction forte (hadrons)

p

π+ p

pion masse ≈ 0,14 GeV

n

Espace

Interaction électromagnétique

e

photon γ masse = 0

e

Interaction faible chargée W+ boson W± masse ≈ 80 GeV

e

e−

Espace

p

p

Espace

e−

νe

e

Temps

e

Temps

Temps

q

gluon g masse = 0

Temps

Temps

q Interaction forte q (quarks)

Temps

“master” — 2014/2/12 — 18:17 — page 7 — #23

i

νe

i

Interaction gravitationnelle

p

graviton G masse = 0

p Espace

Interaction faible neutre νe Z boson Z masse ≈ 91 GeV

e−

e−

Espace

F IGURE 1.4. Représentation graphique des interactions entre particules, illustrant l’origine des forces par l’échange de particules médiatrices. Lorsque les masses de ces particules sont nulles, la portée des forces est infinie. Pour les forces électromagnétique et gravitationnelle, l’intensité décroît ainsi en R12 , à grande

distance R. La portée de l’interaction faible est très petite (inférieure à 10−13 centimètre) du fait de la grande masse des particules médiatrices. À courte distance, les effets quantiques viennent très largement compliquer le simple échange d’une particule médiatrice (voir section 1.9). La force nucléaire entre deux nucléons par l’échange de pions (constitués de paires quark-antiquark) est le résidu de la force entre les quarks, antiquarks et gluons qui les constituent. Ceci est analogue aux forces de van der Waals en physique moléculaire. Il est à noter que l’interaction gravitationnelle n’est pas incluse dans le modèle standard de la physique des particules. Son intensité, quantifiée par la force exercée par un proton sur un autre proton situé à une certaine distance, est près de 1036 fois plus faible que celle de l’interaction électromagnétique.

Les quanta de champs correspondent à des particules élémentaires qui sont échangées lors d’une interaction entre des particules de matière (voir figure 1.4). Ainsi les interactions sont-elles véhiculées par des particules qui n’existent que lors d’un bref instant et sont immédiatement réabsorbées. Cette création à partir du vide viole en principe la loi de la conservation de l’énergie. En 1925, le physicien allemand Werner Heisenberg a montré par sa relation d’incertitude (voir encadré 1.2) que pendant un très court instant ∆t, on peut tolérer une certaine incertitude ∆E sur l’énergie d’un système quantique. Il est ainsi possible de créer de l’énergie, donc de la masse, et donc des particules. Cependant, le produit de l’énergie créée et de la durée de son existence doit être inférieur à une toute petite constante, la constante quantique de Planck : ∆E · ∆t ≤ h¯ /2 ' 3.3 · 10−22 MeV s. Par conséquent, plus la masse m des particules transmettant l’interaction est grande, plus leur temps de vie est court. La portée R d’une interaction est alors limitée par la distance que la particule échangée peut parcourir à la vitesse de

L’AVENTURE DU GRAND COLLISIONNEUR LHC

7

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 8 — #24

i

i

la lumière pendant son temps de vie 5 : R ∝ 1/m. Il s’avère que les quanta de force échangés par l’interaction faible sont très lourds, expliquant ainsi sa très courte portée, tandis que les quanta associés aux interactions électromagnétique et gravitationnelle ont une masse nulle, leur conférant une portée infinie (voir figure 1.4). Or, en dépit de la masse nulle des gluons, quanta de l’interaction forte, celle-ci s’avère avoir une courte portée effective d’environ 10−15 mètre. Cela est dû au fait que les hadrons, constitués de quarks, sont en réalité neutres vis-à-vis de la charge forte. C’est en quelque sorte équivalent à la faible portée effective de l’interaction électromagnétique entre des atomes ou des molécules électriquement neutres. Ce phénomène dit de confinement de l’interaction forte à la taille d’un nucléon interdit également l’existence de quarks ou de gluons à l’état libre, c’est-à-dire en dehors des hadrons, sauf à de très grandes énergies telles qu’elles ont pu exister lors du big bang. Revenons aux paramètres du modèle standard : il y a deux quanta de force de l’interaction faible : un quantum électriquement neutre, le boson Z, et un quantum électriquement chargé, le boson W existant sous deux états de charge électrique opposée, W + et W − . Tous les deux sont très lourds, mais avec des masses légèrement différentes (voir section 1.6). La masse du W peut être calculée à partir de celle du Z et des constantes de couplages des interactions faible et électromagnétique 6 . On a donc introduit un seul paramètre supplémentaire. Il nous reste donc à expliquer cinq paramètres. L’un d’eux est simplement la masse du boson de Higgs, une particule postulée pour résoudre un sérieux problème de brisure de symétrie, sur lequel nous allons longuement revenir dans ce chapitre d’introduction. Les quatre paramètres restant sont des paramètres dits de mélange des quarks, régissant les transitions par interaction faible entre quarks appartenant à des familles différentes. Un de ces paramètres induit une brisure de la symétrie entre matière et antimatière dans le secteur des quarks, condition sine qua non pour l’existence d’un monde, tel que le nôtre, où la matière prédomine largement sur l’antimatière. Voici donc les dix-huit paramètres du modèle. Inconnus a priori, ils doivent être déterminés par des mesures expérimentales. Tous, en supposant que la particule découverte en 2012 au LHC est bien le boson de Higgs du modèle standard, ont été mesurés avec plus au moins de précision auprès des accélérateurs de particules. 5

6

Dans cette relation, la masse est exprimée en GeV et la distance en GeV−1 ! Ce choix d’unité étrange est expliqué dans l’encadré 4.3 intitulé : La relation distance-énergie en mécanique quantique et l’échelle de Planck. Cette relation est explicitée dans l’encadré 1.6 intitulé Le modèle de Glashow-Weinberg-Salam, dans ce chapitre.

8

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 9 — #25

i

i

Encadré 1.2. Les relations d’incertitudes de Heisenberg.

À la base de la mécanique quantique, le principe d’incertitude (ou d’indétermination), énoncé par Werner Heisenberg dans les années 1920, découle du caractère ondulatoire des particules. Il stipule qu’il y a une limite inférieure à la précision avec laquelle on peut connaître simultanément deux quantités, dites conjuguées, d’un même système quantique. Par exemple, la connaissance simultanée de la position x et de l’impulsion p d’une particule est entachée des incertitudes incompressibles ∆x et ∆p telles que : ∆x · ∆p ≥

h¯ 2

où h¯ est la constante de Planck réduite, définie à partir du quantum d’action h telle que h¯ = h/2π = 6,6 · 10−22 MeV s. Bien que le temps t ne soit pas une variable dynamique en mécanique quantique (ou observable, comme x et p), il est aussi relié à l’énergie E par la relation d’incertitude : ∆E · ∆t ≥

h¯ 2

qui donne la limite inférieure sur la précision ∆E avec laquelle on peut connaître l’énergie d’un système lorsqu’on ne dispose que d’un intervalle de temps ∆t pour la mesurer. L’énergie d’une particule étant reliée à la fréquence ν de l’onde associée en mécanique ondulatoire (E = hν pour un photon), cette relation se comprend intuitivement par le fait que la précision sur la connaissance de ν est inversement proportionnelle au nombre d’oscillations observables pendant une durée ∆t.

Il a été récemment prouvé que la masse des neutrinos était non nulle, ce qui augmente le nombre de paramètres de sept unités 7 . Trois d’entre eux sont les masses. Les autres sont les paramètres de mélange entre saveurs de neutrinos, ainsi que les paramètres brisant la symétrie matière-antimatière dans le secteur des leptons. Bien que tous les paramètres de mélange entre saveurs aient été mesurés avec une précision meilleure que 20 %, on connaît en fait peu de chose sur la nature des neutrinos, ce qui suscite l’émergence de futurs grands projets de recherche. Néanmoins, c’est la recherche et désormais l’étude du boson de Higgs qui attirent le plus grand nombre de chercheurs en physique des particules. Admiré par les uns en qualité de sauveur du modèle standard, le mécanisme de BroutEnglert-Higgs (section 1.5) est critiqué par d’autres car il est considéré comme une construction ad hoc engendrant une interaction qui ne découle pas d’un principe 7

Si les neutrinos sont identiques aux antineutrinos, on dit que ce sont des fermions de Majorana. Dans ce cas, il faut introduire deux paramètres supplémentaires. Nous reviendrons sur les neutrinos de Majorana dans le chapitre 3.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

9

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 10 — #26

i

i

géométrique. En outre, le boson de Higgs a l’étrange particularité d’être l’unique particule fondamentale scalaire, c’est-à-dire de spin nul (voir l’encadré 1.1 sur la notion de spin d’une particule). Le LHC, un des projets scientifiques les plus audacieux de tous les temps, a été lancé en grande partie dans le but de rechercher cette particule et étudier ses propriétés. Le défi n’est rien d’autre que la survie ou non du modèle standard sous sa forme actuelle, développé pendant plus de quarante ans par des milliers de physiciens des particules.

Les paramètres du modèle standard et leur influence sur notre vie quotidienne 1.2

Le caractère naturel des lois et des paramètres fondamentaux en physique est un concept profondément inscrit dans l’esprit des chercheurs. De nombreux physiciens considèrent que les valeurs des dix-huit paramètres du modèle standard qui, au niveau des connaissances actuelles, paraissent arbitraires, doivent être expliquées de façon naturelle par une théorie plus vaste. Cette théorie engloberait le modèle standard et expliquerait en outre les phénomènes à très grande énergie, à l’œuvre lors du big bang. Parmi ces phénomènes se trouve l’unification des forces électrofaible, forte et gravitationnelle qui sera abondamment discutée au chapitre 4. Malgré une formulation pour le moins abstraite, toute théorie de physique des particules se doit de ne pas entrer en contradiction avec les phénomènes de la vie quotidienne. Cela concerne moins l’impénétrable comportement humain que les structures fondamentales qui ont conduit au développement de la vie : des forces et des particules de matière permettant la création d’atomes et de molécules stables ; une température du vide quantique, suffisamment faible pour que les interactions entre particules et les réactions chimiques puissent quitter l’équilibre thermodynamique et mener à la formation d’un univers fait de matière au détriment de l’antimatière ; l’apparition des éléments lourds, en particulier du carbone, celle d’étoiles avec une durée de vie de plusieurs milliards d’années, de systèmes planétaires, avec des zones habitables où la vie a pu se développer. En dépit de notre manque de compréhension des valeurs des paramètres, on peut se poser la question de savoir à quel degré celles-ci influencent notre vie quotidienne. Seraient-elles ajustées afin de permettre l’existence de la vie ? Le physicien américain Robert Cahn s’est livré à une expérience de pensée : il s’est posé cette question sous l’angle d’un personnage imaginaire, surpuissant, capable de redéfinir les valeurs des paramètres du modèle standard. Il s’avère que les retombées d’une telle expérience peuvent être dramatiques.

10

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 11 — #27

i

i

Prenons par exemple la masse du lepton chargé le plus léger, l’électron, particule sensible aux forces électromagnétique et faible, elles-mêmes responsables des réactions chimiques et de la radioactivité. Hormis les neutrinos, c’est la plus légère des particules élémentaires de matière, et de loin : sa masse est environ deux cent fois plus faible que celle de son cousin le plus proche, le muon, lepton chargé de la deuxième famille. Que se passerait-il si on modifiait la masse de l’électron pour le rendre aussi lourd que le muon ? Puisque la taille des atomes est déterminée par le rayon de Bohr 8 qui est inversement proportionnel à la masse de l’électron, l’atome et avec lui tous les objets de notre monde seraient réduits d’un facteur deux cent. La taille de l’homme, par exemple, ne dépasserait pas le centimètre. En outre, l’énergie émise par des électrons descendant des couches supérieures d’un atome serait deux cent fois plus grande. Les hommes et les animaux, miniatures, seraient donc soumis à une lumière dont la longueur d’onde ne serait que de quelques nanomètres, quasiment celle des rayons X. Ce monde curieux serait-il vivable ? Il n’est en fait pas nécessaire que nous nous attardions sur cette question car les conséquences sont bien plus graves encore. Au niveau de la physique quantique, les trajectoires des électrons sur leurs couches atomiques, les orbitales, et celles des protons dans le noyau se rencontrent. On parle de recouvrement des orbitales. Ce recouvrement pourrait en principe permettre à un électron et un proton de produire un neutron et un neutrino, par interaction faible. Or, dans notre monde, la masse du neutron est très légèrement supérieure à la somme des masses du proton et de l’électron, et cette transition est donc, fort heureusement, impossible (sauf dans quelques atomes particuliers : on parle alors de capture électronique). Si l’électron avait la masse du muon, la situation serait différente. La somme des masses de l’électron et du proton dépasserait celle du neutron, et la transformation en un neutron et un neutrino électronique, p + e− → n + νe , serait donc autorisée. Le neutron deviendrait une particule stable, alors que dans le monde réel, il se désintègre par la réaction inverse, n → p + e− + νe , après 890 secondes en moyenne (il ne peut survivre qu’à l’intérieur du noyau). Tous les électrons des atomes seraient donc capturés par un proton. Par exemple, l’atome le plus simple, l’hydrogène, qui ne comporte qu’un proton et un électron, se désintégrerait en un neutron et un neutrino non liés. L’Univers, émergé du big bang, serait ainsi entièrement composé de particules neutres dès lors que son expansion lui aurait permis de se refroidir en dessous d’une température équivalente en énergie à la masse de l’électron. Étrange univers que nous aurions créé, sans étoiles brillantes, 8

2

h ε0 Le rayon de Bohr, calculable en mécanique quantique, est égal à a0 = πm 2 où h est la constante eq de Planck, ε 0 la permittivité du vide, me et q la masse et la charge de l’électron. Numériquement on obtient a0 = 0,529 · 10−10 m.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

11

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 12 — #28

i

i

dont les seuls astres seraient des étoiles à neutrons : le cosmos ressemblerait à un jeu de billard géant, avec, occasionnellement, des collisions spectaculaires, mais invisibles 9 . De combien, en termes d’ajustement de la masse de l’électron, avons-nous échappé à un tel avatar ? Quelles sont véritablement les valeurs de la masse de l’électron qui permettent la création d’éléments lourds, condition préalable au développement de la vie ? Que se passerait-il si nous augmentions légèrement cette masse, par exemple de 30 % ? L’azote commencerait à disparaître au profit du carbone. En continuant à augmenter graduellement la masse, tous les éléments disparaîtraient et le monde prendrait l’allure catastrophique décrite plus haut. Pourtant, comparée aux très grandes différences entre les masses des particules élémentaires du modèle standard, une augmentation de la masse de l’électron de 50 % est assez dérisoire. Pour éviter de croire à un ajustement fin permettant la vie (point de vue anthropique des lois de la nature), et donc l’existence de physiciens pour se poser ce type de questions, les chercheurs se doivent de trouver une théorie que l’on puisse tester et qui permette de prédire les masses des particules, et, non moins important, la force des interactions. Une première piste est offerte par les théories dites de grande unification (voir section 4.2) qui se donnent comme objectif l’unification des forces electromagnétique, faible et forte. Ces théories introduisent un lien direct entre les quarks et les leptons d’une même famille et on peut s’attendre à ce que les masses de l’électron et du neutrino soient reliées à la différence de masse entre le proton et le neutron. Cependant, le mécanisme de brisure de symétrie donnant naissance aux masses des particules est encore loin d’être élucidé et tout cela reste à l’état d’hypothèse. En attendant, réjouissons-nous que personne ne soit capable de redéfinir les paramètres du modèle standard. Dans les deux sections qui suivent, nous allons introduire des concepts fondamentaux sur la relation entre les particules élémentaires, leurs interactions et les symétries de la nature. Ces développements peuvent paraître ardus pour un lecteur qui n’est pas familier avec certains concepts mathématiques. Néanmoins, il n’est pas nécessaire de les maîtriser pour pouvoir profiter de la suite du livre. 1.3

Symétries externes, symétries internes

La notion de symétrie est d’une importance cruciale pour la physique fondamentale contemporaine. Dans notre vie de tous les jours, c’est une notion parfaitement 9

Un autre scénario catastrophe consiste à garder les électrons tels qu’ils sont et à inverser les masses du proton et du neutron. Le proton serait ainsi plus lourd que le neutron de 1,5 MeV et on aboutirait au même résultat.

12

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 13 — #29

i

i

claire : notre visage est approximativement symétrique, une double hélice d’ADN ne l’est pas. Une voiture vue de face n’est pas totalement symétrique (en France, nous conduisons à droite), une boule de billard l’est. Est-ce donc cela dont parlent les physiciens quand ils utilisent le terme de symétrie ? En physique, toute notion de symétrie suppose qu’une certaine variable n’est pas mesurable. Cela équivaut à dire que les équations décrivant une dynamique sont invariantes, c’est-à-dire qu’elles ne sont pas modifiées par un changement de la valeur de cette variable. Le terme de symétrie décrit donc une invariance. Par exemple, une opération de réflexion par rapport à un plan perpendiculaire à son axe vertical transformera une hélice qui tourne à droite en une hélice qui tourne à gauche. L’hélice n’est manifestement pas invariante sous une telle transformation. En revanche, un visage l’est, du moins approximativement. De manière similaire, une boule de billard peut être tournée dans tous les sens sans que cela modifie son apparence et ses propriétés : elle est invariante par rotation. La réflexion d’une voiture par rapport à un plan vertical transformerait une voiture française en une voiture anglaise. Il n’y a donc pas de symétrie. La mathématicienne allemande Emmy Noether a publié en 1918 un théorème fondamental de la physique moderne. Ce théorème énonce qu’à toute symétrie continue d’un système est associée une loi de conservation. Prenons, par exemple, l’invariance des équations dynamiques par des translations spatiales arbitraires ~x 7−→ ~x +~s, qui reflète l’homogénéité de l’espace. Cette symétrie nous garantit que si la trajectoire d’une particule libre est possible dans le système ~x, alors elle le sera également dans le système ~x +~s. Elle entraîne la loi de conservation de la quantité de mouvement. De la même manière, l’invariance des lois de la physique par rotation du système de coordonnées autour d’un axe arbitraire entraîne la loi de conservation du moment cinétique, et l’invariance par déplacement dans le temps conduit à la conservation de l’énergie. Toutes ces lois et leurs conséquences sont relativement faciles à visualiser. Il en va autrement pour les symétries internes des particules qui demandent un certain degré d’abstraction. Elles concernent des invariances par des transformations qui n’affectent pas les coordonnées de l’espace et du temps. Les symétries internes ont été introduites en physique microscopique de manière empirique, pour expliquer des phénomènes quantiques observés en laboratoire. Considérons une fonction d’onde ψ(~x, t), un nombre complexe utilisé en mécanique quantique pour décrire l’état d’un système. Seul son module |ψ(~x, t)| est une quantité mesurable. La transformation ψ(~x, t) 7−→ eiθ ψ(~x, t) est une symétrie interne, car elle ne modifie pas le module. La loi de conservation associée est celle de la probabilité de présence du système dans l’espace, appelée unitarité. Un autre exemple de symétrie interne est fourni par l’isospin faible. On a vu que les fermions étaient classés en trois familles de quarks (u, d), (c, s) et (t, b) et

L’AVENTURE DU GRAND COLLISIONNEUR LHC

13

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 14 — #30

i

i

de leptons (νe , e), (νµ , µ) et (ντ , τ ). L’isospin faible distingue par exemple le quark u du quark d à l’intérieur de la première famille, ou encore l’électron du neutrino νe . Si l’on pouvait ne considérer que l’interaction faible (en ignorant les charges électriques et les masses), la nature serait invariante sous une transformation globale d’isospin faible. 1.4

L’invariance de jauge et les forces fondamentales

Les transformations que nous avons rencontrées jusqu’ici, translation de vecteur ~s, déphasage de phase θ, sont dites globales car ~s et θ sont constants en tout point de l’espace et du temps. Si au contraire ~s et θ dépendent des coordonnées (~x, t), alors la transformation est dite locale. En physique théorique, on parle de transformation de jauge locale et l’invariance d’une équation ou d’une théorie physique sous une telle transformation s’appelle une invariance de jauge locale 10 . Une telle invariance est-elle possible et dans l’affirmative, quelle serait sa signification ? Prenons par exemple le cas d’une translation de vecteur ~s(~x, t). À première vue, la transformation ~x +~s(~x, t) peut modifier de manière drastique et chaotique la trajectoire d’une particule en fonction de sa position et du temps (figure 1.5) et il semble difficile d’envisager une quelconque forme d’invariance. On peut cependant concevoir qu’il existe un champ de force non uniforme qui, appliqué à la particule, restaure la trajectoire initiale, droite. Ainsi, l’invariance par la translation ~s(~x, t) ne décrit pas la trajectoire d’une particule libre. Cette remarque suggère que l’inva- F IGURE 1.5. Déformation de la trajectoire riance de jauge, si elle existe, doit être intime- d’une particule libre résultant d’un chanment liée à l’existence de forces exercées sur gement de coordonnées locales ( x, y) → ( x, y) +~s( x, y) sur un carré à deux dimenles particules. sions. La notion d’invariance de jauge est un concept difficile. Ce qui suit peut s’avérer quelque peu complexe à la première lecture et il est possible de passer directement à la section suivante. La première forme d’invariance de jauge rencontrée en physique est celle de la théorie de la relativité générale qu’Albert Einstein a développé dans les années 1912-1915. Son but était de décrire les phénomènes de gravitation d’une manière 10 Lorsque

les paramètres de la transformation ne dépendent pas des coordonnées, on parle alors d’invariance de jauge globale. Dans la suite, on ne considérera que des transformations de jauge locales et l’on omettra le terme locale.

14

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 15 — #31

i

i

compatible avec la théorie de la relativité restreinte qu’il avait formulée une dizaine d’années auparavant. Cette théorie est basée sur le principe d’équivalence qui stipule, dans sa version dite forte, que, dès lors qu’on se restreint à une région de l’espace suffisamment petite, les lois de la physique sont identiques dans un référentiel uniformément accéléré et dans un référentiel au repos soumis à un champ gravitationnel. En particulier, lorqu’on change de référentiel en effectuant une translation ~x +~s(~x, t), on induit localement des accélérations par le biais de la dépendance en fonction du temps. Pour un observateur lié au nouveau référentiel, tout se passe comme s’il se trouvait dans un référentiel au repos soumis à un champ de forces gravitationnelles créé par une certaine distribution de masse environnante. Les deux situations sont indiscernables et c’est en ce sens que l’on parle d’invariance des lois de la physique sous une transformation de coordonnées locale. Une telle transformation de jauge peut paraître arbitraire mais il n’en est rien. L’interaction qui en découle est bien physique : les équations qui décrivent la dynamique d’un ensemble de particules massives et qui restent invariantes sous des transformations de coordonnées locales sont les équations de la relativité générale d’Einstein. De manière similaire, l’invariance sous transformation locale de phase θ (~x,t) de la fonction d’onde des électrons et positons nécessite l’existence d’un champ de jauge correspondant au potentiel vecteur de l’électromagnétisme (voir encadré 1.3). En théorie quantique des champs, on identifie les excitations de ce champs quantifié avec le quantum du champ électromagnétique, le photon. L’interaction électromagnétique n’est donc que le couplage entre une particule chargée et un photon. Son intensité est proportionelle à la constante de couplage électromagnétique dont nous avons parlé en début de ce chapitre et donc à la charge électrique de la particule. En allant un peu plus loin dans les aspects mathématiques des transformations de jauge, on peut dire que l’électromagnétisme se déduit de l’invariance de jauge associée au groupe des rotations du cercle, U (1), qui agissent sur un espace complexe à une dimension. L’extension de l’invariance de jauge à des symétries internes des particules plus compliquées que la simple symétrie de phase a conduit aux théories dites de Yang-Mills (du nom des théoriciens Chen-Ning Yang et Robert Mills qui les ont introduites dans les années 1950), à la base de la description des autres interactions fondamentales. Ainsi, l’interaction faible découle de l’invariance par des transformations locales du groupe spécial unitaire SU (2), agissant sur l’espace complexe à deux dimensions décrivant l’isospin faible. La structure mathématique du groupe SU (2) entraîne l’existence de trois champs de jauge, au lieu d’un seul pour l’électromagnétisme. Dans la section suivante, nous verrons comment, grâce au mécanisme de Brout-Englert-Higgs, l’un d’eux se mélange au

L’AVENTURE DU GRAND COLLISIONNEUR LHC

15

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 16 — #32

i

i

Encadré 1.3. L’électromagnétisme comme théorie de jauge.

En mécanique quantique, l’état d’une particule est décrit par une fonction d’onde complexe ψ(~x, t) dont seul le module est une quantité mesurable. La description du mouvement d’une particule fait aussi intervenir la norme du quadrivecteur gradient ∂ψ(~x, t)/∂xµ , µ = (0, 1, 2, 3) étant les indices de temps et d’espace. La transformation de phase ψ(~x, t) 7−→ eiθ ψ(~x, t) est une symétrie interne qui ne modifie aucune de ces deux quantités. Cette invariance par changement de phase est dite globale car θ ne dépend pas des coordonnées d’espace et de temps (~x, t). La transformation devient locale si la phase θ (~x, t) peut être différente en chaque point de l’espace-temps. On parle alors de transformation de jauge. Le module de la fonction d’onde reste bien invariant, mais la norme du gradient ne l’est plus. En effet, la transformée du gradient est : ∂ψ(~x, t) ∂eiθ (~x, t) ψ(~x, t) 7−→ = eiθ (~x, t) ∂xµ ∂xµ



∂ψ(~x, t) ∂θ (~x, t) +i ψ(~x, t) ∂xµ ∂xµ



Lorsqu’on calcule la norme, la phase eiθ (~x, t) disparaît, mais un terme en ∂θ/∂xµ reste. L’équation du mouvement n’est donc pas invariante de jauge. Pour restaurer l’invariance, on introduit un champ vectoriel Aµ (~x, t) qui, par définition, se transforme de la façon suivante : 1 ∂θ (~x, t) Aµ (~x, t) 7−→ Aµ (~x, t) + q ∂xµ où q est une constante a priori arbitraire. L’astuce est ensuite de remplacer la dérivée partielle ∂/∂xµ par la dérivée Dµ dite covariante et définie par :   ∂ Dµ ψ(~x, t) = − iqAµ (~x, t) ψ(~x, t) ∂xµ Un rapide calcul relativement simple montre que cette dérivée se transforme ainsi : Dµ ψ(~x, t) 7−→ eiθ (~x, t) Dµ ψ(~x, t) La norme du gradient est donc maintenant inchangée par transformation de phase locale : nous avons construit une théorie invariante de jauge. Que s’est-il passé ? En introduisant la dérivée covariante, nous avons fait apparaître des termes contenant le produit qAµ (~x, t)ψ(~x, t) que l’on interprète comme décrivant l’interaction entre le champ Aµ (~x, t) et le fermion ψ de charge électrique q. On dit que Aµ (~x, t) est un champ de jauge. Il correspond aux potentiels scalaire, A0 , et vecteur, Aµ=1, 2, 3 , dont dérivent les champs électrique et magnétique de l’électromagnétisme classique de Maxwell. Ainsi, la force électromagnétique découle-t-elle naturellement de l’invariance par transformation de phase locale.

16

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 17 — #33

i

i

champ de jauge du groupe U (1) pour donner le boson Z et le photon, tandis que les deux autres donnent les bosons chargés W + et W − . Quant à l’interaction forte, elle est associée à l’invariance par rapport à un groupe de transformation unitaire à trois dimensions, appelé SU (3), agissant dans un espace vectoriel décrivant la couleur des quarks. Dans cette théorie, la chromodynamique quantique (communément appelée par son acronyme anglais : QCD), il y a huit champs de jauge associés aux gluons, bosons vecteurs de l’interaction forte. Ainsi, les quatre forces connues sont la conséquence d’une invariance de jauge. Elles procèdent, quasi miraculeusement, d’un principe géométrique.

Quand la symétrie se brise spontanément : le mécanisme de Brout-Englert-Higgs 1.5

Comprendre que toutes les forces fondamentales résultent d’un principe d’invariance de jauge fait partie des très grandes avancées de la physique du XXe siècle. Cette description pose toutefois un sérieux problème. Il s’avère en effet que l’invariance de jauge impose à toute particule élémentaire de spin différent de zéro d’être de masse nulle. La contradiction avec l’expérience est évidente : on a vu que les quarks et les leptons ont un spin demi-entier et pourtant, ils ont une masse, parfois même très élevée : celle du quark top équivaut à celle d’un atome d’or ! Quant aux bosons de jauge, ils sont tous de spin 1. Si la masse des gluons et des photons est bien nulle, il n’en va pas de même pour les W et Z dont les masses, justement, expliquent la portée extrêmement petite de l’interaction faible, autre observation expérimentale indiscutable. L’invariance de jauge ne semble donc pas réalisée dans la nature, ou du moins, pas de la façon la plus évidente. Comment donc donner une masse aux particules élémentaires, bosons W, Z et fermions, sans briser directement l’invariance de jauge ? That is the question ! La solution ingénieuse, connue aujourd’hui sous le nom de mécanisme de Higgs ou de Brout-Englert-Higgs (BEH en abrégé), voire de Brout-Englert-Higgs-HagenGuralnik-Kibble, a été proposée en 1964 par trois équipes : François Englert et Robert Brout à Bruxelles, Peter Higgs à Édimbourg, et, quelques mois plus tard, Gerald Guralnik, Carl Richard Hagen et Thomas Kibble à Londres. Ce mécanisme s’inspire de concepts développés en physique de l’état condensé 11 . Il prédit l’existence d’une nouvelle particule de spin zéro, le boson de Higgs, parfois aussi 11 Le

lagrangien de l’encadré 1.5 qui décrit mathématiquement ce mécanisme est tout à fait similaire à celui écrit en 1951 par les physiciens russes Vitaly Ginzburg et Lev Landau pour décrire la supraconductivité. Le rôle de boson du Higgs est analogue sur le plan théorique à celui des paires de Cooper de la supraconductivité.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

17

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 18 — #34

i

i

F IGURE 1.6. Robert Brout, François Englert et Peter Higgs, co-inventeurs du mécanisme de brisure de symétrie qui porte leurs noms. Peter Higgs a été le premier à prévoir l’existence d’un boson de spin zéro comme conséquence de ce mécanisme. Bien souvent, pour désigner le mécanisme et le boson, par un abus de langage, seul le nom de Higgs est retenu, certainement par souci de simplification.

appelé boson de Brout-Englert-Higgs, ou tout simplement le Higgs, qui contrôle les masses des particules élémentaires. Ce boson a été recherché pendant des décennies auprès d’accélérateurs toujours plus puissants, avant d’être découvert au LHC en 2012. Le mécanisme de Brout-Englert-Higgs repose sur deux constatations théoriques. La première est que les particules de spin zéro, les scalaires, peuvent être de masse non nulle sans briser l’invariance de jauge des équations du modèle standard. La seconde est qu’il est possible de faire apparaître dans ces équations, en quelque sorte spontanément, des termes dans lesquels les masses des particules sont non nulles, termes qui ne pouvaient être présents dans les équations de départ. Cette apparition qui semble un peu magique est en fait basée sur le concept de transition de phase après une brisure spontanée de symétrie, que les théoriciens des particules ont emprunté à la physique des solides. On parle de brisure spontanée de symétrie quand l’état fondamental d’un système physique (l’état correspondant à l’énergie la plus basse) possède moins de symétrie que les équations du mouvement qui décrivent la dynamique du système (voir encadré 1.4). C’est la raison pour laquelle on parle également parfois de symétrie cachée. Expliquons un peu à quoi cela ressemble. Supposons l’existence d’un nouveau champ scalaire correspondant à un boson de spin zéro. À ce champ est associée une énergie potentielle, le potentiel de Higgs, qui décrit l’interaction du champ avec lui-même ainsi que sa masse (figure 1.7). Au tout début de notre Univers, la forme de ce potentiel est une fonction parabolique du champ (lui-même une quantité complexe) dont le minimum est nul pour un champ nul. Environ

18

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 19 — #35

i

i

10−11 seconde après le big bang, la température a dejà diminué de dix-sept ordres de grandeur et n’est plus que d’un million de milliards de kelvins. Cela correspond à une énergie cinétique moyenne des particules d’environ 100 GeV. Le potentiel de Higgs se transforme alors et prend la forme d’un chapeau mexicain ! Le minimum est maintenant obtenu pour une valeur non nulle du champ, ou plutôt pour une infinité de valeurs sur un cercle dans le plan complexe. Ce comportement peut sembler quelque peu étonnant mais c’est exactement celui de l’énergie potentielle d’une barre métallique soumise à une force de compression (figure 1.8). Au-delà d’une valeur critique de la force, la symétrie de la barre est brisée : c’est ce qu’on appelle le flambage en résistance des matériaux. Dans le monde d’aujourd’hui, le champ de Higgs se trouve dans ce minimum du potentiel, excepté lors de certaines interactions de haute énergie produites soit par des rayons cosmiques, soit par nos accélérateurs de particules. En effet, grâce au très grand apport d’énergie occasionné localement par ces collisions, il est possible d’exciter le champ de Higgs au voisinage de sa valeur au minimum du potentiel et de créer un ou plusieurs quanta de champs, qu’on appelle maintenant bosons de Higgs. Encadré 1.4. Brisure spontanée de symétrie .

Un exemple simple

Ce crayon vertical est symétrique par rotation autour son axe. Lorsqu’il tombe, une direction unique est retenue : la symétrie est brisée. Cet exemple simple illustre fort bien deux aspects importants d’une brisure spontanée de symétrie : le premier est que l’on ne peut pas prédire la direction dans laquelle le crayon va tomber ; le second est que la description du système après brisure de la symétrie ne dépend pas de la direction choisie. Il ne faut pas s’imaginer pour autant que cette brisure de la symétrie initiale résulte d’une minuscule imperfection, par exemple dans la pointe du crayon. Cela correspondrait à un système de départ qui n’est pas parfaitement symétrique, ce qui n’est pas notre propos.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

19

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 20 — #36

i

i

Un exemple géométrique

≠ Comment joindre les quatre coins d’un carré en minimisant la longueur totale des segments ? Ce problème est au départ parfaitement symétrique (schéma de gauche). Pourtant, les deux solutions ne respectent pas la symétrie initiale (schémas du milieu et de droite). Un exemple en physique des solides Un autre exemple bien connu de brisure spontanée de symétrie est celui d’un solide ferromagnétique, un aimant. Lorsque la température ambiante dépasse une certaine température critique, appelée température de Curie et qui dépend du matériau utilisé, les spins des atomes (ou plutôt les directions des domaines magnétiques microscopiques) de l’aimant sont dirigés au hasard ne créant pas de champ magnétique macroscopique (figure de gauche). Le système macroscopique est donc symétrique par rapport à une rotation spatiale. En revanche, dès que la température descend en dessous de la valeur critique, l’aimant entre dans une phase ordonnée où les spins s’alignent selon une direction privilégiée (figure de droite). Il n’y a plus de symétrie par rotation mais la direction choisie fait partie d’une infinité de solutions possibles dont l’ensemble obéit à la symétrie initiale. C’est une brisure spontanée de la symétrie. Ceci ne doit pas être confondu avec une brisure de symétrie explicite, c’est-à-dire provoquée, par exemple, par l’application d’un champ magnétique extérieur (on parle alors d’aimantation). La transition de phase d’un métal de l’état normal vers l’état supraconducteur est un autre exemple de brisure spontanée de symétrie.

20

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 21 — #37

i

i

F IGURE 1.7. Le potentiel de Higgs peut s’écrire simplement en fonction du champ de Higgs, décrit par un nombre complexe Φ : V (Φ) = µ2 |Φ|2 + λ|Φ|4 où µ2 et λ sont les paramètres de masse et de couplage quartique du champ de Higgs. Lorsque la température de l’Univers descend en dessous d’une certaine valeur, µ2 devient négatif et le potentiel prend la forme du chapeau mexicain représenté sur cette figure. À l’état fondamental, c’est-à-dire à l’énergie la plus basse de l’Univers, correspond alors une valeur non nulle du champ de Higgs υ = 246 GeV (voir encadré 1.5).

Force < force critique

Minimum

Force > force critique

Minimum

F IGURE 1.8. Flambage d’une barre d’acier. Tant que la force de compression verticale est inférieure à une valeur critique, la barre reste droite car cette position correspond à un minimum de son énergie potentielle. Lorsque la force dépasse une valeur critique, la barre flambe dans une certaine direction et n’est donc plus symétrique par rapport à l’axe de rotation. En revanche, la forme de l’énergie potentielle reste symétrique.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

21

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 22 — #38

i

i

Encadré 1.5. Brisure spontanée de symétrie et champ vecteur massif.

L’invariance de jauge interdit des termes de masse, c’est-à-dire de la forme 12 m2 A2µ , pour un champ vectoriel Aµ = Aµ ( x ) (où x = (~x, t) est un point de l’espace-temps). En revanche, de tels termes sont autorisés dans le cas d’un champ scalaire Φ( x ). Nous allons donc démontrer ici comment utiliser le champ Φ( x ) afin d’engendrer un terme de masse pour Aµ ( x ), grâce au mécanisme de la brisure spontanée de symétrie. Considérons une théorie avec une symétrie de jauge locale de type U (1) décrivant la dynamique d’un champ scalaire complexe Φ( x ) (voir l’encadré 1.3 sur l’électromagnétisme comme théorie de jauge). En théorie des champs, la grandeur mathématique, appelée lagrangien, à partir de laquelle on peut calculer l’évolution des champs, s’écrit (nous supprimons provisoirement les dépendances explicites en x) :

L = | Dµ Φ | 2 − ( µ 2 | Φ | 2 + λ | Φ | 4 ) −

1 Fµν F µν 4∑ µν

Le premier terme de la somme décrit la propagation du champ scalaire et fait intervenir la dérivée covariante Dµ = ∂µ − ieAµ , le second décrit le potentiel du champ scalaire (sa masse et son interaction avec lui-même, voir figure 1.7), et le dernier terme, la dynamique du champ de force associé au champ de jauge Aµ avec Fµν = ∂µ Aν − ∂ν Aµ . L’équation ci-dessus est invariante sous une transformation locale de jauge Φ → = φ( x )eiθ (x) où φ( x ) et θ ( x ) sont des fonctions réelles. L’invariance de jauge signifie que la phase α( x ) n’est pas un paramètre physique, ce qui nous permet de l’exploiter pour annuler, pour chaque valeur de x (c’est-à-dire en tout point de l’espace-temps), la contribution de p θ ( x ). Φ ( x ) √ est alors réel et l’on peut l’écrire : Φ( x ) = φ( x ) = (υ + χ( x ))/ 2 avec υ = −µ2 /λ. Ce choix précis du paramètre de jauge s’appelle une jauge unitaire. eiα( x) Φ. Écrivons maintenant ce champ complexe sous la forme Φ( x )

Le premier terme de notre équation prend alors la forme :

| Dµ φ( x )|2 =

1 1 e2 |(∂µ − ieAµ )(υ + χ( x ))|2 = (∂µ χ( x ))2 + A2µ (υ2 + 2υχ( x ) + χ2 ( x )) 2 2 2

Il introduit donc un terme de masse pour le champ vectoriel Aµ ( x ) avec m = eυ. La brisure spontanée de symétrie est apparue via une redistribution des champs : un des deux champs réels qui forment le champ complexe Φ( x ) a été enlevé par un choix spécifique de jauge, mais il a réapparu sous la forme d’un terme de masse pour le champ vectoriel Aµ . Le nombre de degrés de liberté du système n’a donc pas changé. Cela s’appelle le mécanisme de Brout-Englert-Higgs.

22

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 23 — #39

i

i

L’unification électrofaible et le modèle de Glashow-Weinberg-Salam 1.6

En 1961, le physicien américain Sheldon Glashow proposa une première ébauche d’un modèle théorique des interactions faible et électromagnétique unifiées, basé sur le groupe de jauge SU (2) × U (1) qui caractérise les symétries des fermions à très haute énergie. Il ne parvint toutefois pas à expliquer d’une manière satisfaisante la courte portée de l’interaction faible. En 1967, indépendamment l’un de l’autre, l’Américain Steven Weinberg et le Pakistanais Abdus Salam eurent l’idée d’associer à cette théorie de jauge le mécanisme de Brout-EnglertHiggs, pour fournir un cadre théorique cohérent à l’unification électrofaible (voir encadré 1.6). En formulant les excitations du champ de Higgs dans les équations de Yang-Mills, ils trouvèrent qu’en plus de la nouvelle particule scalaire et massive, le boson de Higgs, déjà suggérée par Peter Higgs lui-même, apparaissaient de nouveaux termes ayant exactement la forme de termes de masse pour les bosons de jauge 12 W et Z. Ces termes sont proportionnels à la valeur du champ de Higgs au minimum du potentiel : il faut donc effectivement que cette valeur soit différente de zéro, c’est-à-dire qu’il y ait eu brisure de la symétrie, pour que les bosons de jauge W et Z soient massifs. En revanche, le photon et les gluons n’interagissent pas avec le champ de Higgs et leurs masses restent donc bien nulles. Comment se fait-il que les équations après brisure spontanée de symétrie respectent la symétrie de jauge tout en décrivant des bosons de masses non nulles ? Les équations initiales étaient bien invariantes de jauge. En y ajoutant un potentiel lié à une particule scalaire massive, l’invariance est respectée. L’apparition d’un minimum pour une valeur non nulle, c’est-à-dire non symétrique, du champ de Higgs est spontanée dans le sens où elle n’est pas le résultat d’une action extérieure additionnelle. Dans les équations finales, la symétrie est donc seulement cachée. Dans ce modèle, les bosons vecteurs neutres des interactions électromagnétique et faible, le photon et le Z, résultent du mélange entre les deux bosons de jauge neutres associés au groupe SU (2) × U (1). C’est pourquoi on parle d’unification électrofaible pour souligner l’origine commune de ces deux interactions. 12 Le

calcul qui est décrit ici de façon simplifiée repose sur la théorie des perturbations qui permet de considérer uniquement l’action du champ scalaire autour de son minimum et de traiter cette action comme une petite perturbation mathématique. La valeur du champ de Higgs est alors égale à la somme de sa valeur au minimum de potentiel et de cette perturbation. Après insertion de cette valeur dans les équations dynamiques du modèle standard, qui au départ ne faisaient intervenir que des bosons de masse nulle, on obtient des termes correspondant à des bosons W et Z massifs. La symétrie est alors cachée.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

23

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 24 — #40

i

i

Encadré 1.6. Le modèle de Glashow-Weinberg-Salam.

À très haute énergie, lorsque la brisure spontanée de la symétrie n’a pas encore eu lieu, les interactions électromagnétique et faible sont décrites par une théorie de jauge unique basée sur le groupe SU (2) × U (1). C’est ce qu’on appelle l’unification électrofaible. Les bosons de jauge B1 , B2 , B3 , associés à SU (2), et A0 , associé à U (1), sont tous de masse nulle et la portée des interactions est donc infinie. Leur intensité est caractérisée par les constantes de couplage g pour les bosons B et g0 pour A0 . En théorique quantique des champs, deux particules ayant les mêmes propriétés quantiques (spin, parité, charges vis-à-vis des interactions considérées...) peuvent dans certaines circonstances se mélanger et conduire à deux nouvelles particules, résultant d’une combinaison linéaire des états quantiques initiaux. Dans le mécanisme de Brout-Englert-Higgs, l’état fondamental de l’Univers (appelé le vide de la théorie) correspond au minimum du potentiel de Higgs pour lequel le champ de Higgs acquiert une valeur moyenne √υ suivant une direction (figure 1.7). On a vu 2 dans l’encadré précédent comment cette brisure de symétrie engendre une masse pour les bosons de jauge de la théorie. Avec le groupe de jauge SU (2) × U (1), des termes de masse apparaissent seulement pour des combinaisons linéaires simples des bosons de jauge Bi et A0 . Ainsi, les bosons B1 et B2 se mélangent pour donner les bosons W chargés et massifs : √ W + = ( B1 + B2 ) / 2 √ W − = ( B1 − B2 ) / 2 Leur masse est reliée à la constante de couplage g et au paramètre υ, par : mW = gυ/2 Il apparaît ici clairement que la brisure spontanée de symétrie qui correspond à une valeur non nulle de υ est bien responsable de la masse des bosons de jauge W. De façon similaire, le boson B3 se mélange au boson A0 pour donner le boson Z, massif, et le photon γ qui lui conserve une masse nulle. Ce mélange est caractérisé par un angle, appelé angle de Weinberg, noté θW , directement relié au rapport des constantes de couplages avant brisure : tan θW = g0 /g. Les états correspondant au boson Z et au photon s’expriment en fonction de B3 et A0 de la façon suivante : Z = B3 cos θW − A0 sin θW γ = A0 cos θW − B3 sin θW

La masse du boson Z est alors :

m Z = mW / cos θW L’intensité des interactions est également affectée par le mécanisme de Brout-EnglertHiggs : la constante de couplage aux bosons W reste égale à g tandis que celle au photon (qui détermine la charge e de l’électron) est relié à g par : e = g sin θW

24

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 25 — #41

i

i

Expérimentalement, l’intensité de l’interaction faible par courant chargé est bien mesurée à basse énergie. Elle est caractérisée par la constante de Fermi GF = 1,166 · 10−5 GeV−2 , ¯ bien introduite en 1934 par Enrico Fermi pour décrire les désintégrations β, n → peν, avant qu’on ne parle de théories de jauge. On sait maintenant que ces désintégrations font intervenir les bosons W dont la masse peut être reliée à la constante de Fermi : √ 2 GF = g2 /(4 2mW ) Historiquement, la valeur de θW a été mesurée à une valeur d’environ 0,23 dans des expériences de diffusion de neutrinos, avant l’observation directe des bosons W et Z. Nous y reviendrons dans la section 2.3. On avait alors pu en déduire les valeurs de g et prédire la masse des bosons W : s r g2 πα 1 √ √ · mW = = sin θW 4 2GF GF 2 où α est la constante de structure fine : α = e2 /(4π ) ∼ 1/137. Numériquement,√on obtient mW ≈ 80 GeV et m Z ≈ 91 GeV. On en déduit également la valeur de υ = ( 2 GF )−1/2 = 246 GeV. Cette valeur moyenne dans le vide du champ de Higgs représente l’échelle d’énergie à laquelle a lieu la brisure de la symétrie électrofaible. Le seul paramètre inconnu, avant la découverte du boson en 2012, était donc sa masse. C’était une inconnue de taille qui a rendu la recherche longue et incertaine.

L’introduction du champ de Higgs engendre donc la brisure électrofaible et permet de donner des masses aux bosons W et Z. Comment résoudre maintenant la question de la masse des fermions ? La solution adoptée est relativement simple : il suffit d’ajouter dans les équations des termes correspondant à l’interaction entre le champ de Higgs et chaque champ de fermion. Chacun de ces termes fait intervenir une constante qui caractérise le couplage entre les deux champs. En choisissant de façon adéquate la valeur de la constante, on peut retrouver la masse observée expérimentalement. Cependant, les grandes différences entre les masses des fermions ou, de façon équivalente, entre ces constantes de couplage au champ de Higgs, restent inexpliquées et constituent une des faiblesses du modèle standard. Seul le quark top dont la constante de couplage est proche de l’unité semble avoir une masse naturelle. En termes moins mathématiques, on peut comprendre l’action du champ de Higgs, qui remplit tout l’espace temps, comme celle d’une sorte de viscosité. D’une façon analogue à celle qui fait qu’un objet passant à grande vitesse à travers un liquide visqueux est ralenti par son interaction avec celui-ci (c’est ce qu’on appelle la friction), les bosons et les fermions sont ralentis par leur interaction

L’AVENTURE DU GRAND COLLISIONNEUR LHC

25

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 26 — #42

i

i

Encadré 1.7. La particule de Dieu ?

Cette appellation a fait florès dans les médias pour qualifier le boson de Higgs censé être à l’origine de l’existence de toutes les autres particules. Quelle est l’origine d’un tel raccourci, bien hardi, contre lequel Peter Higgs lui-même s’élève avec la plus grande véhémence ? En 1993, l’Américain Leon Lederman, prix Nobel de physique pour la découverte en 1962 du neutrino µ et, en 1977, du quark beau (premier membre de la troisième famille de quarks), a publié avec Dick Teresi un livre intitulé The God Particle: If the Universe Is the Answer, What Is the Question? Il y décrit, entre autres, la chasse, jusqu’alors infructueuse, au boson de Higgs menée au CERN et au Fermilab, ainsi que le projet pharaonique du SSC (voir section 6.3.1), alors en construction au Texas, qui avait pour objectif de faire toute la lumière sur l’unification électrofaible. En référence à cette particule si importante, si insaisissable, et à l’origine de tous ces efforts techniques et financiers, Lederman souligne qu’il aurait pu intituler son livre The Goddamn Particle, cette sacrée, ou damnée, particule. Ce titre n’aurait pas été du goût de son éditeur pour qui, sans le damn, le livre se vendrait nettement mieux. Lederman a également voulu voir dans cette référence à Dieu une analogie (audacieuse) avec le mythe de la tour de Babel (le SSC) construite par les hommes après l’épisode du Déluge pour accéder au ciel, à Dieu et à ses secrets.

avec le champ de Higgs 13 . Or, une particule qui se déplace avec la vitesse de la lumière est une particule de masse nulle. Si sa vitesse est inférieure, c’est qu’elle a une masse. Plus elle interagit avec le champ de Higgs, plus sa masse est grande. On pourrait dire aussi que la vitesse de la particule est réduite par les diffusions multiples qu’elle subit dans l’espace-temps en raison de sa masse. Une autre analogie possible est celle avec un milieu transparent réfringeant, c’est-à-dire d’indice optique n > 1. En raison des interactions avec les atomes du milieu, un photon a une vitesse constante c/n, donc inférieure à la vitesse de la lumière : dans l’eau, environ 0,75c, dans le verre, 0,6c. La preuve de la cohérence mathématique d’un modèle basé sur une symétrie de jauge, brisée par un mécanisme comme celui de Brout-Englert-Higgs, a été apportée au début des années 1970 par Gerard ’t Hooft, Martinus Veltman (prix Nobel 1999), Benjamin Lee et Jean Zinn-Justin. Cela a entraîné un changement de paradigme chez les théoriciens qui se sont alors tournés en majorité vers ce type de modèle pour décrire la nature. Le modèle de Glashow-Weinberg-Salam décrivait les interactions par courants chargés, c’est-à-dire celles véhiculées par les bosons W + et W − et qui étaient déjà 13 Cette

analogie a ses limites : la viscosité est un phénomène dissipatif, c’est-à-dire qui provoque une perte d’énergie de la particule via un dégagement de chaleur, alors que la friction de Higgs n’induit pas de décélération de la particule.

26

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 27 — #43

i

i

connues expérimentalement depuis longtemps. Il prédisait en outre l’existence de courants neutres, c’est-à-dire d’une interaction faible, véhiculés par un boson neutre Z. Leur observation expérimentale au CERN en 1973, puis la découverte directe des W et Z en 1982 et 1983 (voir chapitre 2), toujours au CERN, ont définitivement consacré le modèle de Glashow-Weinberg-Salam comme la partie électrofaible du modèle standard de la physique des particules 14 . Le mécanisme de Brout-Englert-Higgs en est la clef de voûte. La découverte du boson de Higgs en 2012, encore au CERN, est, trente ans plus tard, l’ultime succès de ce modèle. 1.7

Théorie de Dirac et antiparticules

Nous avons déjà mentionné plusieurs fois l’existence d’antiparticules : l’antiélectron, appelé positon, les antineutrinos, les antiquarks... De quoi s’agit-il ? Le concept d’antiparticule ne vient pas à l’origine d’une découverte expérimentale mais est la conséquence d’un raisonnement mathématique. En 1928, le physicien anglais Paul Dirac établit une équation décrivant l’évolution dans l’espace-temps de la fonction d’onde d’un électron et qui, pour la première fois, respectait les principes de la mécanique quantique et ceux de la relativité restreinte (figure 1.9).

F IGURE 1.9. À gauche, Paul Dirac (1902-1984), colauréat avec Erwin Schrödinger du prix Nobel de physique de 1933 pour leurs contributions fondamentales au développement de la mécanique quantique. À droite, Carl Anderson (1905-1991), prix Nobel de physique de 1936 pour la mise en évidence du positon.

15 En premier lieu, cette équation p doit donc respecter la relation d’Einstein entre énergie et matière : E = m2 + p2 , où m est la masse de l’électron, p sa quantité de mouvement et E son énergie 16 . Dirac réalisa que pour que cette contrainte soit satisfaite, l’équation devait être matricielle de dimension 4. La fonction d’onde ψ(~x, t) de l’électron doit par conséquent être une grandeur à quatre composantes complexes, appelée spineur, ce qui permet d’introduire 14 L’autre

partie est constituée par la QCD qui décrit l’interaction forte. quantité d’énergie stockée dans un objet massif est énorme. L’annihilation totale d’un kilogramme de masse fournirait une énergie de 9 · 1016 g m2 s−2 = 9 · 1016 J, ce qui correspond environ à la totalité de l’énergie solaire arrivant sur Terre en une seconde ou à un quart de la consommation annuelle d’électricité de la Norvège en 2008. 16 Comme c’est l’usage en physique des particules, on a utilisé ici la convention dans laquelle la vitesse de la lumière c est égale à 1. Masse et énergie s’expriment alors dans la même unité, l’électronvolt, ou une unité dérivée. 15 La

L’AVENTURE DU GRAND COLLISIONNEUR LHC

27

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 28 — #44

i

i

naturellement la notion de spin dans la théorie. En outre, dans la limite où la particule est quasiment au repos, c’est-à-dire lorsque le rapport p/m est petit, l’équation de Dirac reprend la forme d’une équation d’onde non relativiste pour une particule de spin 1/2 : c’est l’équation de Pauli, établie en 1927, elle-même étant une variante de l’équation de Schrödinger. Elle permet ainsi d’expliquer pourquoi les particules de spin 1/2 fonctionnent comme un aimant dipolaire et en prédit même le moment magnétique quantique. La conséquence immédiate est que l’équation de Dirac explique la structure fine du spectre d’un atome d’hydrogène. Ces propriétés étaient le but recherché par Dirac. Ce qui n’était pas voulu au départ, c’est que les solutions de l’équation font apparaître des états décrivant des particules d’énergie négative ! Leur interprétation a posé un sérieux problème et suscité discussions et réflexions parmi les physiciens théoriciens de l’époque. Ce n’est qu’en 1931 que Dirac postula l’existence de l’antiélectron : ces solutions d’énergie négative pouvaient être interprétées comme des particules d’énergie positive, possédant la même masse et le même spin que l’électron mais une charge électrique opposée 17 . Le positon fut détecté l’année suivante, dans des rayons cosmiques (figure 1.10), par le physicien suédois et américain Carl Anderson (figure 1.9). Dirac reçut le prix Nobel en 1933 et Anderson en 1936. Par la suite, la notion d’antiparticule a été étendue à toutes les particules, y compris aux particules dites composites, c’est-à-dire formées de plusieurs particules fondamentales. Une particule et son antiparticule ont des nombres quantiques internes opposés (charge électrique, nombres leptonique et baryonique 18 , isospin...), mais la même masse, le même spin et la même durée de vie. Certaines particules électriquement neutres sont identiques à leurs antiparticules. C’est le cas du Z, du photon, du boson de Higgs, ou encore du π 0 , composé symétrique de quarks et d’antiquarks de la première famille. C’est peut-être le cas des neutrinos comme nous le verrons dans la section 3.5. En revanche, ce n’est pas le cas du neutron dont la composition en quarks n’est pas symétrique sous l’échange de ses quarks et antiquarks. 17 Parmi

les quatre composantes du spineur décrivant l’électron, deux servent à décrire l’état de spin et les deux autres sont liées à la nature particule-antiparticule. Les développements de la théorie des champs, s’appuyant sur la théorie des groupes appliquée au groupe de Poincaré (qui réunit les transformations de Lorentz de la relativité et les translations d’espace-temps) ont permis de fournir un cadre mathématique rigoureux à l’existence des antiparticules. 18 Le nombre baryonique B d’un système est défini comme étant égal au tiers de la différence entre le nombre de quarks et le nombre d’antiquarks dans ce système. Ainsi B = 1 pour un baryon (un hadron constitué de trois quarks tel que le proton ou le neutron) et B = −1 pour un antibaryon. De même, le nombre leptonique L d’un système est défini comme la différence entre les nombres de leptons et d’antileptons qu’il contient. Dans le modèle standard, ces nombres sont conservés entre l’état initial et l’état final après interaction.

28

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 29 — #45

i

i

F IGURE 1.10. Création d’une paire électron-positon (représentée en mauve) le long de la trajectoire d’une particule chargée de haute énergie (vraisemblablement un muon) observée dans une chambre à bulles. Ce processus peut se produire lorsque la particule chargée passe très près d’un noyau où le champ électrique est intense, ce qui rend possible cinématiquement la matérialisation de la paire en transférant une partie de l’impulsion au noyau.

Après le positon, Carl Anderson et Seth Neddermeyer ont découvert en 1936 l’antimuon. L’antiproton (particule composite, mais on ne le savait pas à l’époque) a été découvert en 1955 à Berkeley aux États-Unis, puis l’antineutron en 1956, au même endroit. La première découverte d’un antinoyau a été celle de l’antideutérium, simultanément au CERN et à Brookhaven aux États-Unis. Enfin, le premier antiatome, l’antihydrogène, a eté fabriqué au CERN en 1995. Depuis, des millions d’atomes d’antihydrogène y sont produits et étudiés de manière contrôlée. Que se passe-t-il lorsque particules et antiparticules se rencontrent ? Elles s’annihilent, produisant de l’énergie, par exemple sous forme de photons. C’est la transformation de la matière en énergie que décrit la très célèbre formule d’Einstein, E = mc2 . À l’inverse, des photons d’énergie suffisante peuvent se convertir en paires particule-antiparticule. Ces mécanismes sont à la base du fonctionnement des accélérateurs. Prenons l’exemple d’un collisionneur électronpositon : des électrons et des positons sont accélérés par des champs électriques de fréquence radio à une vitesse très proche de celle de la lumière, puis entrent en collision. La somme de leurs énergies cinétiques est alors transformée en masse, permettant de créer de nouvelles particules, beaucoup plus lourdes qu’une paire électron-positon au repos. Au collisionneur LEP au CERN qui était en service à la fin du siècle dernier et dont on reparlera dans la section 2.4, de telles collisions ont permis de créer des millions de bosons Z, pourtant 180 000 fois plus lourd qu’un électron.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

29

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 30 — #46

i

1.8

i

La brisure de la symétrie matière-antimatière

Une des conditions nécessaires à la création d’un univers de matière tel que le nôtre est l’existence d’une interaction qui ne respecte pas la symétrie entre particules et antiparticules 19 . La violation de cette symétrie a été observée expérimentalement pour la première fois aux États-Unis, en 1964, dans un processus d’interaction faible mettant en jeu des kaons neutres, particules composées de ¯ de la première famille et d’antiquarks étranges s¯ (ou quarks d (ou antiquarks d) quarks s) de la deuxième famille. Une explication élégante de ce phénomène a été fournie en 1973 par deux physiciens japonais, Makoto Kobayashi et Toshihide Maskawa. Dans les années 1960, le physicien italien Nicola Cabibbo avait montré comment les quarks de la première et de la deuxième famille pouvaient se mélanger par interaction faible. Kobayashi et Maskawa ont réalisé que s’il existait une troisième famille de quarks, qu’on n’avait encore jamais observée, le mélange pouvait être différent pour des quarks et des antiquarks. Autrement dit, un modèle standard avec trois familles de quarks incorporait de manière naturelle la violation de la symétrie matière-antimatière. Cette hypothèse a été renforcée par la découverte en 1975 du lepton τ puis, en 1977, par celle du premier quark de la troisième famille, le quark b ou quark beau. Avec le modèle de Cabibbo-Kobayashi-Maskawa, on s’attendait à observer la violation de la symétrie matière-antimatière dans les interactions des mésons B neutres, composés d’un antiquark beau et d’un quark d (ou d’un quark beau et d’un antiquark d¯ pour l’antiméson B neutre). Ce fut chose faite en 2001, grâce aux collisionneurs électron-positon de SLAC en Californie et de KEK, un centre de recherche de physique des particules situé à Tsukuba, au Japon. Dans les années qui suivirent, les mesures très précises réalisées auprès de ces collisionneurs démontrèrent la validité du modèle. Nous y reviendrons dans le chapitre suivant. Le mélange entre quarks de familles différentes par l’interaction faible est modélisé par une matrice 3 × 3, la matrice de Cabibbo-Kobayashi-Maskawa (CKM), qui fait intervenir quatre paramètres, dont un est la phase d’un nombre complexe (section 1.1). La beauté du modèle CKM réside dans le fait que cette seule phase suffit pour expliquer toutes les observations de brisure de la symétrie matièreantimatière. Sa confirmation expérimentale a valu à Kobayashi et Maskawa le prix Nobel de physique en 2008. La découverte récente que les neutrinos possèdent une masse non nulle, bien que probablement très petite, ouvre des perspectives fascinantes. Avec trois familles de neutrinos massifs, on s’attend dans le secteur leptonique à une vio19 Plus

précisément, cette interaction doit briser les symétries C et CP qui sont décrites dans l’encadré 1.8.

30

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 31 — #47

i

i

lation de la symétrie matière-antimatière analogue à celle observée au niveau des particules formées de quarks. Par ailleurs, il est difficilement concevable que le mécanisme de Brout-Englert-Higgs puisse être à l’origine de masses aussi petites par rapport à celles des leptons chargés (voir section 3.5). Un mécanisme théorique plus satisfaisant suppose l’existence de neutrinos supplémentaires très lourds. Ils seraient tellement lourds, environ 1014 fois plus qu’un proton, qu’ils ne pourraient pas être produits dans des accélérateurs de particules envisageables actuellement sur Terre. En violant la symétrie matière-antimatière, la désintégration dans les premiers instants de l’Univers de ces particules hypothétiques, en conjonction avec des instabilités du vide électrofaible, pourrait avoir créé l’excès de matière leptonique et baryonique dont nous descendons.

Encadré 1.8. Les symétries P, C, CP et CPT.

On a longtemps cru que les lois de la nature étaient identiques pour deux processus qui sont le reflet l’un de l’autre dans un miroir. On appelle cette symétrie la parité que l’on note simplement P. En 1957, Chen-Ning Yang et Tsung-Dao Lee suggérèrent de vérifier si cette symétrie était ou non respectée par l’interaction faible. La même année, ChienShiung Wu et ses collaborateurs démontrèrent expérimentalement qu’elle ne l’était pas, en étudiant la désintégration de noyaux radioactifs de colbalt 60 en nickel 60 accompagné d’un électron et d’un antineutrino. Pour expliquer la violation de P par l’interaction faible, il nous faut introduire les notions d’hélicité et de chiralité. L’hélicité est une propriété quantique de la particule définie comme le signe de la projection de son spin sur la direction de sa quantité de mouvement. Le spin est en effet une quantité vectorielle, liée aux propriétés de rotation intrinsèque de la particule. Il se trouve que les physiciens utilisent le même terme pour désigner à la fois le vecteur et le nombre quantique, lié à la norme de ce vecteur. La chiralité est une propriété intrinsèque d’un objet (ici une particule) liée à son invariance (ou non-invariance) dans une transformation miroir. Pour une particule de masse (quasi) nulle, la chiralité est (quasi) identique à l’hélicité et nous ne distinguerons pas les deux concepts. Une chiralité négative est dite gauche et une chiralité positive est appelée droite. Du point de vue théorique, la violation de P vient du fait que les fermions de chiralité gauche et droite ont des couplages très différents avec les bosons de jauge vecteurs de l’interaction faible. Par exemple, seuls les fermions gauches sont couplés aux bosons chargés W + et W − et les fermions droits, qui ne se couplent donc pas à ces bosons, n’ont pas d’interaction faible ! Les résulats de l’expérience de Mme Wu ont provoqué une véritable révolution en physique des particules et ont valu immédiatement le prix Nobel à Yang et Lee.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

31

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 32 — #48

i

Spin up Électron

i

Spin down Positon

Combinons maintenant la parité P (permutation entre la gauche et la droite) avec la conjugaison de charge C qui correspond à une permutation entre une particule et son antiparticule. Cette nouvelle symétrie, appelée CP, inverse le spin d’une particule et la transforme en une antiparticule de charge électrique opposée. Sur la figure, un électron de spin up est transformé en un positon de spin down. Cette nouvelle symétrie CP semble conservée : les antiparticules de chiralité droite (respectivement gauche) ont le même comportement que les particules de chiralité gauche (respectivement droite). Or, en 1964, une très petite violation de cette symétrie CP a été détectée dans les désintégrations des kaons neutres (James Cronin et Val Fitch, prix Nobel 1980). En 2001, elle a également été mise en évidence dans les interactions des mésons B neutres. Elle a été étudiée abondamment, que ce soit avec les kaons ou les mésons B, et reste un champ de recherche actif, en particulier au LHC comme nous le verrons plus tard. L’invariance complète est obtenue pour la symétrie CPT qui combine la conjugaison de charge, la parité et la transformation T qui renverse le sens du temps. Le caractère absolu de cette invariance se démontre théoriquement à partir d’hypothèses très générales comme la causalité et la validité de la théorie de la relativité restreinte. Elle implique qu’une antiparticule se comporte de manière identique à une particule vue dans un miroir en train de remonter le temps. Une conséquence est que la particule et son antiparticule ont exactement la même masse, le même spin et la même durée de vie. L’invariance par la symétrie CPT signifie que non seulement un monde et son anti-monde peuvent être distingués au niveau microscopique, mais également le futur et le passé.

1.9

Théorie quantique des champs et corrections virtuelles

Nous avons vu que pour pouvoir décrire des phénomènes fondamentaux tels que l’apparition de nouvelles particules ou la désintégration de particules instables, il

32

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 33 — #49

i

i

a fallu introduire la notion de champ quantique. La théorie quantique des champs a été développée dans les années 1930 par quelques physiciens restés célèbres : Wolfgang Pauli, Paul Dirac, Lev Landau, Vladimir Fock et bien d’autres. Un champ quantique est une fonction des coordonnées d’espace et du temps (~x, t) dont la structure mathématique dépend de la nature de la particule associée, en particulier de son spin. Toutes les particules apparaissent alors comme des quanta des champs présents dans la théorie. Une particule peut donc être interprétée comme la matérialisation d’une excitation locale d’un champ quantique, au voisinage de sa valeur dans le vide qui est définie par le minimum de l’énergie potentielle totale. Cela est vrai aussi bien pour les particules médiatrices des interactions associées aux champs bosoniques de jauge que pour les particules de matière associées aux champs fermioniques. Une interaction entre un boson de jauge et un fermion est décrite dans les équations (voir par exemple l’encadré 1.9) par un terme faisant intervenir le produit des deux champs correspondants, multiplié par un nombre réel appelé couplage. Ce couplage, qui traduit l’intensité de l’interaction, dépend de la nature de l’interaction elle-même (faible, forte, ou électromagnétique) et de la charge (d’hypercharge faible, de couleur, ou électrique) de ces particules. Dans le cas des interactions faible et forte, les quanta des champs de force peuvent aussi porter des charges de leur propre interaction et donc interagir avec eux-mêmes ! Pour les quatre quanta de l’interaction électrofaible unifiée (γ, W + , W − , Z), on peut ainsi avoir des couplages W + W − Z ou W + W − γ, par exemple. Au début de ce chapitre, nous avons également introduit la relation d’incertitude de Heisenberg, ∆E · ∆t ≥ h¯ /2, qui relie la précision ∆E avec laquelle on peut connaître l’énergie (ou la masse) d’un système quantique et le temps ∆t disponible pour la mesurer. Une des conséquences de cette relation est qu’un système quantique peut emprunter au vide une quantité d’énergie ∆E aussi grande que nécessaire, mais pour une durée ∆t d’autant plus limitée que ∆E est grand. Prenons l’exemple d’une diffusion par interaction faible d’un neutrino sur un quark d par échange de boson W + , νe + d → e− + u, représentée figure 1.11. Elle peut être visualisée comme la désintégration νe → e− + W + , donc la production d’un boson de masse très élevée à partir d’un neutrino de masse quasi nulle, suivie immédiatement, dans le ∆t permis, par la recomposition W + + d → u. Notons que la charge électrique est préservée durant tout le processus. Les diagrammes tels que celui de la figure 1.11 ont été inventés par le physicien américain Richard Feynman dans les années 1940. Bien plus qu’une simple représentation graphique des interactions entre particules (comme les diagrammes de la figure 1.4), il s’agit de puissants outils de calcul permettant d’évaluer la probabilité d’occurence d’un certain état final à partir d’un état initial donné. Chaque élément (ligne, jonction de lignes appelée vertex, etc.) correspond

L’AVENTURE DU GRAND COLLISIONNEUR LHC

33

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 34 — #50

i

νe

i

e− W+ d

u

F IGURE 1.11. Diagramme de Feynman pour la diffusion d’un neutrino sur un quark d par échange de boson W + . Il s’agit du processus le plus simple contribuant à l’amplitude de diffusion.

à un terme dans le calcul de l’amplitude de la diffusion ou de la désintégration. Le module au carré de l’amplitude, elle-même complexe, donne la probabilité du processus. Lorsque plusieurs diagrammes peuvent, à partir d’une collision donnée, mener à un même état final, la probabilité totale est alors égale au module au carré de la somme des amplitudes attachées à chaque diagramme. Cela permet aux différents processus d’interférer. Le W échangé dans le diagramme de la figure 1.11 est dit virtuel, à la différence des particules dites réelles des états initial et final. Le processus peut tout à fait avoir lieu même lorsque l’énergie des particules incidentes est relativement basse. La masse du W ne peut alors pas être sa masse au repos puisque celle-ci est de l’ordre de 80 GeV. On dit que le W est hors couche de masse, ce qui caractérise une particule virtuelle. Cependant, tout en étant virtuelle, une telle particule n’en fait pas moins réellement sentir sa présence ! Une conséquence de cette non-conservation de l’énergie pendant un intervalle de temps très court est que le vide quantique n’est pas vide du tout, à la différence du vide classique. Il est au contraire animé d’un frissonnement perpétuel, des paires de particules émergeant brièvement du vide et y retournant aussitôt. Ce peut être des paires e+ e− ou uu¯ mais également, pour de très courts instants, des paires tt¯, malgré la masse très élevée du quark top. Le diagramme de la figure 1.11 fait intervenir l’échange d’une seule particule virtuelle. Or, en théorie quantique des champs, les processus virtuels autorisés par la relation d’incertitude peuvent se compliquer à l’infini et tout diagramme respectant les règles de couplage entre les champs contribuera à l’amplitude de diffusion. Un exemple est donné sur la figure 1.12. La contribution d’un diagramme est d’autant plus importante qu’il fait intervenir un faible nombre de couplages (de vertex), de boucles internes et de particules virtuelles loin de leur couche de masse.

34

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 35 — #51

i

i

Le développement dit perturbatif des γ! amplitudes de diffusion en diagrammes e ! e! de Feynman de plus en plus compliqués νe# n’est valable que lorsqu’on se restreint à W! W+! des régimes cinématiques pour lesquels les s# # constantes de couplage restent petites de- u u# vant 1. Il n’est pas applicable par exemple g# pour décrire le comportement des quarks confinés à l’intérieur des hadrons. En ef- F IGURE 1.12. Diagramme de Feynman comporfet, l’intensité des couplages varie avec tant pas moins de huit vertex contribuant, quoil’échelle des énergies mises en jeu (voir sec- qu’extrêmement faiblement, à l’amplitude de diffusion d’un électron sur un quark u. tion 1.10). Or, les processus qui lient les quarks entre eux ont lieu à des énergies très faibles, pour lesquelles la constante de couplage de l’interaction forte s’avère très élevée. Comme exemple de processus que l’on peut décrire perturbativement avec des diagrammes de Feynman, considérons la diffusion d’un électron sur un quark (figure 1.13). Le diagramme de base en haut à gauche correspond à l’échange d’un photon virtuel. Il donne la plus grande contribution à l’amplitude. Lorsqu’on ne prend en compte que ce diagramme, on dit que l’on travaille dans l’approximation de Born. Cependant, d’autres diagrammes plus complexes entrent également en jeu. Quelques-uns seulement sont représentés ici. Ces contributions supplémentaires correspondent à ce qu’on appelle des corrections radiatives. On en distingue deux types. Les corrections radiatives réelles modifient le nombre de particules dans l’état final. Par exemple, des photons supplémentaires peuvent être rayonnés par les particules incidentes ou sortantes. Les corrections radiatives virtuelles ne modifient pas l’état final. Les particules virtuelles échangées ne vont donc essentiellement pas modifier la cinématique, mais leur contribution sera prise en compte dans le calcul de l’amplitude de diffusion. Les calculs de corrections radiatives peuvent atteindre des précisions faramineuses. Un fantastique exemple est celui du moment magnétique dipolaire (le facteur gyromagnétique) de l’électron ou du muon. L’équation de Dirac prédit une valeur exactement égale à 2 mais les corrections radiatives apportent des modifications de l’ordre du millième. Or, on est aujourd’hui capable de calculer ces déviations jusqu’à la dixième décimale pour le muon et jusqu’à la treizième pour l’électron ! Les mesures expérimentales sont au même niveau de précision et permettent donc de tester la théorie. Dans le cas du muon, il a fallu atteindre cette précision pour déceler un léger désaccord, encore inexpliqué. Les corrections radiatives affectent non seulement les calculs des taux de désintégration mais également les calculs des masses des particules, comme par exemple celles des bosons W et Z, ou du quark top. Elles peuvent faire intervenir

L’AVENTURE DU GRAND COLLISIONNEUR LHC

35

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 36 — #52

i

e−

e−

e−

γ

q

q

q

q

Born

e−

e−

γ q

q

Correction de vertex

Corrections radiatives virtuelles q

e−

Corrections radiatives réelles

γ q

q

γ e−

γ

e−

e−

e− e−

i

e−

γ e −, e +,q ,l ,etc.

γ q

Corrections de self-énergie

q

q

Corrections de polarisation du vide

F IGURE 1.13. Diagrammes de Feynman de la diffusion d’un électron sur un quark. Le diagramme en haut à gauche correspond au processus le plus simple contribuant à l’amplitude de diffusion. C’est l’approximation de Born. Les autres sont quelques-uns des diagrammes, parmi les plus simples, contribuant aux corrections radiatives. Cette liste n’est pas exhaustive et n’inclut pas par exemple les corrections attachées aux lignes de quarks. Les corrections radiatives virtuelles peuvent être classés en trois catégories : la correction de vertex correspond à l’émission d’un photon par l’électron entrant, puis sa réabsorption par l’électron après interaction avec le quark (électron diffusé) ; la polarisation du vide correspond à une boucle fermée mettant en jeu une paire de fermion-antifermion issue du vide ; la correction de self-énergie ressemble à la précédente, à la différence que le photon émis par l’électron en voie d’entrée est réabsorbé par celui-ci avant interaction. De même, elle peut correspondre à l’émission et réabsorption d’un photon par l’électron de sortie.

dans les boucles internes des diagrammes de Feynman des particules virtuelles qui n’ont pas encore été découvertes mais qui font néanmoins sentir leur présence. C’est donc une façon de les détecter indirectement et de signaler l’existence d’une nouvelle physique. En particulier, c’est ainsi que l’on a eu une indication sur la masse du quark top et du boson de Higgs avant leur découverte. Nous en reparlerons dans les prochains chapitres. 1.10

Les constantes de couplages varient

En 1924, le Français Louis de Broglie émit l’hypothèse qu’à toute particule d’impulsion 20 p était associée une onde de longueur λ = h/p. Cette relation, dont découle le principe d’incertitude de Heisenberg formulé l’année suivante (voir encadré 1.2), montre que la longueur d’onde diminue avec l’impulsion. 20 L’impulsion

est le terme couramment employé par les physiciens pour désigner la quantité de mouvement p = mυ dans l’approximation non-relativiste, ou p = √ mv2 2 dans le cas relativiste. 1−v /c

36

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 37 — #53

i

i

Une conséquence est que, lors d’une collision, l’échelle des phénomènes que l’on explore, λ, est d’autant plus petite que l’énergie mise en jeu, p, est grande. Revenons maintenant à la création de particules virtuelles dans une interaction et prenons le cas d’une diffusion e− entre deux électrons. Un exemple de diaγ gramme est montré sur la figure 1.14. Chaque électron peut se manifester pendant un temps très court comme étant e− γ composé de paires électron-positon adγ e+ ditionnelles. Les électrons de ces paires γ e− virtuelles sont repoussés et les positons attirés par l’électron initial. Cela proF IGURE 1.14. Diagramme de Feynman de la diffuvoque un effet d’écrantage qui fait que sion de deux électrons faisant intervenir la production l’électron semble avoir une charge élec- virtuelle d’une paire électron-positon. En électrodytrique plus faible. C’est ce qu’on appelle namique quantique (la version quantique de l’élecla polarisation du vide, un phénomène tromagnétisme), l’interaction entre deux électrons procède de l’échange d’un photon γ qui peut se coucomplètement analogue à la polarisa- pler à l’une des particules virtuelles produisant un tion dans un matériau diélectrique. Or, effet d’écrantage de la charge de l’électron. à haute énergie, la distance d’exploration peut devenir inférieure à la taille des nuages de paires e+ e− , ce qui a pour conséquence une augmentation de la charge effective de l’électron, autrement dit de la constante de couplage de l’électromagnétisme. La charge, mais également la masse, de l’électron dépendent donc de l’énergie avec laquelle on les mesure. Ces variations ont été mises en évidence expérimentalement. Par exemple, la constante de structure fine, qui est proportionnelle au carré de la charge de l’électron (α = e2 /4π) et mesure l’intensité de l’interaction électromagnétique, est égale à 1/137 pour les faibles énergies. C’est la valeur utilisée pour décrire la physique atomique, par exemple. À une énergie égale à la masse du boson Z, de l’ordre de 90 GeV, elle a une valeur de 1/128. Cette évolution des constantes de couplage avec l’échelle d’énergie est calculable en théorie des champs pour les trois types d’interactions dès lors que l’on connaît toutes les particules qui interagissent, du moins dans le domaine d’énergie étudié. Le résultat de ce calcul est schématisé sur la figure 1.15. Dans le cas de l’interaction forte, la constante de couplage décroît avec l’énergie d’exploration. Cela vient du fait que les gluons qui portent une charge forte peuvent interagir entre eux, contrairement au photon qui ne peut se coupler qu’à des particules chargées électriquement. Au lieu d’un écrantage à grande distance par des paires électron-positon, plus on s’éloigne d’un quark, plus on ressent de gluons virtuels. La charge de couleur vue par les particules sondes est donc

L’AVENTURE DU GRAND COLLISIONNEUR LHC

37

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 38 — #54

i

Couplages$ effec9fs$

i

α3"

α2" α"

α1" 102$

Échelle$de$masse$

1015$

µ$$(GeV)$

F IGURE 1.15. Évolution schématisée des constantes de couplage du modèle standard avec l’échelle d’énergie représentée ici en échelle logarithmique. α1 et α2 sont les constantes de couplage électrofaibles des groupes U (1) et SU (2) (voir l’encadré 1.6), et α3 est la constante de couplage de l’interaction forte décrite par le groupe de jauge SU (3). La partie droite du schéma illustre l’évolution des couplages dans un scénario de grande unification où l’on aurait une seule constante α au-delà d’environ 1015 GeV. Nous y reviendrons dans le chapitre 4.

renforcée lorsque celles-ci sont de basse énergie (donc à plus grande distance). Au contraire, à grande énergie (à courte distance), la charge effective diminue : on dit que les quarks et les gluons sont asymptotiquement libres. Le développement de la QCD et la découverte de cette propriété de l’interaction forte ont valu en 2004 le prix Nobel aux physiciens américains David Gross, Frank Wilczek et David Politzer. Il se trouve que les deux couplages électrofaibles (unifiés) et le couplage fort semblent converger vers une valeur commune autour d’une énergie de 1015 GeV. Cela suggère une unification des deux théories qui sera discutée dans le chapitre 4.

38

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 39 — #55

i

i

Encadré 1.9. Le Saint Graal des physiciens.

La quasi-totalité des connaissances actuelles sur les particules élémentaires et leurs interactions est contenue dans une expression mathématique extrêmement compacte, le lagrangien du modèle standard. À partir de cette formule, si courte qu’elle peut tenir sur une tasse (voir ci-dessous), tout processus physique peut, en principe, être calculé. Il a fallu une bonne cinquantaine d’années de travail expérimental et théorique pour l’établir.

La formule du lagrangien présentée ici reprend et complète celle donnée dans l’encadré 1.5. La première ligne décrit la dynamique des champs de forces, F µν , associés aux champs de jauge décrivant les interactions électromagnétique, faible et forte. La seconde décrit la dynamique des champs de matière (les quarks et les leptons), ψ. Conséquence de l’invariance de jauge locale, les dérivées par rapport aux variables d’espace-temps doivent être remplacées par des dérivées covariantes, symbolisées par un D barré, qui font intervenir les champs de jauge et les constantes de couplages. Par conséquent, cette seconde ligne contient l’interaction entre les champs de matière ψ et les champs de force (voir également l’encadré 1.3 sur L’électromagnétisme comme théorie de jauge). La troisième ligne spécifie de quelle manière les champs de matière ψ sont couplés au champ de Higgs, ici dénoté φ, couplage à l’origine de leur masse. La dernière ligne décrit la dynamique du champ de Higgs. Le premier terme, dit cinétique et qui décrit la propagation du champ scalaire, fait également intervenir les dérivées covariantes. Comme pour les champs de matière ψ, ceci induit une interaction entre le champ de Higgs et les champs de jauge qui est à l’origine de la masse des bosons W et Z. Le deuxième terme décrit le curieux potentiel de Higgs en forme de chapeau mexicain (figure 1.7), à l’origine du mécanisme de brisure de la symétrie électrofaible. Enfin, les termes h.c. (hermitic conjuguate) sont là pour préciser que les antiparticules doivent également être prises en compte. Pour les physiciens, cette formulation compacte des lois de la physique, tout en ressemblant plutôt à des signes cabalistiques, est par son apparente simplicité d’une

L’AVENTURE DU GRAND COLLISIONNEUR LHC

39

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 40 — #56

i

i

grande beauté esthétique. En pratique, même avec l’aide des ordinateurs les plus puissants existant aujourd’hui, les physiciens ne sont capables de calculer et de résoudre les équations qui découlent de ce lagrangien que dans les cas les plus simples et en faisant des approximations (par exemple via le développement en diagrammes de Feynman). Au niveau fondamental, la théorie décrite par ce lagrangien recèle un certain nombre d’insuffisances qui seront développées dans les chapitres suivants et qui suggèrent qu’elle ne constitue qu’une théorie dite effective, valable seulement en dessous d’une certaine échelle d’énergie qui reste à déterminer.

40

Chapitre 1. Le modèle standard de la physique des particules

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 41 — #57

i

i

2 Le succès expérimental du modèle standard

2.1

Les débuts de la physique des particules expérimentale

Dans les années 1930, la connaissance des constituants élémentaires de la matière se réduisait au proton (p), au neutron (n), à l’électron (e− ) et à son antiparticule, le positon (e+ ). Pour expliquer les processus de radioactivité β, Pauli avait postulé l’existence d’une particule très légère et électriquement neutre, le neutrino (ν). Il fut observé pour la première fois en 1956 au cours de l’expérience menée par Frederick Reines et Clyde Cowan, auprès d’un réacteur nucléaire aux États-Unis. On se rendit compte ensuite que la réalité était bien plus complexe. Grâce à l’étude des collisions entre les rayons cosmiques, venant des profondeurs de l’Univers, et les noyaux atomiques de l’atmosphère terrestre ou des premiers détecteurs, de nombreuses particules furent découvertes. Bien qu’instables, cellesci semblaient tout aussi fondamentales et élémentaires. On découvrit d’abord le muon (µ) grâce à l’expérience réalisée en 1946 à Rome par Marcello Conversi, Ettore Pancini et Oreste Picioni. On pensa initialement que cette découverte était celle de la particule de Yukawa, vecteur de l’interaction forte entre les nucléons à l’intérieur du noyau. Cependant, l’année suivante, Cecil Powell, César Lattes et Giuseppe Occhialini observèrent pour la première fois des mésons π (les pions π + , π − et π 0 ), dans des émulsions photographiques exposées aux rayons cosmiques dans des laboratoires en altitude et dans des

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 42 — #58

i

i

Encadré 2.1. La largeur en masse d’une particule instable.

La mécanique quantique nous enseigne qu’avec une mesure unique, même de précision parfaite, on ne peut connaître l’énergie (et donc la masse) d’une particule instable de durée de vie ∆t qu’avec une précision finie ∆E. Cela résulte de la relation d’incertitude de Heisenberg : ∆E · ∆t ≥ h¯ /2. Lorsqu’un grand nombre de ces particules sont produites et détectées, l’histogramme des masses mesurées a la forme d’une courbe en pic (distribution dite de Breit-Wigner) dont la largeur Γ est inversement proportionnelle au temps de vie τ : Γ = h¯ /τ.

Distribution de Breit-Wigner

La largeur d’une particule se désintégrant par interaction forte est de l’ordre d’une dizaine ou d’une centaine de MeV car le temps typique de désintégration est d’environ 10−23 seconde. En revanche, le temps de vie d’une particule sensible à l’interaction faible est beaucoup plus long : de l’ordre de 10−10 à 10−12 seconde. Il est alors impossible de mesurer sa largeur, trop faible. Si une particule peut se désintégrer dans plusieurs canaux, chacun contribue à raccourcir le temps de vie et donc à augmenter la largeur du spectre en masse mesuré. La largeur totale est la somme des largeurs partielles de chacun des modes i de désintégration : Γtot = ∑ Γi . Pour chaque mode, le rapport d’embranchement BRi est proportionnel à la largeur partielle Γi : BRi = Γi /Γtot . Toutefois, dans chaque mode de désintégration, on mesure la même largeur (égale à la largeur totale) et le même temps de vie.

ballons. On comprit rapidement qu’il s’agissait bien cette fois-ci des particules de Yukawa. Ce fut ensuite la découverte des mésons K + , K − et K0 , les kaons, plus massifs, puis du baryon Λ, appelé hypéron. Avec une masse de 1 125 MeV, le Λ fut la première particule plus massive que le proton (940 MeV) à être découverte 1 . 1

Il le fut d’ailleurs par sa désintégration en proton et pion, Λ → pπ − . 42

Chapitre 2. Le succès expérimental du modèle standard

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 43 — #59

i

i

Ces premières découvertes ont été faites de manière relativement artisanale, par des petites équipes, de quelques personnes seulement. Les choses changèrent dans les années 1950 lorsque les physiciens adoptèrent des techniques électroniques développées pendant la Seconde Guerre mondiale, comme les circuits électroniques de coïncidence et d’anti-coïncidence, les klystrons, ou les guides d’ondes pour radar. Cela entraîna l’apparition de nouveaux accélérateurs et détecteurs, notamment les synchrocyclotrons qui permirent d’accélérer des protons à des énergies de 200 à 600 MeV. Ce fut un progrès considérable comparé aux énergies de l’ordre de 25 MeV des accélérateurs d’alors, les cyclotrons (voir chapitre 6). Cette période marqua également un premier changement d’échelle à la fois des accélérateurs, des détecteurs, de la taille des équipes, et du volume de l’information collectée. Grâce à ces nouveaux accélérateurs, les physiciens entreprirent d’accélérer des faisceaux de protons pour bombarder des cibles et produire ainsi des quantités industrielles de pions chargés. Ceux-ci étaient utilisés à leur tour pour bombarder des protons. C’est avec ce type de dispositif qu’Enrico Fermi découvrit la première résonance baryonique, le ∆++ (1232), en 1951 2 . Ce fut la première d’une longue suite de découvertes, de 1955 à 1975 environ. Ce que ces études ont surtout montré, c’est que le proton et le neutron étaient en fait les membres d’une grande famille de particules, sensibles à l’interaction forte, les hadrons. Cette famille est subdivisée en deux catégories, les mésons (tels que les pions et les kaons) et les baryons (comme les nucléons, l’hypéron ou le ∆++ (1232)). Le proton et le neutron n’y occupent qu’une modeste place mais ont toutefois une propriété remarquable : celle d’être les seuls hadrons stables, dont nous sommes nous-mêmes constitués 3 . Au tout début, on pensait que ces nouvelles particules étaient toutes élémentaires. Par la suite, Zweig et Gell-Mann proposèrent leur modèle des quarks (chapitre 1) et l’on comprit que les baryons étaient composés de trois quarks 4 , qq0 q00 , alors que les mésons étaient constitués d’un quark et d’un antiquark, qq¯0 (voir encadré 2.2). Cependant, les quarks ayant une charge électrique fractionnaire de celle de l’électron (2/3 et −1/3), ils étaient considérés comme des objets purement mathématiques, sans réalité physique. 2

3 4

Le terme de résonance reflète le fait que cette nouvelle particule a une largeur en masse suffisamment grande pour être observée, preuve que la désintégration ∆++ (1232) → pπ + a lieu par interaction forte. Le chiffre entre parenthèses qui suit le symbole d’une résonance hadronique est sa masse, exprimée en MeV. Le neutron peut en fait se désintégrer mais, heureusement pour notre monde, il devient stable lorsqu’il est piégé dans un noyau. Tout au long de cet ouvrage, il est implicite que ce qui est énoncé pour les particules est également vrai pour les antiparticules. Ainsi, il existe également des antibaryons composés de trois antiquarks. Dans quelques cas bien spécifiques, des éventuelles différences entre particules et antiparticules seront explicitement mentionnées.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

43

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 44 — #60

i

i

Encadré 2.2. Quarks et hadrons : où sont les particules élémentaires ?.

Dans le modèle standard, les quarks sont les fermions élémentaires sensibles à l’interaction forte décrite par la chromodynamique quantique (QCD). Ils portent une charge de couleur, qui peut prendre trois valeurs, appelées conventionnellement rouge, bleu et vert, bien qu’elle n’ait rien à voir avec l’optique. De même, les antiquarks peuvent porter les anticharges antirouge, antibleu et antivert. La QCD prédit que seuls les états liés de quarks de couleur neutre (ou blanche, par analogie avec l’optique) peuvent exister à l’état libre. Cette propriété, dite de confinement des quarks, explique le fait que l’on n’ait jamais observé de quarks libres. Les particules que l’on peut observer sont donc composites : ce sont les hadrons. Pour respecter la règle de la neutralité de couleur, ils peuvent être constitués soit de paires quark-antiquark (par exemple, un quark bleu et un antiquark antibleu), soit de triplets de quarks portant les trois couleurs, (qr , q0b , q00v ). Les premiers sont des mésons : ce sont des bosons, particules de spin entier, et peuvent être produits individuellement. Les seconds sont des baryons : il s’agit de fermions, de spin demi-entier, et sont toujours produits par paire baryon-antibaryon. La figure suivante montre, à gauche, les combinaisons de ¯ d,¯ s¯) formant les mésons de spin zéro, classés suivant leur quark-antiquarks (u, d, s, u, nombre quantique d’étrangeté (nombre de quarks s) et leur charge électrique. Au milieu, figurent les combinaisons de trois quarks formant les baryons de spin 1/2. Il existe aussi des mésons de spin 1, 2, voire 3, et des baryons de spin 3/2 dont le ∆++ qui possède une charge électrique égale à +2 (combinaison uuu). La famille des mésons et des baryons s’agrandit lorsque l’on ajoute les quarks c et b.

La couleur fut introduite initialement pour résoudre la contradiction apparente entre l’existence du ∆++ et le principe d’exclusion de Pauli, qui stipule qu’il ne peut y avoir deux fermions identiques dans un même état quantique, au même endroit. Dans le cas du ∆++ , on a bien trois quarks u mais ils portent une charge de couleur différente et ne sont donc pas identiques. La dynamique des quarks et des gluons à l’intérieur des hadrons est complexe. Lors d’une interaction avec un projectile-sonde de haute énergie (par exemple un lepton chargé), le constituant du baryon sur lequel s’effectue la diffusion peut se révéler être un antiquark issu d’une paire virtuelle de quark-antiquark, matérialisée pendant un très bref instant à partir d’un gluon (à droite sur la figure).

44

Chapitre 2. Le succès expérimental du modèle standard

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 45 — #61

i

i

En 1969, Jerome Friedman, Henry Kendall et Richard Taylor présentèrent les résultats d’une expérience de diffusion d’électrons de haute énergie sur des protons, réalisée à SLAC. Ils montraient la présence de centres de diffusion durs et ponctuels à l’intérieur des protons, de façon un peu analogue à l’expérience de Rutherford qui avait révélé le noyau au centre de l’atome. C’est à partir de ce moment-là que l’existence des quarks en tant qu’objets physiques réels a été acceptée par les physiciens. Friedman, Kendall et Taylor ont reçu le prix Nobel en 1990 pour cette découverte. 2.2

Les premiers succès

Durant cette période de découverte des nouvelles résonances, l’actuel modèle standard était encore en gestation. La théorie électrofaible unifiée prit peu à peu corps entre 1964 et 1971, tandis qu’entre 1971 et 1975, se développa la théorie des champs de l’interaction forte entre quarks et gluons, la chromodynamique quantique. Ces progrès théoriques furent accompagnés de découvertes expérimentales majeures : la violation de la parité en 1956 (section 1.8) ; le neutrino électronique en 1956 (section 2.1), puis le neutrino muonique en 1962, au Laboratoire national de Brookhaven (BNL) par Leon Lederman, Melvin Schwartz et Jack Steinberger (prix Nobel 1988) ; la violation de la symétrie CP dans le système des K0 en 1964, toujours à BNL (section 1.8) ; la preuve de l’existence physique des quarks ¯ en 1974 à BNL et Berkeley (Samuel Ting et Burton (section 2.1) ; le J/ψ, état lié cc, Richter, prix Nobel 1976), le lepton τ en 1975 à SLAC (section 1.1), le quark b et ¯ le Υ, en 1977 à Fermilab. l’état lié bb, Ces grandes découvertes eurent toutes lieu aux États-Unis. Au CERN, le synchrotron à protons, le PS (chapitre 6), ainsi que les chambres à bulles et les

F IGURE 2.1. Sheldon Glashow, Abdus Salam et Stephen Weinberg, lauréats du prix Nobel 1979 pour leurs contributions majeures à la construction du modèle électrofaible.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

45

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 46 — #62

i

i

F IGURE 2.2. Cliché de la chambre à bulles Gargamelle correspondant à un courant neutre. Sur cette photo, le faisceau de neutrinos arrive par la gauche. L’interaction ν + noyau → ν + h + h + h + un résidu nucléaire invisible produit trois particules chargées h, interagissant avec les noyaux du liquide de la chambre, identifiées comme des hadrons. Un muon créé au point d’interaction, caractéristique d’une interaction faible à courant chargé, aurait laissé une trace traversant toute la chambre sans interagir.

détecteurs électroniques (chapitre 7) fonctionnaient très bien. Si ces dispositifs permettaient souvent des mesures d’une grande précision, les physiciens européens ne parvenaient la plupart du temps qu’à confirmer les découvertes faites au préalable outre-Atlantique. L’un des premiers beaux résultats européens de l’époque fut la mesure du moment magnétique dipolaire anormal du muon par Emilio Picasso et son équipe. Il fut suivi au début des années 1970 par la première véritable grande découverte du CERN : la mise en évidence des courants neutres dans les interactions des neutrinos avec la chambre à bulles à liquide lourd, Gargamelle (figure 2.2). À la fin de cette décennie, eurent lieu les expériences électroniques de diffusion profondément inélastique de neutrinos CDHS (CERN, Dortmund, Heidelberg, Saclay) et de muons (figure 2.3) : BCDMS (Bologne, CERN, Dubna, Munich, Saclay) et EMC (European Muon Collaboration). Ces expériences permirent d’étudier dans le détail la structure interne des nucléons en fonction du transfert d’impulsion entre le lepton incident et le parton (terme générique pour désigner les constituants des hadrons, en l’occurrence les quarks et gluons) 5 . Vérification fut faite que cette dépendance était bien conforme aux prédictions de la QCD. 5

Le transfert d’impulsion donne la mesure de la résolution avec laquelle on observe le nucléon. Plus il est grand, plus on sonde profondément la structure du nucléon.

46

Chapitre 2. Le succès expérimental du modèle standard

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 47 — #63

i

µ

µ

ν

ν Z

γ

i

µ

W

Z

A B à gauche, neutrino à droite) F IGURE 2.3. Schémas représentant les processus de diffusion d’un lepton (muon de haute énergie sur un proton. Lorsque la longueur d’onde associée au boson transféré est suffisamment petite, la diffusion s’effectue sur un constituant individuel du proton (quark ou gluon). Dans l’exemple du schéma de droite, la diffusion s’effectue sur un antiquark issu du rayonnement d’un gluon virtuel à partir d’un des quarks du proton. L’échange d’un boson W (chargé) correspond à une interaction faible dite à courant chargé tandis qu’un échange de Z (neutre) correspond à une interaction à courant neutre où le neutrino ne se transforme pas en muon.

Parmi les résultats expérimentaux confirmant la QCD, on doit aussi citer l’observation des événements 6 à trois jets (figure 2.4) au collisionneur e+ e− PETRA à Hambourg, en 1979. Ce fut la première mise en évidence directe du gluon, par la ¯ réaction e+ e− → qqg. Pour la partie électrofaible, le test crucial était la découverte des W et Z en tant que particules physiques qui n’intervint qu’en 1982 et 1983 et que l’on relatera dans F IGURE 2.4. Production d’une paire de quarkla section 2.3. Toutefois, l’observation des antiquark et d’un gluon dans une collision courants neutres avec Gargamelle consti- électron-positon, tel qu’il est reconstruit dans un tua déjà un magnifique succès de cette théo- détecteur. L’état final au point de collision est caractérisé par trois jets de particules (voir la rie. L’interférence entre le photon γ et le figure 2.5 pour une introduction à la notion de jet boson Z fut même mise en évidence dans et pour le diagramme qui décrit ce processus). une expérience de physique atomique, par Marie-Anne et Claude Bouchiat, en 1974 ! Or, dans tous ces phénomènes, le Z n’intervenait que comme particule virtuelle et non pas comme particule physique, réelle, dans l’état final. Le prix Nobel de physique a pourtant été attribué à 6

On utilisera souvent la notion d’événement dans ce livre pour décrire le résultat d’une collision en physique des particules expérimentale. Souvent, on parlera par exemple d’événements XY pour qualifier toutes les collisions qui auront donné lieu à la production de particules X et Y.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

47

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 48 — #64

i

i

jet"3"

π

u̅"

d" d$"

"

π+

u"

"

d" d$"

π

u̅"

"

u"

π π0"

d" u"

d$"

u̅"

"

"

u̅" u"

jet"2"

s"

K

e

γ ,Z"

d" d$"

"

π+"

e+"

"

g"

d$"

Interaction « dure »

d"

K 0"

s̅"

jet"1"

« Habillage » des quarks et gluons

F IGURE 2.5. État final à trois jets dans la production d’une paire quark-antiquark et d’un gluon dans une collision électron-positon. En raison du phénomène de confinement, les quarks et les gluons ne peuvent pas exister à l’état libre. Leur production est immédiatement suivie (en moins de 10−25 seconde) d’un processus dit de fragmentation au cours duquel les quarks et les gluons s’habillent pour former les particules sans couleur (au sens de la QCD) observables, grâce aux paires quark-antiquark créées à partir de l’énergie de la collision : ce sont les hadrons, essentiellement des pions et des kaons. Les hadrons gardent en quelque sorte un souvenir de la direction et de l’impulsion du quark ou du gluon dont ils sont issus. Lorsqu’ils proviennent d’un même quark ou gluon, ils forment ainsi un jet de particules (figure 2.4).

Glashow, Salam et Weinberg pour la théorie électrofaible unifiée, en 1979, avant la découverte des W et Z. C’est dire que la confiance en cette théorie était grande, avant même sa preuve décisive. La découverte des bosons vecteurs fut néanmoins la consécration du retour sur la scène mondiale de la recherche européenne. 2.3

¯ La découverte des bosons W et Z au SppS

Grâce aux mesures de l’angle de Weinberg sin θW par les expériences de diffusion de neutrinos, on savait, avant même de les observer, que les bosons W et Z, s’ils existaient, devaient avoir des masses situées entre 80 et 100 GeV environ (section 1.6). Avec les machines de l’époque basées sur le bombardement d’une cible fixe de nucléons par un faisceau de protons, la production de particules aussi

48

Chapitre 2. Le succès expérimental du modèle standard

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 49 — #65

i

i

massives était bien au-delà de ce qui était accessible, en termes d’énergie. C’est l’idée de David Cline, Peter McIntyre et Carlo Rubbia en 1976 de transformer un ¯ supersynchroton (le SPS du CERN) en collisionneur proton-antiproton (le SppS) qui changea totalement la donne. Nous y reviendrons en détail dans le chapitre 6. Les faisceaux de protons et d’antiproproton& tons étaient amenés en collision à des enl+& q" droits précis où étaient placés deux gros détecteurs, les expériences UA1 et UA2 (Unγ*,Z& derground Area 1, 2), prêts à mesurer les déq̄& l! bris des collisions et à y observer la producproton& tion des bosons W et Z (figure 2.6). L’idée était d’exploiter les modes de désintégraF IGURE 2.6. Diagramme illustrant la production tion en leptons : W ± → `± ν et Z → `± l ∓ de W et Z par fusion de quark et antiquark, (` = e ou µ) qui permettent de distinguer la suivi de la désintégration en deux leptons. Par production des W et Z de celle, beaucoup exemple : ud¯ → W + → eνe ou uu¯ → Z → + − plus abondante, de hadrons par interaction e e . forte. La recherche du W était basée sur l’observation d’un déséquilibre de l’énergie mesurée dans le plan transverse à la direction des faisceaux. En effet, le neutrino provenant de la désintégration du W n’interagissant pas avec la matière du détecteur, l’énergie qu’il emporte n’est pas détectée 7 . Les candidats W devaient également contenir une trace, relativement isolée, dont la projection de l’impulsion dans le plan transverse 8 était élevée, signature de la présence d’un électron ou d’un muon. Entre décembre 1982 et janvier 1983, il fut ainsi possible d’isoler cinq événements et de prouver l’existence du boson W (figure 2.9) ! À partir de ces candidats, on estima la masse du W à mW = 85 ± 5 GeV, le chiffre après le signe ± quantifiant l’incertitude de la mesure. Dès mars 1983, le taux de collisions fut nettement accru, ce qui rendit possible l’observation du Z dans les modes 9 Z → e+ e− et µ+ µ− . En avril 1983, UA1 détectait son premier événement Z → e+ e− (figure 2.10), suivi par UA2 quelques jours plus tard.

7

8 9

Le déséquilibre longitudinal, le long de la ligne des faisceaux, n’est pas mesurable car beaucoup de fragments de l’interaction sont perdus dans le tube à vide ou à proximité immédiate (voir encadré 7.5). Dans la suite, nous qualifierons la projection dans le plan transverse à la direction des faisceaux de l’impulsion ou de l’énergie d’une particule simplement de transverse. Le produit du taux de production d’un Z par sa probabilité de désintégration en deux leptons chargés est dix fois plus petit que le produit équivalent pour la production de W se désintégrant en un lepton et un neutrino.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

49

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 50 — #66

i

i

F IGURE 2.7. Reconstruction d’un candidat W se désintégrant en un électron et un neutrino dans le détecteur UA1. Les traces reconstruites dans le détecteur central et représentées en jaune correspondent aux débris des protons et antiprotons incidents (principalement des pions et des kaons). L’électron représenté en blanc et indiqué par une flèche apparaît comme une trace isolée de haute impulsion, ce que l’on voit par le fait qu’elle est presque droite dans le champ magnétique.

Parallèlement, on continua à sélectionner des candidats W. Rapidement, l’échantillon fut suffisant pour étudier la distribution angulaire des électrons et des positons, produits de la désintégration W → eν, et observer une violation maximale de la parité : c’était la preuve qu’il s’agissait bien de la particule médiatrice de l’interaction faible à courant chargé. En octobre 1984, le prix Nobel de physique fut attribué à Carlo Rubbia et Simon van der Meer pour leurs contributions à la découverte des bosons de jauge W et Z.

50

F IGURE 2.8. Conférence de presse en 1983 annonçant la découverte du W . De gauche à droite : Carlo Rubbia (porte-parole d’UA1), Simon van der Meer, Herwig Schopper (directeur général du CERN), Erwan Gabathuler (directeur de recherche du CERN) et Pierre Darriulat (porte-parole d’UA2).

Chapitre 2. Le succès expérimental du modèle standard

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 51 — #67

i

i

F IGURE 2.9. À gauche, distribution de l’impulsion transverse de l’électron, en fonction de l’énergie transverse manquante, pour les cinq premiers candidats W → eν dans UA1. À droite, histogrammes des masses invariantes électron-positon (voir encadré 2.3) pour les quatre premiers candidats Z, détectés par UA1. Les trois histogrammes illustrent différents stades de sélection des événements. Dans la distribution du bas, le pic correspondant au boson Z apparaît très clairement.

A

B

F IGURE 2.10. Représentation graphique des tout premiers événements W → eν (à gauche) et Z → e+ e− (à droite) dans UA1. Les couleurs des traces correspondent à la valeur de leur impulsion (rouge pour les faibles impulsions, bleu pour les hautes). Les rectangles sont proportionnels aux dépôts d’énergie dans les calorimètres. La trace jaune épaisse sur la figure à gauche donne la direction de l’énergie transverse manquante, c’est-à-dire du neutrino.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

51

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 52 — #68

i

i

¯ Dans les années qui suivirent, des milliers de W et Z furent produits au SppS, jusqu’à sa fermeture en 1990. Le Fermilab, près de Chicago, avait alors lancé son collisionneur proton-antiproton, le Tevatron, dont l’énergie dans le centre de ¯ obsolète (voir chapitre 6). masse était de 1,8 TeV, rendant le SppS La découverte des bosons vecteurs a été un des plus beaux moments de la physique des particules, parti d’un incroyable pari scientifique et technique. Ce fut une période d’activité extrême, de tensions et de passions, un souvenir inoubliable pour tous ceux qui ont eu le bonheur et le privilège de participer à cette aventure.

Encadré 2.3. La masse invariante d’un ensemble de particules.

Dans la théorie de la relativité restreinte, une particule d’énergie E et d’impulsion ~p est décrite par un quadrivecteur P = ( E, ~p). La norme relativiste de ce quadrivecteur est égale au carré de la masse m de la particule : |P|2 = E2 − |~p|2 = m2 . La masse invariante (ou effective), minv , d’un système de N particules de masses mi (i = 1, N) et d’impulsions ~pi , est définie comme la racine carrée de la norme de la somme des N quadrivecteurs Pi : v u u N 2 q 2 2 t minv = ∑ Pi = Ei − ∑ ~pi ∑ i =1 Prenons le cas de la désintégration d’une particule instable en deux particules stables de masses connues et dont toutes les impulsions sont mesurées. Par conservation de l’énergie et de l’impulsion, la somme des quadrivecteurs des particules de l’état final est égale au quadrivecteur de la particule initiale :

E1 , p1

E, P E2 , p2

P = P1 + P2 = ( E1 + E2 , ~p1 + ~p2 ) La masse invariante des particules finales est donc égale à la masse m de la particule initiale. Cette méthode est à la base de la découverte de nouvelles particules instables de très courte durée de vie, en recherchant, à partir de l’observation d’un grand nombre d’événements, un pic dans la distribution de masse invariante d’une certaine combinaison de particules.

52

Chapitre 2. Le succès expérimental du modèle standard

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 53 — #69

i

2.4

i

Le LEP et la consolidation du modèle standard

À la fin des années 1970, même si ni le W ni le Z n’avaient encore été observés, la confiance dans l’exactitude du modèle standard était telle que le CERN a commencé à planifier la construction d’un collisionneur e+ e− d’environ 100 GeV d’énergie dans le centre de masse de la collision, pour étudier l’unification électrofaible. Pour ce faire, un tunnel de vingt-sept kilomètres de circonférence, à environ cent mètres sous terre, fut construit : c’est le même tunnel qui servira vingt ans plus tard à l’installation du LHC. Avec la découverte des bosons vecteurs par UA1 et UA2 aux masses prédites par la théorie, la construction du LEP fut accélérée et menée à bien fin 1989. Quatre points de collision étaient prévus sur l’anneau, où ont été installés quatre grands détecteurs : ALEPH, DELPHI, L3 et OPAL. Chacune de ces expériences regroupait environ quatre cents physiciens, environ quatre fois plus que pour UA1 et UA2. L’idée principale était d’étudier le Z, ses modes de désintégration et leur polarisation, pour tester dans le détail les prédictions des valeurs de ses couplages aux leptons et aux quarks. Il était aussi prévu de rechercher parmi les collisions électron-positon la production éventuelle du boson de Higgs (voir chapitre 11). Le LEP était conçu pour être une usine à Z et c’est effectivement ce qu’il a été pendant sa première phase de prise de données, LEP-1, de 1989 et 1994. L’énergie des faisceaux était de 45,6 GeV, ce qui mettait l’énergie dans le centre de masse de la collision exactement à la masse du Z. Alors que, durant les six années du Encadré 2.4. La section efficace de production d’un état final.

En physique des particules et en physique nucléaire, la section efficace d’un phénomène est une grandeur qui exprime sa probabilité d’occurence. Par exemple, on utilisera le terme de section efficace de production d’une paire de bosons W dans une collision électron-positon pour parler de la probabilité qu’un état final avec deux W soit produit dans une telle collision. L’unité de section efficace est une unité de surface, le barn (1 barn = 10−24 cm2 ), qui correspond à la surface d’un carré de dix fermis (1 fm = 10−13 cm) de côté, soit la taille approximative d’un noyau. Par analogie avec les collisions en mécanique classique, on peut dire que la section efficace est la surface fictive que devrait avoir une particule cible pour reproduire la probabilité de réaction observée, en supposant que la particule incidente est ponctuelle et que la collision se produit entre objets matériels impénétrables. Pour les phénomènes rares que l’on sera amené à discuter par la suite, on utilise fréquemment ses sous-multiples, comme par exemple le picobarn (1 pb = 10−12 barn = 10−36 cm2 ).

L’AVENTURE DU GRAND COLLISIONNEUR LHC

53

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 54 — #70

σhad [nb]

i

LEP

i

2ν 3ν

30



20

e

+

e







+

f

e

f

e

q

10

Z

γ −

q

Figure 1.1: The lowest-order s-channel Feynman diagrams for e+ e− − ff. For e + e− final states, the photon and the Z boson can also be exchanged via thet-channel. The contribution of Higgs boson exchange diagrams is negligible.

0

86

88

90

92

94

Ecm [GeV]

Cross-section (pb)

1.13: Measurements of the hadron production cross-section Z resonance. F IGURE 2.11. À gauche, désintégration d’un boson Z Figure en deux quarks, chacun s’hadronisant en around un jetthede 10 5 The curves indicate the predicted cross-section for two, three and four neutrino species with particules, enregistrée par le détecteur ALEPH. À droite, variation de la mass. section efficace de production de Z SM couplings and negligible hadrons en fonction centre de masse de la paire e+ e− , autour de la masse du Z. Les 10 4 de l’énergie dans +le e e−→hadrons Since the right- and left-handed couplings of the Z to fermions are unequal, Z bosons can courbes donnent les prédictions théoriques en fonction be duexpected nombre de aneutrinos inférieure to exhibit net polarisationlégers along the (de beam masse axiseven when the colliding electrons and positrons which produce them are unpolarised. Similarly, when such a polarised Z decays, à m Z /2). 10 3 parity non-conservation implies not only that the resultin g fermions will have net helicity, but 10 2

CESR DORIS

+

WW

-

that their angular distribution will also be forward-backw ard asymmetric. When measuring the properties of the Z boson, the energy-dependent interference between the Z and the purely vector coupling of the photon must also betaken into account. This interference leads to an additional asymmetry component which changes sign across the Zpole. Considering the Z exchange diagrams and real couplings only,2 to simplify the discussion,

¯ les détecteurs UA1 et UA2 avaient observé environ un fonctionnement du SppS, SLC millier de Z, le LEP en aLEP produit près de 80 millions. I LEP II Le premier résultat important du LEP a été la détermination du nombre Nν de types de neutrinos légers. Dans le modèle standard, le Z peut se désintégrer en une paire de neutrinos, Z → νi ν¯i , de quelque type i que ce 36soit, dès lors que la masse de νi est inférieure à m Z /2. On connaissait déjà à cette époque les trois espèces de neutrinos, correspondant aux trois générations de leptons : νe , νµ , et ντ . La question était de savoir s’il existait, par exemple, une quatrième génération. Rapidement après le démarrage, on a mesuré la ligne spectrale du Z Z (voir encadré 2.1). (figure 2.11), dont on a pu déduire la largeur totale, Γtot Dans le cas du Z, c’est la somme des largeurs partielles correspondant aux désintégrations en paires de fermion-antifermion : les leptons chargés, les neutrinos et tous les quarks, sauf le top dont la masse est trop élevée. Toutes ces largeurs partielles sont prédites par le modèle standard. On peut les mesurer expérimentalement en observant directement les désintégrations, sauf pour les paires de neutrinos puisque ceux-ci s’échappent du détecteur. Il suffit cependant de soustraire à la largeur totale la somme des largeurs partielles mesurables pour obtenir la contribution des Nν familles de neutrinos. Les expériences LEP en déduisirent ainsi Nν = 2,92 ± 0,05, ce qui est compatible avec trois, et seulement trois, espèces de neutrinos légers. Le nombre de types de neutrinos légers joue un rôle majeur en cosmologie. Par exemple, il influence le nombre de noyaux d’hélium 4 He, rapporté à la quantité d’hydrogène 1 H, formés lors de la nucléosynthèse primordiale dans les trois PEP

PETRA

KEKB PEP-II

TRISTAN

10

0

20

40

60

80

100

120

2 As in the previous section, the effects of radiative correcti ons, and mass effects, including the imaginary 140 160 180 200 220 parts of couplings, are taken into account in the analysis. T hey, as well as the small differences between helicity Centre-of-mass energy (GeV)and chirality, are neglected here to allow a clearer view of t he helicity structure. It is likewise assumed that the magnitude of the beam polarisation is equal in the two helici ty states.

Figure 1.2: The hadronic cross-section as a function of cent re-of-mass energy. The solid line is the prediction of the SM, and the points are the experimental measurements. Also indicated are the energy ranges of various e+ e− accelerators. The cross-sections have been corrected for the effects of photon radiation.

15

54

Chapitre 2. Le succès expérimental du modèle standard

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 55 — #71

i

i

F IGURE 2.12. Événement WW dans l’expérience OPAL auprès du LEP. L’un des W se désintègre en deux quarks (jets de hadrons en bleu et vert) et l’autre en un électron (en rouge) et un antineutrino non détecté directement mais dont on peut cependant mesurer l’impulsion (flèche en pointillé) en utilisant la contrainte de la conservation de l’impulsion totale dans l’événement (voir encadré 7.5).

premières minutes qui ont suivi le big bang (section 5.3). Bien avant le LEP, ce rapport avait d’ailleurs été évalué par des méthodes astrophysiques à 24 %, une valeur compatible avec l’existence de trois espèces de neutrinos. Lors de la phase 2 du LEP, LEP-2, de 1995 à 2000, l’énergie des collisions e+ e− a été graduellement augmentée jusqu’à environ 200 GeV dans le centre de masse. L’idée était de dépasser le seuil de production des paires de W, e+ e− → W + W − , pour pouvoir étudier précisément les propriétés de ce boson, et en particulier mesurer sa masse. Parmi les toutes premières priorités de LEP-2, il y avait bien sûr la poursuite de la recherche directe du boson de Higgs entamée à LEP-1. Nous détaillerons cet aspect dans le chapitre 11. Plus de 50 000 paires de bosons W ont été produites et étudiées dans les quatre expériences. Un des plus beaux résultats fournis par LEP-2 est la mesure de la section efficace de production de paires de bosons W + W − en fonction de l’énergie dans le centre de masse. Le calcul théorique fait intervenir trois diagrammes de Feynman correspondant à trois processus physiques conduisant au même état final (figure 2.13). Si on ignorait le diagramme avec un boson Z intermédiaire, la section efficace augmenterait indéfiniment avec l’énergie et pourrait dépasser la valeur limite au-delà de laquelle le résultat n’est plus physiquement possible (limite dite d’unitarité). Dans le modèle standard, les trois amplitudes correspondant aux trois diagrammes se compensent pour limiter la

L’AVENTURE DU GRAND COLLISIONNEUR LHC

55

i

i i

i

i

i

e

!

W

"

!

νe!

30

LEP

W +" "

10 !

e+!

i

20

e+! e

σWW (pb)

“master” — 2014/2/12 — 18:17 — page 56 — #72

i

Z/γ*!

W

"

W +" "

Data

!

Standard Model no ZWW vertex only νe exchange

0

160

180

200

Centre-of-mass energy (GeV) F IGURE 2.13. À gauche, diagrammes d’une collision électron-positon conduisant à la création d’une paire

W + W − par trois processus physiques : échange d’un neutrino, annihilation via un photon, annihilation via un Z. Chacun des W se désintègre ensuite (en moins de 10−24 seconde) en une paire de fermions : soit une paire quark-antiquark apparaissant sous la forme de deux jets de hadrons (voir figure 2.5), soit un lepton chargé et un neutrino (voir figure 2.12). La figure de droite montre la section efficace de production de paires de W mesurée au LEP en fonction de l’énergie dans le centre de masse de la collision. Les points noirs et rouges correspondent aux mesures expérimentales, en très bon accord avec la bande verte illustrant la prédiction du modèle standard (l’épaisseur de la courbe représente l’incertitude sur la prédiction). Les courbes en pointillés correspondent aux prédictions théoriques obtenues si l’on ignore l’annihilation via un Z ou si l’on ne prend en compte que l’échange d’un neutrino.

montée de la section efficace de production, ce qui a été vérifié expérimentalement par le LEP (figure 2.13). Pour comparer les résultats expérimentaux du LEP aux prédictions du modèle standard, il a fallu tenir compte dans les calculs théoriques des corrections radiatives dont nous avons parlé dans la section 1.9 et qui modifient les observables physiques 10 . Ainsi, le quark top qui est trop massif pour être produit directement et observé au LEP est néanmoins perceptible en tant que particule virtuelle dans ces corrections quantiques (figure 2.14). Il en est de même pour le boson de Higgs, quoique la sensibilité des corrections à la contribution du Higgs virtuel soit bien moindre que pour le top. La prédiction de la masse du W 10 Pour

se rendre compte de l’importance des corrections radiatives, on peut comparer la prédiction de l’angle de Weinberg (section 1.6) par la théorie électrofaible au niveau de Born, c’est-à-dire en négligeant toutes corrections virtuelles, sin2 θW = 1 − (mW /m Z )2 , avec sa mesure expérimentale. En utilisant les mesures des masses des bosons W et Z les plus précises, mW = 80,385 ± 0,015 GeV et m Z = 91,1876 ± 0,0021 GeV, on trouve sin2 θW = 0,22290 ± 0,00029. Cette prédiction diffère par 26 deviations standard de la valeur expérimentale : sin2 θW = 0,23153 ± 0,00016. L’effet des corrections radiatives est donc de l’ordre de 4 %. Cet exercice souligne également l’importance d’atteindre une grande précision de mesure afin de pouvoir exploiter l’information contenue dans les corrections radiatives (voir encadré 2.5).

56

Chapitre 2. Le succès expérimental du modèle standard

i

i i

i

i

i

W +"

t"

"

W +" "

!

b" Z 0"

t"

"

mt [GeV]

“master” — 2014/2/12 — 18:17 — page 57 — #73

i

Status : 1995 (sans utilisation de mesure directe de m t )

180

Z 0" "

!

t" W,"Z"

200

i

H"

W,"Z"

160

CL = 68%

140 120 10

10

2

mH

10 [GeV]

3

F IGURE 2.14. À gauche, diagrammes de Feynman à une boucle correspondant à des corrections quantiques aux masses des bosons W et Z. Des mesures précises de ces masses permettent de contraindre celles du quark top, mt , et du boson de Higgs, m H , grâce à la présence de ces particules virtuelles dans les boucles. La figure de droite montre le domaine dans le plan (m H , mt ) privilégié par les contraintes provenant des mesures de précision faites au LEP. Ce résultat était disponible avant la découverte du quark top au Tevatron de Fermilab en 1995.

dépend de manière sensible de ces corrections et donc des masses du top et du Higgs (voir encadré 2.5). Inversement, une mesure précise de la masse du W peut apporter des informations sur celles du top et du Higgs. De nombreuses mesures similaires, de quantités sensibles aux corrections radiatives, ont été faites par les expériences du LEP, avec une grande précision. Grâce à un ajustement des calculs théoriques à l’ensemble de ces mesures, on a donc pu déterminer des contraintes très intéressantes sur la masse du top et celle du Higgs, avant leur découverte. Le LEP aura dominé la scène de la physique des particules expérimentale jusqu’à son arrêt en 2000. Les principaux accélérateurs dans le monde sont alors les usines à B (section 2.5) et le Tevatron. Si ce dernier est resté célèbre pour la découverte du quark top dont nous reparlerons abondamment dans la section 12.1, il a par ailleurs contribué de façon remarquable à la confirmation du modèle standard. Un magnifique résultat est en particulier la mesure la plus précise de la masse du W dont on vient de souligner l’importance. Mesures des largeurs partielles de désintégration du Z en leptons et quarks, mesures des distributions angulaires et de polarisation, mesures des couplages des bosons de jauge, mesure de la masse du W : les résultats du LEP et du Tevatron 11 représentent l’ensemble le plus complet et le plus précis de tests 11 On

pourrait citer encore d’autres expériences comme celle installée sur le SLC (Stanford Linear Collider), un collisionneur e+ e− linéaire (et non circulaire comme le LEP) qui produisit 500 000 Z entre 1992 et 1998.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

57

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 58 — #74

i

i

des paramètres du modèle standard. Aucune théorie physique n’avait jamais auparavant été soumise à des tests d’une telle précision. Aucune déviation, statistiquement significative, entre les données expérimentales et les prédictions théoriques, n’a été observée. Avant le démarrage du LHC, le seul élément manquant du modèle standard était donc le boson de Higgs. Il constituait naturellement le principal enjeu de ce projet. Encadré 2.5. Les corrections radiatives à la masse du W.

Dans le modèle standard, lorsqu’on ne prend pas en compte les effets quantiques provenant des diagrammes avec des boucles, la masse du W est donnée par : r πα 1 (0) mW = √ · 2GF sin θW où α est la constante de structure fine, GF la constante de Fermi de l’interaction faible (GF = 1,166 · 10−5 GeV−2 ) et θW l’angle de Weinberg (voir section 1.6), mesuré très précisément au LEP. Lorsqu’on inclut les corrections radiatives quantiques correspondant aux diagrammes d’ordre supérieur de la figure 2.14, cette expression est modifiée de la façon suivante (pour m H  mW ) : (0)

2 mW = (mW )2 · (1 + ∆rtop + ∆rHiggs + . . . )

où ∆rtop représente la correction provenant du quark top virtuel, de masse mt , et ∆rHiggs celle due au boson de Higgs virtuel, de masse m H : 3GF m2 1 ∆rtop ' √ t · 2θ 2 tan 8 2π W ∆rHiggs

3GF m2 ' √ W · ln 8 2π 2

m2H 2 mW

!

À l’époque de la première phase du LEP, on ne connaissait ni la valeur de mt , ni celle de m H . En revanche, la masse du Z, m Z , a justement été mesurée avec précision au LEP. Une bonne connaissance des masses du W et du quark top peut donc contraindre la masse du boson de Higgs. La contrainte est toutefois relativement faible en raison de la dépendance logarithmique. En effet, une variation de mt de 10 GeV modifie la valeur prédite de mW de 61 MeV, tandis que la même variation de m H ne change mW que d’environ 5 MeV.

2.5

La violation de CP

Nous avons vu dans la section 1.8 que la violation de CP par l’interaction faible, c’est-à-dire la brisure de symétrie entre processus impliquant particules et antiparticules, est introduite dans le modèle standard par la phase de la matrice de Cabibbo-Kobayashi-Maskawa (CKM).

58

Chapitre 2. Le succès expérimental du modèle standard

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 59 — #75

i

lud

excluded area has CL > 0.95

exc

1,5

i

ed at C L>

md & ms

0 .9

1,0

5

sin 2 0,5

md

η

K

0,0

Vub

-0,5

-1,0

K

CKM

sol. w/ cos 2 < 0 (excl. at CL > 0.95)

fitter

Summer 12

-1,5 -1,0

-0,5

0,0

0,5

1,0

1,5

2,0

ρ F IGURE 2.15. Triangle d’unitarité de la matrice CKM représenté dans le repère (ρ, η ) où ρ est la partie réelle et η la partie imaginaire (non nulle si la symétrie CP est brisée) de la phase CKM. Les contraintes expérimentales provenant des mesures sensibles à cette phase sont représentées en couleur. Celles apportant des contraintes sur la valeur des angles du triangle déterminent toutes des différences entre processus impliquant des particules et des antiparticules. Ces différences peuvent être petites (comme dans le système des mésons K , D ou Bs ) ou grandes, mais rares (dans le système des mésons Bd et B± ). Les mesures déterminant la longueur des côtés du triangle (excepté le segment [0, 1] qui est fixé) sont essentiellement celles de taux de désintégrations de mésons B impliquant des transitions entre familles de quarks ou concernent le mélange entre mésons B. La région entourée en orange correspond au résultat d’un ajustement global de l’ensemble de ces mesures. Il est en bon accord avec chacune des mesures individuelles confirmant ainsi qu’un seul paramètre de la matrice CKM permet de décrire tous les phénomènes de violation de CP observés dans le mélange entre saveurs de quarks.

La violation de CP peut être représentée graphiquement par ce que l’on appelle le triangle d’unitarité (figure 2.15) 12 . Un triangle plat correspond à une phase CKM nulle et signifie que l’interaction faible respecte la symétrie CP. Le but des expériences est donc de vérifier la forme du triangle. Mieux encore, il s’agit de tester si des mesures de processus parfois très différents les uns des autres indiquent une seule et unique position du sommet. 12 Cette

appellation fait référence à la propriété d’unitarité des processus de diffusion dans le modèle standard (section 1.3). Une conséquence directe est une relation entre les amplitudes de diffusion représentées par les côtés du triangle et qui fait que celui-ci est effectivement fermé.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

59

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 60 — #76

i

i

De nombreuses mesures ont été faites concernant les mésons K et surtout les mésons B. Deux accélérateurs électron-positon, l’un situé à SLAC, aux États-Unis, et le second à KEK, au Japon, ont été construits spécifiquement dans ce but. L’énergie des collisions dans le centre de masse était de 10,6 GeV, juste au-dessus du seuil de production de paires de mésons beaux les plus légers : Bd0 B0d (états liés ¯ et bd) ¯ et B+ B− (bu ¯ et bu). ¯ Entre 1999 et 2009, plus d’un milliard de de quarks bd paires ont été enregistrées et analysées, ce qui a valu à ces collisionneurs le nom d’usines à B. Les expériences du Tevatron ont également contribué à ce domaine, notamment en ajoutant à la longue liste de mesures celles concernant les mésons ¯ et bs¯), trop lourds pour être produits aux usines à B. Bs0 et B0s (états liés bs La figure 2.15 montre l’état à l’été 2012 des mesures de la phase CKM. On constate que toutes sont compatibles avec une seule position du sommet du triangle d’unitarité 13 , établissant clairement la violation de la symétrie CP. Ce succès impressionnant du mécanisme de Cabibbo-Kobayashi-Maskawa démontre que la phase CKM du modèle standard constitue la source principale (sinon la seule) de violation de CP dans le système des quarks à l’échelle électrofaible.

13 La

position précise du sommet est donnée par ρ = 0,140 ± 0,027 et η = 0,343 ± 0,015, tels qu’ils sont définis dans la légende de la figure 2.15. La phase CKM, donnée par l’angle γ, vaut γ = arctan(η/ρ) = 68 ± 4◦ . 60

Chapitre 2. Le succès expérimental du modèle standard

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 61 — #77

i

i

3 Ce que le modèle standard n’explique pas Les recherches expérimentales des trente dernières années ont apporté la preuve de l’existence de tous les ingrédients du modèle standard, y compris le boson de Higgs, qui manquait à l’appel encore récemment. Cependant, malgré toute sa splendeur et l’exactitude de ses prédictions, ce modèle ne peut être la grande théorie ultime de la physique fondamentale. Il rencontre en effet de nombreux problèmes, dont certains auxquels le LHC pourrait apporter des réponses. On peut les classer en trois catégories. – Le modèle standard a dix-huit paramètres libres, c’est-à-dire autant de variables qui ne sont pas expliquées par la théorie et dont les valeurs doivent venir des mesures expérimentales. Parmi les plus mystérieux de ces paramètres, citons les masses des fermions élémentaires, et en particulier la grande différence observée entre les membres de différentes familles, conséquence de couplages au boson de Higgs très disparates. Ainsi, le quark le plus lourd, le quark top, est environ 65 000 fois plus massif que le quark le plus léger, le quark up. De même, le lepton chargé le plus lourd, le τ, l’est 3 500 fois plus que l’électron, le lepton chargé le plus léger. Quant aux leptons neutres, les neutrinos, leur masse est au moins 500 000 fois plus faible que celle de l’électron. – Le modèle standard ne permet pas de décrire un certain nombre d’observations dans le domaine de l’astrophysique et de la physique des particules, dont nous allons parler dans ce chapitre.

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 62 — #78

i

i

Encadré 3.1. Les baryons, le boson de Higgs et la masse de l’Univers visible.

Avant d’introduire les concepts de matière et d’énergie noires dans les sections 3.1 et 3.2, il peut être utile de discuter de l’origine de la masse de l’Univers visible, essentiellement constitué de baryons (protons et neutrons), et de sa relation au boson de Higgs. La figure suivante montre une représentation schématique de la structure d’un proton où l’on a représenté la multitude de paires virtuelles quark-antiquark, confinées dans une sphère de diamètre d’environ un fermi, qui se créent à partir de l’énergie contenue dans le champ de gluons. C’est à peine si l’on arrive à identifier les trois quarks de valence qui définissent la nature du proton (voir aussi l’encadré 2.2).

Si le boson de Higgs est bien à l’origine de la masse des quarks (quelques MeV seulement pour les quarks u et d), l’essentiel de la masse du proton provient, elle, de l’énergie cinétique des quarks et des antiquarks, et de l’énergie d’interaction des gluons, à travers la relation m = E/c2 . Avec des quarks de masse quasi nulle, le proton aurait une masse presque identique. Or, si le boson de Higgs n’engendre pas directement l’essentiel de la masse de l’Univers visible, sa contribution est toutefois fondamentale : avec des électrons sans masse, il n’y aurait pas d’atomes car la distance moyenne entre l’électron et le proton dans un atome d’hydrogène (le rayon de Bohr) serait infinie ; avec des bosons de jauge W et Z de masse nulle, l’interaction faible aurait une portée infinie.

– Le modèle standard décrit bien la phase dans laquelle se trouvait l’Univers 10−13 seconde après le big bang et qui correspond à des énergies de l’ordre du TeV. En revanche, il est difficile d’extrapoler le modèle vers des énergies plus grandes, c’est-à-dire de se rapprocher encore plus des premiers instants de l’Univers. Le premier problème, bien que fondamental, semble être plutôt d’ordre esthétique et non soluble pour l’instant 1 . Souvent la science doit se limiter à 1

Certaines extensions du modèle standard, telles que des dimensions spatiales supplémentaires (voir section 4.3), proposent des solutions dites naturelles pour expliquer la hiérarchie observée entre les masses des fermions. Cela reste néanmoins encore hautement spéculatif.

62

Chapitre 3. Ce que le modèle standard n’explique pas

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 63 — #79

i

i

F IGURE 3.1. Fluctuations de température dans le rayonnement micro-onde fossile créé 380 000 ans après le big bang et mesurées par le satellite Planck (données dévoilées en mars 2013). L’amplitude des fluctuations est de l’ordre de 0,2 millikelvin (soit moins de 10−4 en valeur relative par rapport à une température moyenne de 2,7 kelvins). Ces fluctuations sont autant de germes de galaxies et d’amas de galaxies, qui se formeront des milliards d’années plus tard. L’analyse statistique de leur répartition dans le ciel, profondément liée aux propriétés de l’expansion de l’Univers, permet de déterminer un grand nombre de paramètres cosmologiques, dont la quantité de matière et d’énergie noire (section 5.4).

être descriptive plutôt qu’explicative, ou à n’être explicative qu’à partir des mesures de certains paramètres ou des hypothèses de principe. En revanche, les deux problèmes suivants démontrent que le caractère effectif, voire incomplet, du modèle standard est indéniable.

3.1

De la matière invisible : la matière noire

Plusieurs observations astrophysiques depuis les années 1970 montrent sans équivoque que la matière présente dans les grandes structures de l’Univers excède de façon significative celle visible par nos instruments de mesure. La plus ancienne d’entre elles est celle de l’astronome néerlandais Jan Oort et remonte aux années 1930. Il a observé les mouvements d’étoiles dans l’environnement proche des galaxies en mesurant les décalages Doppler. Pour expliquer la dynamique de ces mouvements, il a trouvé que la matière effectivement présente devait excéder celle visible par un facteur trois environ. Dès 1933, en observant des mouvements d’amas de galaxies, Fritz Zwicky, astrophysicien américano-suisse, a montré qu’il fallait presque dix fois plus de matière que la matière visible pour retenir les galaxies dans les amas par la force gravitationnelle.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

63

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 64 — #80

i

i

Une autre observation suggérant l’existence de matière invisible, de matière noire, est liée aux courbes de rotations des étoiles dans les galaxies. Rappelonsnous la loi de Kepler qui énonce que la vitesse de révolution des planètes éloignées du Soleil est plus lente que celle des planètes proches. Par exemple, la Terre tourne autour du Soleil avec une vitesse de 100 000 kilomètres par heure, tandis que Saturne, qui est environ dix fois plus éloignée, a une vitesse linéaire de révolution trois fois moindre. La même loi s’applique aux galaxies qui, en raison des forces gravitationnelles, ont une structure en spirale, avec une plus grande densité de matière au centre. On s’attend donc à ce que la vitesse V de révolution des étoiles en périphérie diminue √ par rapport à celle des étoiles proches du centre, suivant une loi V ∝ 1/ R où R est la distance de l’étoile au centre de la galaxie. Louise Volders (Pays-Bas) et Vera Rubin (États-Unis) ont pourtant observé dans les années 1960 et 1970 que la vitesse de rotation était plutôt constante en fonction de R (figure 3.2). Une distribution de masse en forme de halo non visible, enveloppant les galaxies, pourrait expliquer un tel comportement. On a d’abord pensé que ce halo pouvait être formé de neutrinos cosmologiques (voir section 5.5) à une température d’environ deux kelvins (soit une énergie cinétique d’environ 10−4 eV) et de masse de l’ordre de la dizaine d’électronvolts. Quasiment au repos, ils auraient pu être capDistance au centre en milliers d’années-lumière turés par l’attraction gravitationnelle des galaxies. Une telle hypothèse est apparue en contra- F IGURE 3.2. Vitesse de rotation des corps célestes en foncdiction avec les modèles couram- tion de la distance au centre de la galaxie du Triangle M33. ment admis pour expliquer la formation des grandes structures observées dans l’Univers : afin de favoriser la création de galaxies de taille moyenne et petite, ces modèles requièrent en particulier que la matière noire soit froide, c’est-à-dire constituée de particules ayant une faible vitesse par rapport à celle de la lumière. Or, au moment de la formation des galaxies, ces neutrinos étaient relativistes et ne pouvaient donc guère y avoir contribué. Par conséquent, il a fallu se rabattre sur une origine de la matière noire au-delà du modèle standard. La détermination la plus précise de la quantité de matière noire dans l’Univers provient de l’analyse statistique de la distribution de très petites fluctuations de

64

Chapitre 3. Ce que le modèle standard n’explique pas

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 65 — #81

i

i

température dans le rayonnement micro-onde fossile (section 5.2). Ces fluctuations ont été mesurées assez précisément par l’expérience WMAP depuis 2000. En 2013, le satellite Planck a apporté encore plus de précision (figure 3.1). Les résultats (figure 3.3) montrent que seulement environ Ma#ère'noire'' 26,8%' 5 % de la matière et de l’énergie dans l’Univers sont constitués de baryons, tels que les protons et les Énergie'noire'' Ma#ère'ordinaire'' 68,3%' neutrons des noyaux atomiques. (baryonique)'4,9%' WMAP peut ainsi être appelé le premier baryomètre de l’histoire. Il a été montré également que la fraction de matière noire est de près F IGURE 3.3. Après celle du satellite WMAP, l’analyse stade 27 % et excède donc celle de la tistique des données de haute précision du satellite Planck matière visible par plus qu’un fac- a révélé que l’Univers ne se compose que d’une petite fraction de matière baryonique ordinaire. La majorité est teur cinq. Il nous manque donc à d’origine inconnue. ce stade 68 % de la matière et de l’énergie de l’Univers. C’est ce qu’on appelle l’énergie noire, comme nous allons le voir dans la prochaine section. Cependant, avant de décrire cette énergie mystérieuse, il est bon de mentionner que l’existence de matière noire, bien que plausible, n’est pas la seule explication possible. Un petit nombre de physiciens songe également à une possible défaillance de la loi de Newton à de très grandes échelles, comme celle de l’Univers 2 . 3.2

Une énergie répulsive : l’énergie noire

En 1998, deux projets expérimentaux étudiant le décalage spectral vers le rouge des supernovae lointaines ont démontré que la constante de Hubble, décrivant la vitesse d’expansion de l’Univers, augmente avec le temps, et que l’Univers est en expansion accélérée depuis environ cinq milliards d’années. C’est un résultat surprenant, qui a valu en 2011 le prix Nobel à Saul Perlmutter, Adam Riess (États-Unis) et Brian Schmidt (Australie). En raison des forces gravitationnelles 2

Une autre indication de l’existence de matière noire provient de l’observation de collisions entre amas de galaxies, grâce à un effet de lentille gravitationnelle sur les objets situés derrière l’amas. Une étude célèbre, effectuée en 2006, de l’amas du Boulet dans la constellation de la Carène a conclu que de la matière noire était nécessaire pour expliquer l’amplitude de l’effet mesuré. Cette matière noire interagirait avec la matière visible seulement par la gravitation. Cette observation ne peut être que difficilement expliquée par une théorie de gravitation non newtonienne.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

65

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 66 — #82

i

i

d’attraction entre les galaxies, on se serait plutôt attendu à un ralentissement progressif de l’expansion avec un possible big crunch, c’est-à-dire une phase de contraction de l’Univers menant à son effondrement. Nous reviendrons en détail sur les observations qui ont permis d’arriver à cette étonnante conclusion dans le chapitre 5. Voyons ici l’explication communément avancée aujourd’hui. Une énergie répulsive, dénommée énergie noire, est soupçonnée d’être à l’origine de cette expansion accélérée. Plusieurs modèles existent. Le plus célèbre repose sur la constante cosmologique qu’Einstein avait introduite, bien avant la découverte de l’énergie noire, pour compléter sa théorie générale de la relativité. Le but recherché était alors de contrebalancer le terme qui permettait l’expansion car il était admis à l’époque que l’Univers devait être stable et immuable. La constante cosmologique représente une densité d’énergie qui emplit l’espace de manière homogène. Elle correspondrait à ce qu’on appelle l’énergie du vide. En effet, nous savons que le vide en physique quantique n’est pas réellement vide, mais est le siège d’incessantes fluctuations quantiques. Ces fluctuations sont de brèves créations et annihilations de particules et d’antiparticules, permises par la relation d’incertitude de Heisenberg, et qui contribuent à une énergie du vide non nulle. Cette contribution est calculable dans le cadre du modèle standard, mais elle aboutit à une valeur 10120 fois plus grande que celle correspondant à la constante cosmologique ou à l’énergie noire observée 3 . L’ajout de la supersymétrie améliore sensiblement les choses en ramenant ce facteur à environ. . . 1060 . Ce problème de la constante cosmologique constitue une des énigmes majeures de la physique moderne. Elle trouvera peut-être sa solution lorsqu’on aura développé une théorie quantique satisfaisante de la gravitation (section 3.6). D’autres modèles tentent d’expliquer l’énergie noire. Par exemple, le modèle dit de la quintescence propose l’existence d’un champ de spin nul dont la densité en énergie peut varier à travers l’espace et le temps. La récente découverte au CERN du boson de Higgs, lui aussi un champ scalaire, donne un regain de crédibilité à ce type de théories. 3.3

Asymétrie entre matière et antimatière baryonique

Malgré la possibilité de créer de l’antimatière en laboratoire ou d’en observer dans les gerbes de rayons cosmiques, il ne semble pas exister d’antigalaxie, d’antiplanète, ni même d’antipoussière, du moins dans l’Univers qui nous est accessible. Plusieurs expériences dans l’atmosphère terrestre et dans l’espace 3

D’après certains experts, le facteur 10120 est sujet à caution car l’énergie du vide dans le modèle standard est déterminée à une constante arbitraire près. En revanche, la différence entre l’énergie du vide avant et après la brisure de symétrie électrofaible due au potentiel de Higgs, elle, est non ambiguë. Or, cette différence est encore 1050 fois trop grande.

66

Chapitre 3. Ce que le modèle standard n’explique pas

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 67 — #83

i

i

ont entrepris des recherches de traces d’antimatière statique, c’est-à-dire non produite par des processus de diffusion énergétiques. Elles ont été jusqu’à présent infructueuses. Il en est de même pour les recherches d’antinoyaux d’hélium dans les rayons cosmiques ou d’un rayonnement X diffus de basse énergie, qui pourrait provenir de l’annihilation de noyaux et d’antinoyaux dans des zones de contact entre matière et antimatière. Ces résultats ont conduit la plupart des physiciens des particules à supposer que l’antimatière aurait disparu par annihilation avec la matière peu après le big bang. Cependant, si, à l’état initial, l’Univers contenait autant de matière que d’antimatière, comment se fait-il que de la matière ait pu survivre à cette gigantesque annihilation ? Les mesures actuelles basées sur la nucléosynthèse primordiale (voir section 5.3) et l’étude du rayonnement micro-onde fossile (section 5.2), Antimatière montrent que le nombre de baryons survivants est environ un milliard de fois plus faible que le nombre de photons Matière produits lors des annihilations primordiales. L’asymétrie originelle semble donc très faible. « Sûrement facile à exF IGURE 3.4. Asymétrie entre matière et antimatière pliquer dans le modèle standard par le dans l’Univers. mécanisme de Kobayashi-Maskawa », aurait-on envie de s’exclamer. Hélas, celui-ci prévoit une différence infime entre les processus impliquant des particules et ceux impliquant des antiparticules. Des calculs théoriques (très complexes) ont démontré que ce mécanisme, qui n’implique que l’interaction faible, ne peut engendrer qu’une asymétrie baryonique de l’ordre de 10−19 à l’échelle de l’Univers, soit dix milliards de fois trop petite. De nouvelles sources de brisure de symétrie sont donc nécessaires. Bien qu’aucun modèle théorique ne fasse l’objet d’un consensus, le modèle de la leptogenèse, favorisé par de nombreux physiciens, offrirait une solution élégante. Dans ce modèle, la violation de CP dans le secteur leptonique 4 pourrait engendrer une asymétrie entre leptons et antileptons. Dans le cadre du modèle standard, il pourrait exister un phénomène non perturbatif, c’est-à-dire qu’on ne peut pas exprimer sous forme de diagrammes de Feynman, faisant intervenir un concept très exotique : le sphaléron. Ce mécanisme permet, lors de la phase non brisée du potentiel de Higgs, de faire des transitions entre baryons et leptons, et pourrait 4

La violation de CP dans le secteur leptonique n’a encore jamais été observée. Elle pourrait l’être dans les années à venir, peut-être avec l’expérience T2K en fonctionnement au Japon et presque certainement avec les expériences d’oscillation de neutrinos en projet pour la prochaine décennie.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

67

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 68 — #84

i

i

alors convertir cette asymétrie leptonique en une asymétrie entre baryons et antibaryons.

Absence de brisure de symétrie entre matière et antimatière dans l’interaction forte 3.4

La brisure de la symétrie entre matière et antimatière telle qu’elle est décrite, si naturellement, dans la théorie électrofaible a été vérifiée expérimentalement avec une grande précision. En revanche, une brisure analogue dans l’interaction forte semble infinitésimale ou nulle : aucune manifestation d’une violation de la symétrie CP n’y a encore jamais été observée 5 . Pourtant, la chromodynamique quantique inclut bien un terme pouvant engendrer une asymétrie. Il est paramétré par une variable notée conventionellement θ, qui est donc nulle ou très petite. Rares sont les cas où la nature choisit de supprimer un phénomène autorisé par les équations, à moins qu’une symétrie de la théorie ne l’impose. Un physicien célèbre disait même : « Whatever is not explicitly forbidden in physics is allowed and even mandatory ! ». Par exemple, le paramètre qui décrit la brisure de la symétrie entre matière et antimatière dans l’interaction faible, et que l’on appelle la phase de Cabibbo-Kobayashi-Maskawa (CKM), n’est contraint par aucune symétrie et a une valeur naturelle de 68 degrés. En revanche, les seules particules connues de masse nulle, le photon et le gluon, le sont précisément en raison des symétries intrinsèques des interactions électromagnétiques et fortes. Une solution à ce problème consisterait donc à introduire une nouvelle symétrie qui serait à l’origine de la petitesse de θ. En 1977, Roberto Peccei et Helen Quinn en ont proposé une, dont la brisure spontanée, similaire au mécanisme BEH, engendrerait une particule scalaire dénommée axion, qui aurait une masse non nulle, mais vraisemblablement très faible. Le paramètre θ n’est alors plus une constante arbitraire mais devient un champ, associé à l’axion, et la théorie de l’interaction forte ne contient plus la possibilité d’une asymétrie entre matière et antimatière. Il se trouve que, par ailleurs, l’axion est un candidat intéressant pour expliquer la matière noire froide. Les diverses recherches, que ce soit en laboratoire à travers l’interaction électromagnétique de l’axion avec des photons, ou par des observations et contraintes astrophysiques, n’ont cependant pas abouti à ce jour.

5

L’existence d’un moment dipolaire électrique du neutron, par exemple, serait une preuve de la violation de la symétrie CP par l’interaction forte.

68

Chapitre 3. Ce que le modèle standard n’explique pas

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 69 — #85

i

3.5

i

Les masses des neutrinos

Dans le modèle standard, les neutrinos et les antineutrinos sont des fermions sans masse 6 . Les neutrinos sont d’hélicité gauche tandis que les antineutrinos sont d’hélicité droite (voir encadré 1.8). Il est possible que l’un et l’autre soient deux particules identiques différenciées seulement par leur hélicité. On dit alors que ce sont des fermions de Majorana, du nom du physicien italien qui en a développé la théorie dans les années 1930. Les neutrinos apparaissent sous la forme de trois saveurs, νe , νµ et ντ , lors des processus faisant intervenir l’interaction faible, qui se trouve être la seule à laquelle ils soient sensibles. Cependant, si leur masse est différente de zéro, même très faiblement, les états de saveur peuvent être des mélanges quantiques de trois états de masse ν1 , ν2 et ν3 . La conséquence directe est qu’un neutrino produit avec une saveur donnée pourra apparaître à une certaine distance de la source comme un neutrino de saveur différente. On dit que les neutrinos oscillent. Cette idée a été proposée par le physicien italien Bruno Pontecorvo à la fin des années 1950 7 . Expérimentalement, dès la fin des années 1960, une expérience menée par Ray Davis, aux États-Unis, observa un déficit par rapport à la prédiction théorique du flux de neutrinos électroniques en provenance du Soleil. Cette disparition des νe a ensuite été confirmée par d’autres expériences, telles que Gallex dans le tunnel du Fréjus. Depuis, d’autres expériences de nature très variée ont permis d’étudier en détail les phénomènes d’oscillation et de mesurer les paramètres de mélange des neutrinos. Certaines sont basées sur la détection du flux de neutrinos produits dans l’atmosphère par les rayons cosmiques (essentiellement des νµ et ν¯µ ), d’autres sont installées à proximité de réacteurs nucléaires (produisant des ν¯e ). D’autres encore mesurent les flux de neutrinos (νµ et ν¯µ ) produits par un accélérateur situé à plusieurs centaines de kilomètres. Citons l’expérience SuperKamiokande, au Japon, constituée d’un réservoir souterrain de 50 000 tonnes d’eau ultrapure, entouré de milliers de photomultiplicateurs. En 1998, cette expérience, conduite par Masatoshi Koshiba, a montré que les neutrinos muoniques produits dans l’atmosphère disparaissaient au profit des neutrinos électroniques, comme prédit si les neutrinos oscillent effectivement. Ce résultat a valu le prix Nobel 2002 à Koshiba, partagé avec Davis. Le détecteur SuperKamiokande est utilisé en 2013 par l’expérience T2K pour l’étude détaillée des oscillations de neutrinos muoniques, produits par un accélérateur de protons situé à environ 6 7

Le fait que leur masse soit strictement nulle est un choix dicté par la simplicité car il n’existe pas de principe fondamental qui l’exige, comme dans le cas des photons ou des gluons. Ce phénomène est analogue à celui du mélange des quarks, introduit par le mécanisme de CabbiboKobayashi-Maskawa qui explique la violation de la symétrie CP.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

69

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 70 — #86

i

i

trois cents kilomètres. L’objectif est la mise en évidence d’une éventuelle violation de CP dans le secteur des leptons. L’étude des neutrinos a permis de déterminer les differences ∆m2ji entre les carrés des masses des états de masse νj et νi : ∆m221 ' 7,6 · 10−5 eV2 ∆m2 ' 2,4 · 10−3 eV2 32 Par ailleurs, les tentatives de mesure directe de la masse des neutrinos électroniques à travers l’étude du spectre en énergie des électrons émis dans la désintégration β du tritium (3 H → 3 He + e− + ν¯e ) ont permis d’établir une limite supérieure d’environ deux électronvolts. Plus indirectement, les contraintes cosmologiques apportées par les mesures des satellites WMAP et Planck indiquent que le neutrino le plus lourd aurait une masse inférieure à 0,23 eV. Les neutrinos ayant une masse, même très faible, il a bien fallu étendre le modèle standard pour y incorporer le neutrino d’hélicité droite et l’antineutrino d’hélicité gauche. Ainsi, une certaine symétrie de traitement entre neutrinos et quarks a été rétablie, avec cependant une différence notable, à savoir que les neutrinos ont toujours la possibilité d’être des fermions de Majorana. La masse des neutrinos est extrêmement faible par rapport à celle des quarks : il y a plus de six ordres de grandeur de différence. Il est donc difficile d’imaginer qu’elle puisse relever uniquement du mécanisme de Brout-Englert-Higgs. La mise en évidence des masses non nulles des neutrinos est par conséquent la première manifestation tangible de phénomènes de physique au-delà du modèle standard. Certains modèles basés sur l’unification des forces à une échelle d’énergie de l’ordre de 1015 à 1016 GeV sont en mesure de fournir une explication plausible. 3.6

La gravitation

Les observations dont nous avons discuté jusqu’à présent pourraient être de simples omissions dans le modèle standard, que l’on pourrait corriger une fois que l’on aurait découvert les particules qui constituent la matière noire ou de nouvelles sources de brisure de symétrie matière-antimatière. Venons-en maintenant à la troisième catégorie de problèmes, plus fondamentaux. Nous n’avons pas parlé jusqu’à présent de la quatrième interaction fondamentale, la gravitation. Elle joue un rôle négligeable en physique des particules, aux échelles de masse mises en jeu dans nos accélérateurs : l’attraction gravitationnelle entre deux protons, à une distance d’un fermi l’un de l’autre, est 1036 fois plus faible que la force électromagnétique (coulombienne et répulsive) dans

70

Chapitre 3. Ce que le modèle standard n’explique pas

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 71 — #87

i

i

ces mêmes conditions. La force gravitationnelle devient en revanche comparable aux autres interactions pour des masses ponctuelles de l’ordre de la masse dite de Planck : MP ∼ 1019 GeV (voir encadré 3.2). Encadré 3.2. La masse ou échelle de Planck.

Pour tout objet de masse m, on peut définir le rayon de Schwarzschild : RS = 2GN

m c2

où GN est la constante de Newton (GN = 6,7 · 10−11 J cm kg−2 ) et c la vitesse de la lumière. Il s’agit du rayon en dessous duquel l’objet deviendrait un trou noir si toute sa masse y était concentrée. Par exemple, le rayon de Schwarzschild du Soleil est d’environ trois kilomètres, tandis que celui de la Terre est de neuf millimètres. On peut définir la s masse de Planck comme : h¯ c MP = GN où h¯ est la constante de Planck réduite, h¯ = h/(2π ) = 6,6 · 10−22 MeV s. La masse de Planck est donc de l’ordre de 1019 GeV et correspond approximativement à la masse pour laquelle le rayon de Schwarzschild est de l’ordre de grandeur de la longueur d’onde de Compton λC = h/( MP c). Celle-ci peut être considérée comme une limite fondamentale à la précision avec laquelle on peut localiser une particule, quand on tient compte de la mécanique quantique et de la relativité restreinte. La masse de Planck est l’échelle d’énergie à partir de laquelle on s’attend à ce que des effets quantiques apparaissent dans la gravité. Il se trouve qu’elle correspond aussi à la masse pour laquelle la force gravitationnelle est de l’ordre de grandeur de la force électrostatique : GN M2P 1 e2 ≈ 4πε 0 r2 r2 où r est la distance sur laquelle s’exerce la force, ε 0 la permittivité du vide et e la charge électrique de l’électron. Elle représente donc probablement l’échelle naturelle d’une théorie hypothétique unifiant la gravitation avec les interactions du modèle standard.

Au début du XXe siècle, Einstein a apporté une reformulation définitive et relativiste de l’interaction gravitationnelle sous forme d’une théorie essentiellement de nature géométrique, reliant la géométrie de l’espace-temps à la distribution de matière et d’énergie. Cette théorie expliquait quantitativement le déplacement du périhélie de Mercure, déjà observé mais resté inexpliqué par la mécanique newtonienne. Elle prédisait également la courbure de la trajectoire de la lumière à proximité d’une masse importante comme celle du Soleil. L’observation en 1919 par Arthur Eddington de cette déviation, exactement au niveau attendu, a joué un rôle majeur dans l’acceptation de la relativité générale. Les observations

L’AVENTURE DU GRAND COLLISIONNEUR LHC

71

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 72 — #88

i

i

confirmant les prédictions de la théorie se sont depuis accumulées. En particulier, la perte d’énergie dans le pulsar binaire PSR B1913+16 est parfaitement interprétée comme une perte par rayonnement gravitationnel. Pourtant, ce rayonnement n’a encore jamais été observé directement, les détecteurs actuels n’ayant pas une sensibilité suffisante. Tandis que les autres interactions fondamentales du modèle standard, électromagnétique, faible et forte, sont toutes décrites par des théories des champs quantiques relativistes, il n’a pas été possible de formuler à ce jour une théorie quantique des champs de la gravitation qui soit mathématiquement cohérente. Le quantum du champ de gravitation est appelé graviton et aurait un spin de 2. Il existe néanmoins certains modèles spécifiques qui tiennent compte de phénomènes quantiques en présence de forts champs gravitationnels. C’est en particulier le cas des travaux de Stephen Hawking en relation avec les étoiles à neutrons et les trous noirs stellaires ou cosmologiques.

Le boson de Higgs est trop léger

3.7

La particule récemment observée au CERN et qui semble être le boson de Higgs a une masse d’environ 126 GeV. Du point de vue théorique, on définit la masse nue du Higgs comme celle qu’aurait ce boson s’il n’avait aucune interaction avec le reste du monde. La masse expérimentale correspond à la masse nue, modifiée par des corrections quantiques, comme on l’a vu pour la masse du W dans la section 2.4. Toutefois, l’effet est bien plus pernicieux pour une particule scalaire comme le boson de Higgs. Ces corrections quantiques se manifestent par la création, à partir d’un boson de Higgs, d’une paire de fermion-antifermion, suivie aussitôt de son annihilation. Les fermions mis en jeu sont de préférence lourds (par exemple une paire de quarks top et antitop) puisque le Higgs préfère se coupler aux particules de masse élevée. D’autres processus virtuels contribuent également, dont le couplage du Higgs aux bosons électrofaibles et à lui-même (figure 3.5).

H"

t" !

t"

H"

H"

H"

W,"Z" H"

H"

H"

F IGURE 3.5. Diagrammes à une boucle virtuelle contribuant aux corrections radiatives à la masse du boson de Higgs.

Or, ces particules virtuelles peuvent avoir des énergies très, très grandes (permises pour une très courte durée par la relation d’incertitude de Heisen-

72

Chapitre 3. Ce que le modèle standard n’explique pas

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 73 — #89

i

i

berg), voire infinies. Du point de vue du calcul, les corrections quantiques à la masse du Higgs au carré associées à ces diagrammes sont proportionnelles au carré de l’énergie maximale Λ autorisée des particules dans les boucles. Elles deviennent donc infinies lorsque Λ tend vers l’infini. C’est particulièrement ennuyeux puisque la masse physique du Higgs, elle, a une valeur finie. Dans certaines théories, ce problème de divergences peut être contourné par la procédure dite de renormalisation. Elle consiste à s’affranchir des quantités infinies en redéfinissant les paramètres de la théorie (masses et constantes de couplages), pour une certaine échelle d’énergie, en les exprimant en fonction de grandeurs physiques bien mesurées par les expériences. Quand une telle procédure est possible, la théorie est dite renormalisable et donc capable de fournir des prédictions, finies, vérifiables expérimentalement. C’est le cas du modèle standard et l’origine de son succès dès les années 1970 (voir section 1.6). S’il n’y a pas de nouvelle physique au-delà du modèle standard, c’est-à-dire pas de nouvelle particule plus massive que le quark top se couplant au Higgs, la procédure de renormalisation permet de conserver une masse physique du Higgs finie, en redéfinissant la valeur de la masse nue de manière à compenser les corrections divergentes (voir encadré 3.3). Cependant, pour toutes les raisons exposées dans ce chapitre, il est probable, voire essentiel, qu’à une échelle d’énergie Λ, bien au-delà de celle du TeV, de nouvelles forces et de nouvelles particules élémentaires se couplant au Higgs entrent en jeu. Dans ce cas, les corrections quantiques virtuelles à la masse carrée du boson de Higgs sont proportionnelles à cette échelle de nouvelle physique au carré : λ2 2 δm2H ∼ Λ 8π 2 où la constante λ est reliée aux intensités des couplages du Higgs avec les particules présentes dans les boucles des diagrammes de la figure 3.5. Sa valeur est dominée par le couplage au quark top ce qui conduit à |λ| ∼ 1. Quelle est cette échelle d’énergie Λ ? Ce pourrait être celle de la grande unification des forces fondamentales (voir section 4.2), c’est-à-dire Λ ∼ 1015 GeV, ou encore celle de la masse de Planck, Λ ∼ 1019 GeV, où la gravitation devient importante au niveau quantique. Les corrections virtuelles δm2H sont donc gigantesques par rapport à la masse physique du Higgs au carré : m2H = m20 + δm2H Cela implique que la masse nue au carré m20 soit précisément du même ordre de grandeur mais de signe opposé. Il s’agit donc d’un ajustement très fin de deux nombres, a priori indépendants, sur au moins vingt-six ordres de grandeur !

L’AVENTURE DU GRAND COLLISIONNEUR LHC

73

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 74 — #90

i

i

La disparité entre l’échelle électrofaible, c’est-à-dire la masse du boson de Higgs, et la très grande échelle de masse à laquelle la nouvelle physique est attendue est appelée le problème de la hiérarchie. Cette appellation reflète le fait qu’il serait naturel que le Higgs ait une masse de l’ordre de l’échelle de grande unification ou de la masse de Planck, alors qu’en réalité sa masse est beaucoup plus petite. Inversement, puisque l’échelle de Planck est déterminée par la constante de gravitation, c’est l’extrême petitesse de cette force par rapport aux autres interactions qui semble être la cause du problème. Certaines extensions théoriques du modèle standard (supersymétrie, dimensions supplémentaires) que l’on discutera au chapitre suivant proposent une solution à ce problème. D’autres modèles, dits composites, évitent d’introduire des scalaires comme particules fondamentales de la théorie en considérant le boson de Higgs comme un état lié de nouveaux fermions fondamentaux dont la présence pourrait se manifester à des énergies voisines du TeV. Au lieu de

Encadré 3.3. Le modèle standard est-il une théorie effective ?

La procédure de renormalisation permet de faire des calculs prédictifs à partir des amplitudes divergentes, associées aux diagrammes de Feynman avec des boucles. Ces prédictions théoriques peuvent être d’une précision spectaculaire, comme dans le cas de certains processus de physique atomique décrits par l’électrodynamique quantique (la théorie quantique des champs de l’électromagnétisme). Cependant, pour de nombreux théoriciens, elle consiste in fine à cacher les infinis sous le tapis et n’est donc pas vraiment satisfaisante. En particulier, elle conduit à considérer les masses et couplages nus, c’està-dire ceux qui apparaissent dans le lagrangien, comme des quantités infinies. Ainsi, seul le développement perturbatif en diagrammes de Feynman (renormalisé) aurait une signification fondamentale, mais plus le lagrangien lui-même. Cela limiterait la validité de cette approche aux couplages faibles pour lesquels la série perturbative peut converger. L’apparition de ces divergences et le fait de devoir faire appel à une procédure de renormalisation pour lui donner un sens est donc vraisemblablement le signe que la théorie quantique des champs considérée (ici le modèle standard) n’est pas la théorie ultime. Elle serait une théorie dite effective, c’est-à-dire une approximation, valable à basse énergie, d’une théorie plus fondamentale, finie (sans problème de divergences) et qui reste à découvrir. Pour s’affranchir des divergences que l’on peut rencontrer lorsqu’on considère de très hautes énergies (et donc de très courtes distances), il est probable que cette théorie devra introduire des objets fondamentaux non ponctuels qui interagissent entre eux de manière non locale. La théorie des supercordes est un candidat possible, parmi d’autres, comme la gravitation quantique à boucles ou la géométrie non commutative.

74

Chapitre 3. Ce que le modèle standard n’explique pas

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 75 — #91

i

i

dépendre quadratiquement de Λ, les corrections virtuelles en dépendraient alors seulement de manière logarithmique (comme pour la supersymétrie), ce qui rendrait le problème acceptable. Comme il est expliqué dans l’encadré 3.3, la physique au-delà de l’échelle d’énergie Λ devra être décrite par une théorie unifiant la mécanique quantique et la gravitation, qui ne présenterait pas de problèmes de divergences, et qui reste à découvrir. 3.8

D’où vient le potentiel de Higgs ?

Parmi les problèmes de la troisième catégorie, il faut citer l’origine, un peu mystérieuse, du potentiel de Higgs. Dès les premières publications dans les années 1960, on s’est interrogé sur le caractère ad hoc du mécanisme BEH. En effet, ni la forme en chapeau mexicain du potentiel, ni l’interaction des particules avec le champ de Higgs ne procèdent d’un principe géométrique comme les autres interactions du modèle standard (qui découlent de l’invariance de jauge). Les récentes découvertes au LHC semblent cependant accréditer la validité de ce mécanisme que certains considèrent comme simpliste. Un objectif important des travaux théoriques et expérimentaux des années à venir sera donc d’expliquer comment ce potentiel et les interactions avec le champ de Higgs ont pu être engendrées au cours de l’évolution de l’Univers. Les constantes de couplage et les masses des particules, loin d’être constantes, dépendent de l’énergie, à travers les corrections radiatives quantiques (section 1.9). Leurs valeurs changent donc en fonction du temps qui s’est écoulé après le big bang à mesure que l’Univers se refroidit et que l’énergie des interactions entre particules diminue (voir chapitre 5). Il en est de même pour les paramètres µ2 et λ du potentiel de Higgs (figure 1.7). Certaines extensions du modèle standard, par exemple celles qui font appel à la supersymétrie (section 4.1), tentent d’expliquer de cette manière l’évolution de la forme du potentiel qui engendre la transition entre la phase symétrique et la phase du chapeau mexicain, à l’origine de la brisure de la symétrie 8 .

8

Voir également l’encadré 14.1 sur la stabilité du vide.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

75

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 76 — #92

i

i

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 77 — #93

i

i

4 Quelle forme pourrait avoir la nouvelle physique ? Pour s’affranchir du problème de la hiérarchie, il faut donc que de nouveaux phénomènes physiques apparaissent à une échelle d’énergie bien plus faible que celle de la grande unification ou de la masse de Planck. Si cette échelle est de l’ordre du TeV, les corrections quantiques à la masse nue du boson de Higgs ne sont plus que de 20 %. À 4 TeV, elles atteignent environ 50 %. C’est précisément le but du LHC que d’explorer ces régions d’énergie. Quelle forme pourrait avoir la solution au problème de la hiérarchie ? Une réponse élégante est offerte par la théorie de la supersymétrie. Toutefois, elle ne résout pas la question de la grande disparité entre la gravitation et les autres forces. Un autre type de modèles de nouvelle physique attaque justement le problème par cet aspect de la gravitation et en expliquerait la faiblesse apparente : il propose une ou plusieurs dimensions d’espace supplémentaires, qui seraient suffisamment petites et compactes pour avoir échappé jusqu’à présent aux recherches expérimentales.

La supersymétrie et l’extension supersymétrique du modèle standard 4.1

La théorie de la supersymétrie, couramment appelée par le joli diminutif de Susy, est née dans les années 1970 à la suite des premiers développements sur la théorie des cordes, alors appliquée à l’interaction forte. Elle relie les bosons aux fermions par une nouvelle symétrie et prévoit, pour chaque particule élémentaire

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 78 — #94

i

i

connue, un partenaire ayant des propriétés toutes identiques, à l’exception de son spin qui diffère de −1/2. Ainsi, une opération de supersymétrie transformet-elle un boson de spin entier en un fermion de spin demi-entier qui possède la même masse et les mêmes propriétés vis-à-vis des symétries internes (charge électrique, isospin, couleur, etc.). De même, un fermion, de spin demi-entier, a pour partenaire supersymétrique un boson, de spin entier. Pour caractériser ces nouvelles particules, on introduit un nouveau nombre quantique, la Rparité, parfois aussi appelée parité de matière, et notée R P . Elle vaut 1 pour les particules du modèle standard, y compris le Higgs, et −1 pour les particules supersymétriques. Le monde est alors invariant sous une transformation globale de supersymétrie. Au début des années 1980, sous l’impulsion en particulier de Pierre Fayet à Paris, l’application de la Susy au monde des particules conduisit à l’élaboration du MSSM (Minimal Supersymmetric Standard Model). Il s’agit d’une extension minimale supersymétrique, au sens où ses doublets {boson, fermion} contiennent tous une particule du modèle standard. Les partenaires supersymétriques sont appelés des sparticules (figure 4.1). Comparé au modèle standard, les choses sont légèrement plus compliquées pour le boson de Higgs. En effet, le MSSM prévoit l’existence de deux doublets de champs de Higgs menant à cinq bosons (trois neutres et deux chargés), de spin nul et de R-parité égale à 1. Leurs partenaires fermioniques sont les higgsinos, de R-parité égale à -1. F IGURE 4.1. « Un jour, tout cela se transformera en articles Lors de la brisure de la symétrie sur la phénoménologie de la supersymétrie. » Nos remerciements à Cluff. électrofaible par un mécanisme dit de super-Higgs, les particules de même spin et ayant les mêmes propriétés au regard des interactions vont se mélanger, au sens quantique du terme. Ainsi, les partenaires supersymétriques de spin 1/2 du Z, le zino, du photon, le photino et les higgsinos neutres, se mélangent-ils pour donner quatre neutralinos, notés χ01,2,3,4 (figure 4.2). De même, les partenaires supersymétriques de spin 1/2 des bosons chargés W et des Higgs chargés, les winos et les higgsinos chargés, se ± superposent et donnent deux charginos (χ1,2 ). Le fait qu’on n’ait jamais observé deux particules de même masse et de spins différant de 1/2 implique que la supersymétrie est brisée à une échelle

78

Chapitre 4. Quelle forme pourrait avoir la nouvelle physique ?

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 79 — #95

i

Spin%→" Interac1on%→" Leptons,# sleptons#

0% EW#

Higgs,# higgsinos#

QCD#

l%%

Quarks,# squarks#

1/2% EW#

Bosons#de# jauge#EW,# winos#bino# Gluon,## gluino#

QCD#

EW#

3/2% QCD# gravita-on#

q%

gravita-on#

Supermul-plets#chiraux#

H%% W7+09%

W+09%

B70%

B0% g%%

Supermul-plets#vecteurs# g%

Graviton,# gravi-no#

G%%

H0%%h%% A%%H+9%

2%

l% q%%

H%

1%

i

Neutralinos%χ%01%,2,3,4" Charginos%%%%χ%+ 1,2"

Z0%%γ" W+ "

G%

Après#les#brisures#de#SUSY#et#de# la#symétrie#électrofaible#(EW)#

F IGURE 4.2. Tableau des particules du modèle supersymétrique minimal (MSSM), extension supersymétrique

a minima du modèle standard. Les particules sont classées suivant leur spin et le type d’interaction auxquelles elles participent : interactions électrofaible (EW), forte (QCD) ou gravitationelle (mentionnée ici uniquement pour les particules de spin 3/2 et 2, bien que toutes y soient sensibles dès lors qu’elles ont une masse). Les particules liées par une transformation de supersymétrie (boson ↔ fermion) sont connectées par un cadre rectangulaire horizontal. Les particules supersymétriques issues de l’action d’un opérateur de supersymétrie sur une particule du modèle standard sont notées avec un tilde. Ces supermultiplets sont dits chiraux ou vecteurs, selon que la particule de plus grand spin est un fermion de spin 1/2 ou un boson de spin 1. Les cadres rectangulaires verticaux relient les particules qui se mélangent, au sens quantique, après la brisure de la supersymétrie et après celle de la symétrie électrofaible.

d’énergie supérieure à celle de la brisure électrofaible. Le mécanisme de brisure de la supersymétrie engendre alors une masse nettement plus élevée pour un des partenaires du multiplet {boson, fermion}, le rendant ainsi inaccessible aux expériences menées jusqu’à présent, mais qui pourrait être observable au LHC. Une particularité, désagréable, du MSSM est non seulement que le nombre de particules est plus que doublé mais également que le nombre de paramètres libres de la théorie augmente considérablement (plus de cent) par rapport au modèle standard. Cependant, la supersymétrie présente des avantages très séduisants au regard des difficultés du modèle standard, ce qui a suscité une prolifération d’articles

L’AVENTURE DU GRAND COLLISIONNEUR LHC

79

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 80 — #96

i

i

théoriques et phénoménologiques ces trente dernières années (figure 4.1). Le premier d’entre eux est qu’elle résout le problème de la hiérarchie. En effet, les particules dont les spins diffèrent d’une demi-unité contribuent avec des signes opposés à l’amplitude totale des corrections virtuelles à la masse du boson de Higgs. Ainsi, les corrections qui proviennent de la création et de l’annihilation des particules du modèle standard s’annulent-elles, ou presque, avec celles provenant des partenaires supersymétriques, si toutefois leurs masses restent de l’ordre du TeV (figure 4.3).

H"

t" "

t"

H"

∼""

H"

t

∼""

t

H"

F IGURE 4.3. Diagrammes à une boucle contenant le quark top (à gauche) et son partenaire supersymétrique, le stop (à droite), contribuant aux corrections radiatives à la masse du boson de Higgs.

Un autre avantage concerne les théories de grande unification que nous aborderons dans la section 4.2. L’introduction de la supersymétrie dans ces théories permet aux trois constantes de couplages de converger vers une seule et même valeur, pour une échelle d’énergie de l’ordre de 1016 GeV (figure 4.4). Le temps de vie du proton prédit est alors en accord avec la non-observation de sa désintégration car il devient supérieur aux limites expérimentales actuelles. Enfin, la prédiction de la valeur de l’angle de mélange θW est telle que sin2 θW = 0,23, très proche de la valeur mesurée. En outre, la supersymétrie apporterait une explication élégante au problème de la matière noire. En effet, la plupart des modèles supersymétriques supposent que la R-parité est conservée. Cette hypothèse a une conséquence majeure, à savoir qu’il n’est pas possible de produire une sparticule unique à partir d’une collision entre deux particules du modèle standard 1 . Les sparticules sont donc toujours produites par paire, chacune se désintégrant en au moins une autre sparticule, plus légère. La plus légère des sparticules, dénommée LSP (lightest supersymmetric particle), est donc stable 2 . Les LSP produites aux premiers instants du big bang, dans la période allant de 10−15 à 10−12 seconde, devraient par conséquent être encore présentes, en grande quantité, dans l’Univers comme particule fossile de cette époque. Pour des raisons cosmologiques, ces sparticules stables ne seraient sensibles qu’à l’interaction faible et à la gravité, ce qui expli1 2

Pour l’état initial, R P serait égal à +1, alors que pour l’état final, R P serait −1, ce qui violerait la conservation de la R-parité. Dans la plupart des extensions supersymétriques du modèle standard, il s’agit du neutralino le plus léger, le χ01 .

80

Chapitre 4. Quelle forme pourrait avoir la nouvelle physique ?

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 81 — #97

i

i

60 −1

50

α1

40 −1

α

30

−1

α2 20 10 0

−1

α3 2

4

6

8

10

12

14

16

18

Log10(Q/1 GeV) F IGURE 4.4. Évolution des constantes de couplage du modèle standard avec l’échelle d’énergie Q. L’échelle de l’abscisse est logarithmique. L’inverse des constantes de couplage est donnée en ordonnée : α1 et α2 correspondent aux constantes électrofaibles, c’est-à-dire associées aux groupes U (1) et SU (2), lorsqu’on se trouve à des énergies supérieures à l’échelle de brisure électrofaible (de l’ordre de 100 GeV), et α3 à la constante de couplage de l’interaction forte décrite par le groupe de jauge SU (3) de la QCD. Les lignes en pointillés correspondent à l’évolution prédite dans le cadre du modèle standard et les lignes pleines, dans le cadre de son extension supersymétrique minimale. L’épaisseur des traits illustre l’incertitude théorique liée à la méconnaissance du spectre des particules dans ce modèle. L’introduction de la supersymétrie améliore grandement la convergence en un seul point d’énergie et repousse l’échelle d’unification, de sorte qu’elle devient compatible avec les limites expérimentales sur la durée de vie du proton.

querait également qu’elles n’aient pas encore été découvertes. On les appelle des WIMP (Weakly Interacting Massive Particles) : ce sont de très bons candidats pour la matière noire froide de l’Univers (voir section 3.1). En particulier, il est tout à fait remarquable que l’intensité de l’interaction faible à laquelle elles ont été soumises lors de la phase d’annihilation dans les 10−12 premières secondes après le big bang conduit au bon ordre de grandeur de la densité résiduelle de matière noire telle qu’elle est observée actuellement. C’est ce qu’on nomme le miracle des WIMP. La grande inconnue concerne le mécanisme de brisure de la supersymétrie qui détermine le spectre de masse des sparticules et leurs caractéristiques expérimentales. Plusieurs modèles théoriques existent sur le marché : citons par exemple la théorie mSugra (minimal Supergravity) qui a longtemps été très populaire. Ce

L’AVENTURE DU GRAND COLLISIONNEUR LHC

81

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 82 — #98

i

i

Encadré 4.1. La supersymétrie : une extension des symétries d’espace-temps.

Dans le modèle standard, chaque particule est caractérisée par un champ quantique, de masse et de spin donnés (section 1.1). Ces caractéristiques résultent des propriétés d’invariance de la nature sous les transformations d’espace-temps du groupe dit de Poincaré, qui comprend les translations, les rotations et les transformations de Lorentz de la relativité restreinte. En théorie quantique des champs, le théorème spin-statistique (voir encadré 1.1) est relié au fait que les bosons sont décrits par des champs qui commutent (φ1 φ2 = φ2 φ1 ) et les fermions par des champs qui anticommutent (ψ1 ψ2 = −ψ2 ψ1 ). Dans les années 1970, une extension naturelle de l’invariance de Poincaré a été proposée : aux dimensions d’espace-temps usuelles, dans lesquelles les positions sont décrites par quatre nombres réels qui commutent, sont ajoutées quatre autres dimensions, dans lesquelles les positions sont décrites par des grandeurs mathématiques qui anticommutent (de façon analogue aux spineurs qui décrivent les fermions de spin 1/2). Les composantes du champ selon ces nouvelles dimensions peuvent être vues comme une quantification du degré d’état femionique ou bosonique de la particule. Ainsi, la supersymétrie qui transforme un boson en un fermion, ou vice-versa, correspond-elle à une translation dans ce superespace. L’invariance des lois de la physique sous le groupe des translations-rotations dans le superespace conduit au fait que chaque particule fondamentale existe sous une forme bosonique et une forme fermionique, avec la même masse, mais également les mêmes propriétes au regard des symétries internes comme les symétries de jauge et de saveurs. Ce qui est à la fois remarquable et troublant, c’est qu’en composant de manière appropriée deux transformations de supersymétrie, on obtient une translation dans l’espace-temps. C’est pourquoi on dit parfois que la transformation de supersymétrie est équivalente à une racine carrée des translations d’espace-temps. Si de plus on impose une invariance des lois de la physique sous les transformations supersymétriques locales (symétries de jauge), on obtient alors une théorie invariante sous des translations locales d’espacetemps, ce qui caractérise la relativité générale décrivant la gravitation (section 3.6). Ce type de théorie est alors appelé supergravité.

modèle est basé sur une version minimale de la supergravité, dans laquelle la brisure spontanée est engendrée en supposant l’existence d’un ensemble de particules qui n’interagissent que de manière gravitationnelle avec les particules du MSSM. Cet ensemble constitue ce qu’on appelle le secteur caché. mSugra ne repose que sur cinq paramètres libres, ce qui simplifie grandement l’interprétation des résultats expérimentaux. C’est d’ailleurs l’origine de sa popularité. Cependant, ce modèle est désormais mis en difficulté par les résultats des expériences WMAP et Planck, ainsi que les recherches directes de Susy menées au LEP, au Tevatron, et maintenant au LHC (section 12.2).

82

Chapitre 4. Quelle forme pourrait avoir la nouvelle physique ?

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 83 — #99

i

i

Malgré ces résultats expérimentaux négatifs qui restreignent de plus en plus l’espace des paramètres du MSSM, il reste suffisamment de flexibilité pour adapter la théorie à ces contraintes. De nombreux théoriciens, voire la majorité, restent convaincus que la supersymétrie existe. Elle pourrait avoir une forme plus compliquée que le MSSM. Il est possible en outre qu’elle se manifeste à une échelle d’énergie bien plus élevée que celle qu’on espérait, c’est-à-dire de ce qui sera accessible au LHC. 4.2

L’unification des forces électrofaible et forte

Nous avons évoqué à plusieurs reprises déjà les théories de grande unification. De quoi s’agit-il ? Une des lignes directrices du développement de la physique moderne repose sur la simplicité des principes théoriques fondamentaux. Dans ce sens, expliquer la totalité des phénomènes naturels par une seule et unique interaction représenterait un stade ultime de la compréhension. La première interaction fondamentale à avoir été identifiée est la force gravitationnelle, vers la fin du XVIIe siècle. C’est aussi la première unification puisque la gravitation universelle proposée par Isaac Newton a permis d’expliquer autant la chute des pommes ou la balistique que le mouvement des corps célestes. La seconde unification majeure a été celle de l’électricité et du magnétisme, formulée vers 1870 par James Maxwell à travers ses fameuses équations. Avec le développement de la mécanique quantique au début du XXe siècle et l’interprétation de la structure atomique et moléculaire à l’aide de l’interaction électromagnétique, les seuls phénomènes n’entrant pas dans ce cadre interprétatif étaient ceux reliés à la radioactivité naturelle découverte par Henri Becquerel et Pierre et Marie Curie. La radioactivité α fut ainsi la première manifestation expérimentale directe de l’interaction forte et la radioactivité β celle de l’interaction faible. Comme cela a été décrit dans la section 1.6, le modèle de Glashow-Weinberg-Salam a ensuite unifié les interactions électromagnétique et faible. La physique repose donc sur trois forces fondamentales : la gravitation, l’interaction électrofaible, et l’interaction forte 3 . L’étape suivante serait l’unification des interactions électrofaible et forte. Les constantes de couplage de ces interactions semblent converger vers une même valeur à une échelle d’énergie colossale d’environ 1015 GeV, très au-delà de 3

Soulignons que l’unification des gravités terrestre et céleste ainsi que celle de l’électricté et du magnétisme ne sont pas de la même nature que l’unification des forces électrofaibles ou la grande unification. Dans le premier cas, il s’agissait d’une prise de conscience que deux phénomènes physiques en apparence distincts étaient en fait des manifestations de la même interaction. Dans le second, deux interactions distinctes émergent d’une interaction commune à la suite d’un phénomène de brisure de symétrie.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

83

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 84 — #100

i

i

ce qui est accessible dans nos accélérateurs actuels ou même concevables sur Terre 4 (section 1.10). Cette convergence suggère que les trois forces que nous distinguons dans les processus mis en jeu dans les accélérateurs aujourd’hui ne seraient en réalité que trois aspects d’une seule interaction unifiée, manifestation d’une symétrie supérieure (brisée à notre échelle d’énergie). L’idée centrale des théories de grande unification (GUT : Grand Unified Theories) consiste à choisir un groupe de symétrie de jauge simple, de façon à n’avoir qu’une seule constante de couplage 5 . Ce groupe doit être plus étendu que celui du modèle standard, SU (3) × SU (2) × U (1), pour en incorporer les symétries. La conséquence est que de nouvelles interactions et de nouveaux bosons de jauge devraient apparaître. Pour comprendre cet aspect, rappelonsnous que c’est l’unification de l’interaction électromagnétique et de l’interaction faible, dont seuls les courants chargés (désintégration β) étaient alors connus, qui a prédit l’existence des courants neutres et donc du boson Z. Le groupe le plus simple qui répond Proton e+ u à ces critères est SU (5). Il a été proposé X par Howard Georgi et Sheldon Glashow u en 1974 (voir encadré 4.2). La théorie de d̄ d grande unification basée sur ce groupe prédit que le proton peut se désintégrer en un p0 positon et un π 0 (figure 4.5). Dans le modèle standard, ce processus est interdit car F IGURE 4.5. Désintégration d’un proton par l’intermédiaire d’une particule hypothétique X qui il viole la loi de conservation du nombre apparaît dans les modèles d’unification de toutes leptonique (0 dans l’état initial, −1 dans les forces du modèle standard et qui possède les l’état final) et du nombre baryonique (1 nombres quantiques de lepton et de quark (un leptoquark). dans l’état initial et 0 dans l’état final) 6 . La conséquence directe est que le proton aurait alors une durée de vie finie, d’environ 1031 ans. Cela signifie que dans un ensemble de 1031 protons (soit environ dix tonnes de matière), il doit y avoir, en moyenne, une désintégration par an. Dans les années 1980 sont apparues les premières expériences cherchant à détecter une telle désintégration. Elles sont restées sans succès jusqu’à présent. La plus grande d’entre elles est l’expérience SuperKamiokande, déjà évoquée dans la section 3.5 au sujet de la découverte des oscillations de neutrinos. Aucun 4

5 6

Un accélérateur qui ferait le tour de la Terre avec des aimants de vingt teslas (qu’on peut imaginer savoir réaliser dans quelques décennies) permettrait d’accélérer des protons à « seulement » 2,5 · 107 GeV, soit un facteur 3 500 par rapport au LHC. Ce n’est pas le cas de la théorie électrofaible qui repose sur SU (2) × U (1) et donc deux constantes de couplage distinctes, g et g0 (voir l’encadré 1.6 sur le modèle de Glashow-Weinberg-Salam). Des transitions ne conservant pas le nombre baryonique (mais conservant B − L) sont en fait possibles dans le modèle standard grâce au sphaléron (section 3.3).

84

Chapitre 4. Quelle forme pourrait avoir la nouvelle physique ?

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 85 — #101

i

i

événement correspondant à une désintégration d’un proton en un positon et un π 0 n’ayant été détectée, une limite inférieure sur le temps de vie du proton d’environ 1034 ans a été établie. Cela semble mettre à mal la validité du modèle SU (5) sous sa forme la plus simple. Cependant, la prédiction de la durée de vie du proton dépend fortement de la valeur de l’échelle de grande unification qui reste très incertaine. Une augmentation d’un facteur dix permettrait de réconcilier, de justesse, la prédiction théorique avec la limite expérimentale actuelle 7 . Or, une échelle de 1016 GeV est justement prédite par les modèles supersymétriques, abordés dans la section 4.1. La théorie SU (5) prédit en outre l’angle de mélange électrofaible θW , tel que 2 sin θW = 0,21. C’est relativement encourageant, car c’est une valeur proche de la mesure expérimentale du LEP : sin2 θW = 0,23149 ± 0,00017. Cependant, compte tenu de la grande précision de cette mesure, ces deux valeurs sont clairement incompatibles. En revanche, un excellent accord est obtenu avec la version supersymétrique de SU (5) qui prédit une valeur sin2 θW = 0,23. Cet accord ainsi que la meilleure convergence à une même échelle d’énergie des trois constantes de couplage du modèle standard (voir figure 4.4) sont des arguments en faveur de l’intervention de la supersymétrie dans les modèles de grande unification. Un des problèmes majeurs du modèle SU (5) vient de ce que ses multiplets sont trop petits pour y inclure le neutrino d’hélicité droite dont l’existence est rendue nécessaire par la découverte de la masse non nulle des neutrinos. Par conséquent, les théoriciens se tournent maintenant vers des modèles basés sur des groupes plus vastes, comme le groupe SO(10) (groupe des matrices réelles orthogonales de dimension 10) ou d’autres groupes plus exotiques, comme E6 (groupe de Lie exceptionnel d’ordre 6) inspiré par des modèles de théorie des cordes. On l’a vu avec la désintégration du proton : les théories de grande unification autorisent l’existence de transitions entre quarks et leptons, qui ne conservent ni le nombre baryonique, ni le nombre leptonique. Or, c’est une condition essentielle pour permettre la baryogenèse, c’est-à-dire la création de l’asymétrie entre baryons et antibaryons. Supposons qu’il existe en outre un processus brisant la symétrie matière-antimatière de manière plus intense que le mécanisme CKM du modèle standard 8 . On pourrait alors imaginer que, si de plus l’Univers est en évolution (hors de l’équilibre thermique), les antibaryons disparaîtraient plus facilement que les baryons. Ce sont les trois conditions, énoncées en 1967, bien avant le 7 8

Les modèles de GUT supersymétriques prédisent que le canal de désintégration dominant n’est ¯ plus difficile à détecter. plus p → e+ π 0 mais p → K + ν, Il faudrait, par exemple, que le taux de désintégration de X¯ → `¯ + q¯ diffère de celui de X → ` + q au niveau de 10−9 .

L’AVENTURE DU GRAND COLLISIONNEUR LHC

85

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 86 — #102

i

i

Encadré 4.2. La théorie de grande unification SU(5).

Nous avons évoqué dans le chapitre 1 l’organisation en doublets des leptons et des quarks. Il s’agit d’espaces vectoriels de dimension 2 sur lesquels agit le groupe SU (2) de l’interaction faible. Par exemple, les doublets (νe , e) et (u, d) correspondent à la première famille de leptons et de quarks. Les mêmes doublets existent pour les antiparticules. L’échange, l’émission ou l’absorption d’un boson de jauge W permettent la transition d’un membre d’un doublet vers l’autre membre du même doublet. Ainsi, la transition d → u + W − , suivie immédiatement de la désintégration W − → e− + ν¯e , correspond à la désintégration β : vue au niveau des quarks, la désintégration d’un neutron en proton, n → p + e− + ν¯e , se résume en effet à la transition d → u + e− + ν¯e . Pour ce qui concerne la chromodynamique quantique, chaque type de quarks est placé dans un multiplet de dimension 3, correspondant aux trois états de couleur, par exemple : (ur , uυ , ub ). Ce sont sur ces triplets qu’agit le groupe SU (3). De la même façon, dans le schéma de grande unification SU (5), les quarks et les leptons d’une même famille sont regroupés dans deux multiplets, l’un de dimension 5 comportant donc cinq membres, l’autre de dimension 10. Par exemple, pour la première famille, le multiplet 5 contient les antiquarks d¯ dans trois états de couleur, l’électron et le neutrino électronique. Le multiplet 10 contient le positon, les quarks d et u et l’antiquark ¯ chacun dans trois états de couleur. Ce schéma théorique, qui incorpore des quarks u, et des leptons dans le même multiplet, contient aussi vingt-quatre bosons de jauge : les huit gluons de SU (3) et les W + , W − , Z et γ de SU (2) × U (1) du modèle standard, mais également douze nouveaux bosons de jauge ! Ces nouveaux bosons ont une charge électrique fractionnaire de −4/3 ou −1/3 et permettent les transitions directes entre quarks et leptons d’un même multiplet. Ainsi, la désintégration du proton, p → e+ + π 0 (figure 4.5), apparaît au niveau des quarks comme une transition d → e+ + X −4/3 suivie ¯ X −4/3 étant un boson de jauge, de charge −4/3. Via de l’annihilation X −4/3 + u → u, un mécanisme similaire à celui de Brout-Englert-Higgs qui fait intervenir des champs de Higgs très massifs, la brisure du groupe de grande unification SU (5) va donner une très grande masse à ces bosons, de l’ordre de 1015 GeV. Ce type de processus sera donc fortement pénalisé, ce qui explique le très grand temps de vie du proton. Il n’y a que dans le cadre de ce genre de théorie de grande unification que l’on comprend pourquoi les quarks ont une charge électrique fractionnaire : des arguments fondamentaux de théorie des groupes montrent que la somme des charges électriques des membres de chaque multiplet de SU (5) doit être nulle. Par exemple, dans le multiplet 5, les antiquarks d¯ apparaissant avec trois états de couleur, leur charge est nécessairement fractionnaire, égale à 1/3. On montre par ailleurs que la cohérence du modèle standard implique que la somme des charges électriques des quarks (avec trois couleurs) et des leptons doit également être nulle, ce qui entraîne la valeur +2/3 pour la charge des quarks u si on suppose que celle des quarks d est −1/3. La grande unification expliquerait donc pourquoi la charge électrique du proton est exactement l’opposé de celle de l’électron.

86

Chapitre 4. Quelle forme pourrait avoir la nouvelle physique ?

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 87 — #103

i

i

développement des théories de grande unification, par le physicien soviétique Andreï Sakharov pour expliquer l’asymétrie observée aujourd’hui et le résidu de baryons dont nous sommes constitués. 4.3

Des dimensions cachées dans l’Univers ?

Dans le cadre discuté dans la section précédente, on pourrait envisager une unification complète de toutes les interactions, y compris la gravitation, à des échelles d’énergie de l’ordre de la masse de Planck (figure 4.6). Une alternative à ce schéma a été proposée à la fin des années 1990 avec l’apparition de théories supposant l’existence de dimensions spatiales supplémentaires de taille presque macroscopique, inspirées par la théorie des cordes et supercordes.

é u

faible

faible

s n

q

g

u terrestre

F IGURE 4.6. L’unification des forces fondamentales de l’Univers, depuis Newton qui a compris que les forces qui lient les objets matériels à la Terre et le mouvement des objets célestes ont une origine commune (la gravité), Maxwell et l’unification de l’électricité et du magnétisme, le modèle standard, jusqu’aux tentatives actuelles d’unifier la gravité avec les autres interactions.

L’idée que l’Univers pourrait contenir plus de dimensions que l’espace de Minkowski M4 (trois dimensions d’espace et une de temps) remonte en fait aux années 1920. L’Allemand Theodor Kaluza et le Suédois Oskar Klein ont proposé à cette époque un modèle à cinq dimensions (quatre dimensions d’espace et une de temps) pour unifier l’électromagnétisme et la théorie de la relativité générale, développée peu avant par Einstein pour décrire la gravitation. L’idée centrale repose sur l’hypothèse que la quatrième dimension spatiale est décrite par un cercle C de rayon R, fixe, attaché en chaque point de l’espace M4 . Ce rayon, lié à la charge de l’électron dans le modèle original de KaluzaKlein, est suffisamment petit pour que, vu de loin, c’est-à-dire à une échelle de distance (d’énergie) beaucoup plus grande (petite) que R (1/R), l’Univers

L’AVENTURE DU GRAND COLLISIONNEUR LHC

87

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 88 — #104

i

i

apparaisse comme n’ayant que trois dimensions spatiales : c’est ce qu’on appelle la compactification (voir encadré 4.3). Encadré 4.3. La relation distance-énergie et l’échelle de Planck.

En mécanique quantique, énergie et distance sont liées : à toute particule d’impulsion p est associée une onde de longueur d’onde de de Broglie λ = h/p où h est la constante de Planck. Une particule incidente qui interagit avec, par exemple, un noyau cible, sera sensible à des sous-structures d’échelle supérieure ou de l’ordre de λ. Par extension, à une échelle d’énergie E, on associe une échelle de longueur λ = h¯ c/E, h¯ étant la constante de Planck réduite, h¯ = h/2π. Les unités adaptées aux phénomènes qui nous intéressent ici sont le MeV pour les énergies et le fermi pour les distances car c’est l’ordre de grandeur de la taille du proton. Dans ces unités, la relation peut s’écrire : λ≈

200 MeV fm E

Lorsqu’on se place dans un système d’unité quantique pour lequel h¯ c = 1, une distance peut alors être exprimée en MeV−1 , par l’équivalence 1 fm ∼ 200 MeV−1 . Ainsi, la distance associée à l’échelle d’énergie de Planck (MP = 1019 GeV) est-elle de 10−20 fermi, soit 10−35 mètre. Au LHC, l’échelle d’énergie des interactions est de l’ordre du TeV. On peut donc accéder à des échelles de distance de l’ordre de 10−4 fermi, soit 10−19 mètre.

La figure 4.7 représente d’une manière simplifiée le dispositif géométrique de Kaluza-Klein. Il peut y avoir plusieurs dimensions supplémentaires compactifiées, par exemple en considérant, en chaque point de M4 , un espace à deux dimensions repliées sur une sphère S2 ou un tore 9 . Une des conséquences principales de l’existence de dimensions spatiales supplémentaires est la présence de modes excités de propagation d’un champ ondulatoire, associé à une particule de masse nulle dans l’espace total à 4 + n dimensions. Lorsqu’on considère la propagation dans l’espace M4 du mode k correspondant à k oscillations sur le cercle de la composante dans la dimension supplémentaire, tout se passe comme si le champ effectif dans M4 avait acquis 9

De la même manière que le modèle original de Kaluza-Klein, M4 ⊗ C, relie l’électromagnétisme (associé au groupe de jauge U (1)) à la relativité générale, le modèle M4 ⊗ S2 , développé dans les années 1930 par Wolfgang Pauli, donne naissance à des interactions décrites par le groupe SU (2) ⊗ U (1). À l’époque de Pauli, les théories de jauge n’étaient pas connues et les mécanismes de brisure de symétrie associés encore moins, ce qui fait que cette théorie n’a pas eu de suite. On voit cependant à travers ces exemples comment la géométrie de l’espace-temps peut engendrer des interactions basées a priori sur des symétries internes des particules.

88

Chapitre 4. Quelle forme pourrait avoir la nouvelle physique ?

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 89 — #105

i

M

C

i

S1 = C

M

F IGURE 4.7. Géométrie de l’Univers dans le modèle de Kaluza-Klein. L’univers à trois dimensions spatiales est représenté ici par la ligne courbe M, à une dimension. La dimension supplémentaire est enroulée sur un cercle C, de faible rayon R, de telle sorte qu’à grande distance, M ⊗ C n’apparaît qu’avec la géométrie M. La figure de droite fait apparaître les modes excités d’un champ se propageant dans l’univers M4 ⊗ C, où M4 est l’univers relativiste de Minkowski à quatre dimensions (trois d’espace, une de temps). Plus le nombre d’oscillations dans la dimension supplémentaire (le long du cercle) est élevé, plus le champ effectif se propageant dans l’espace M4 est massif.

une masse mk = k/R. On introduit ainsi, au-dessus du mode zéro qui reste sans masse, ce qu’on appelle une tour de Kaluza-Klein de modes excités massifs 10 . Les théories de Kaluza-Klein sont revenues à la mode dans les années 1990 suite aux développements des théories de cordes et supercordes. Pour être mathématiquement cohérentes et pouvoir fournir un cadre viable pour décrire toutes les interactions de manière unifiée, y compris la gravitation, ces théories doivent s’exprimer dans un espace beaucoup plus étendu que notre espace à quatre dimensions usuel. Dans les théories de supercordes, neuf dimensions d’espace et une dimension de temps sont nécessaires. Les six dimensions supplémentaires sont compactifiées à la manière de Kaluza-Klein, sur des échelles de distance de l’ordre de la longueur de Planck (10−20 fermi). Les modes excités de KaluzaKlein, ayant des masses de l’ordre de la masse de Planck, sont alors inaccessibles à l’expérience. Cependant, en 1998, Nima Arkani-Hamed, Gia Dvali et Savas Dimopoulos (ADD) ont proposé un modèle avec des dimensions supplémentaires dont les rayons pouvaient aller jusqu’à un millimètre, sans toutefois être en conflit avec les données expérimentales de l’époque ! Dans ce modèle, les particules du modèle standard restent confinées dans la partie d’espace tridimensionnelle non compactifiée : dans le jargon de ce domaine de la physique théorique, on parle 10 Il

est possible de faire un parallèle avec la théorie des guides d’onde. Une onde électromagnétique dans l’espace libre se déplace à la vitesse c et le photon est de masse nulle. Dans un guide d’onde, seuls certains modes discrets k peuvent se propager avec des vitesses inférieures à c et le quantum de champ associé acquiert une masse effective non nulle.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

89

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 90 — #106

i

i

Encadré 4.4. Force gravitationnelle et taille des dimensions supplémentaires.

Dans sa forme à quatre dimensions, le potentiel gravitationnel entre deux masses m1 et m2 est donné par : m m (3) m m 2 V (r ) = − G N 1 = − 12 2 r MP · r (3)

où GN = GN = h¯ c/M2P (= 1/M2P en unités quantiques, voir l’encadré 4.3) est la constante de Newton pour trois dimensions spatiales, MP la masse de Planck et r la distance entre les deux masses. Pour r  R, où R est la taille des dimensions supplémentaires compactifiées, ce potentiel est donné par sa forme à 3 + n dimensions spatiales que l’on peut déduire du théorème de Gauss, en remarquant que V (r ) doit être de la dimension d’une énergie ou d’une masse ou de l’inverse d’une longueur : (3+ n ) m 1 m 2 r 1+ n

V (r ) = − G N

=

m1 m2 2+ n M f · r 1+ n

M f est ici l’échelle de masse fondamentale de la gravitation à 3 + n dimensions spatiales, analogue de la masse de Planck MP , à trois dimensions spatiales. Rappelons que MP est de l’ordre de 1019 GeV. Les masses MP et M f sont reliées par M2P = M2f +n Vn où Vn est le volume des dimensions supplémentaires (Vn ∼ (2πR)n ). Dans le scénario ADD, M f représente l’échelle d’énergie pour laquelle la gravité commence à devenir forte, c’est-à-dire que son intensité devient de l’ordre de celle des autres interactions. Des équations ci-dessus, on peut déduire l’expression de M f suivante : 2 1 Mf = (2πRMP ) 2+n 2πR Pour n = 2 et R = 0,1 mm, M f est de l’ordre de 10 TeV. On en conclut que les dimensions supplémentaires diluent l’apparence de la force gravitationelle dans les trois dimensions (3)

non compactifiées. La faible constante gravitationelle GN n’est qu’une réflexion de la (3+ n )

vraie constante GN

, qui est nettement plus élevée.

de brane, une terminologie inspirée de la théorie des cordes. Seule la gravité peut se propager dans toutes les dimensions de l’espace. L’intensité de la gravité est alors beaucoup plus forte dans l’espace total que sa manifestation dans la brane tridimensionnelle qui constitue notre monde. Cela expliquerait pourquoi elle nous apparaît beaucoup plus faible que les autres interactions entre particules à des distances bien supérieures à R (voir encadré 4.4).

90

Chapitre 4. Quelle forme pourrait avoir la nouvelle physique ?

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 91 — #107

i

i

Pour deux dimensions supplementaires compactifiées, par exemple sur un tore, sur un rayon de 0,1 millimètre, l’échelle d’énergie fondamentale de la gravitation est ramenée à une valeur de 10 TeV environ. La valeur R = 0,1 mm n’est pas choisie au hasard. Elle correspond à la distance minimale entre deux masses pour laquelle la loi de Newton de la gravitation a été vérifiée expérimentalement. Le modèle ADD prédit que le potentiel de gravitation a une forme classique en 1/r pour des distances grandes par rapport à la taille des dimensions supplémentaires, tandis qu’une déviation en 1/r1+n , où n est le nombre de dimensions supplémentaires, devrait être observée pour des distances inférieures. Pour n ≥ 3, la distance R pour que l’échelle d’énergie de la gravitation soit de quelques TeV devient de l’ordre de la taille des atomes, hors de portée de toute expérience de gravitation envisageable actuellement. Le message principal du modèle ADD est donc qu’il n’est pas exclu que la gravité devienne forte aux énergies accessibles au LHC et que des phénomènes de gravité quantique comme la production de gravitons (modes zéro ou excités de Kaluza-Klein), voire de micro-trous noirs, puissent être observés dans les détecteurs ATLAS et CMS (voir section 12.5).

L’AVENTURE DU GRAND COLLISIONNEUR LHC

91

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 92 — #108

i

i

Encadré 4.5. Le modèle de Randall-Sundrum.

Après la publication du modèle ADD, un grand nombre de modèles théoriques basés sur l’existence de grandes dimensions supplémentaires (par rapport à la longueur de Planck) ont été développés. Selon les modèles, tout ou partie des champs de force (ceux du modèle standard ou des théories de grande unification) et des champs de matière peuvent se propager dans la ou les dimensions supplémentaires, qui peuvent être de taille variable. Il peut également exister une ou plusieurs branes confinant certains types de champs. Dans celui proposé par Lisa Randall et Raman Sundrum en 1999, une cinquième dimension d’espace sépare deux branes de (3 + 1) dimensions. Une des branes, dite du TeV, correspond à notre monde, celui du modèle standard, tandis que dans l’autre, dite de Planck, l’intensité de la gravité est forte, du même ordre de grandeur que celle des autres interactions.

bulk

La métrique qui définit les échelles de distance et d’énergie est différente de près de seize ordres de grandeur entre les deux branes. Dans l’espace à cinq dimensions (bulk) qui fait la jonction entre les deux, elle est par conséquent très déformée, avec une variation exponentielle en fonction de la coordonnée y associée à la cinquième dimension. Les distances et le temps se dilatent en s’approchant de la brane du TeV, tandis que la masse et l’énergie se contractent. Cette différence a pour conséquence que la gravité, transmise par le graviton qui peut se propager dans le bulk, est ressentie avec une intensité beaucoup plus faible dans la brane du modèle standard.

92

Chapitre 4. Quelle forme pourrait avoir la nouvelle physique ?

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 93 — #109

i

i

5 Retour vers le big bang En 1915, avec la formulation de la théorie de la relativité générale par Einstein, les théoriciens eurent pour la première fois à leur disposition un cadre mathématique qui permettait d’aborder la description de l’Univers dans son ensemble, son évolution et son devenir. Dans les années 1920, le physicien russe Alexandre Friedmann et l’abbé-physicien belge Georges Lemaître découvrirent et étudièrent une solution des équations d’Einstein décrivant un univers évolutif, en expansion, à partir d’un état initial de très grande densité. Einstein s’était lui-même rendu compte de l’existence de ce genre de solutions et avait inventé la constante cosmologique pour éviter que l’Univers puisse être en expansion ou s’écrouler sur lui-même (section 3.2). L’idée d’un univers en expansion qui se serait développé à partir d’un état extrêmement dense a été formalisée dans le modèle cosmologique du big bang. Celui-ci s’est imposé à partir de trois observations fondamentales : la fuite des galaxies, le rayonnement cosmologique micro-onde, et la nucléosynthèse primordiale des éléments légers. Ce modèle, qui s’est développé tout au long du XX e siècle, est aujourd’hui communément accepté. Si certains aspects méritent encore d’être clarifiés et confirmés, en particulier ceux concernant la phase initiale de l’expansion, le schéma global restera très vraisemblablement valable à l’avenir. Toutefois, en 1998, il a encore subi une modification importante. Jusqu’alors, on pensait que l’expansion de l’Univers ralentissait avec le temps sous l’effet de la gravitation, retenant la fuite de la matière. L’observation et l’étude des supernovae lointaines ont révélé qu’après une phase de décélération initiale, l’Univers est en expansion accélérée depuis environ cinq milliards d’années (figure 5.1).

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 94 — #110

i

Univers en décélération constante

i

Univers d'abord en décélération puis en accélération

Maintenant

big bang big bang F IGURE 5.1. Schémas représentant l’évolution de l’Univers (symbolisé par un disque) en fonction du temps, depuis le big bang. Le schéma de gauche correspond à la vision que l’on avait, avant les années 2000, d’une expansion en décélération constante. Le schéma de droite, avec une ré-accélération depuis cinq milliards d’années due à la présence de l’énergie noire, correspond au modèle accepté aujourd’hui.

À la naissance de l’Univers, la matière était si dense et de température si élevée qu’aucune structure n’était possible : seuls des objets élémentaires, indissociables, pouvaient exister. Ainsi, le début de l’histoire est-il gouverné par la physique des particules. Nous verrons à la fin de ce chapitre comment le LHC pourrait répondre à certaines questions de cosmologie.

5.1

La fuite des galaxies

Dans les années 1920, grâce à la mise en œuvre du grand télescope du Mont Wilson en Californie, les astronomes américains Edwin Hubble et Milton Humason montrèrent que toutes les galaxies, à l’exception de quelques-unes très proches, semblaient s’éloigner avec des vitesses d’autant plus grandes qu’elles étaient loin de nous. Hubble et Milton mesurèrent ces vitesses de récession grâce à l’effet Doppler-Fizeau : en identifiant dans les spectres optiques des galaxies des lignes

94

Chapitre 5. Retour vers le big bang

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 95 — #111

i

i

spectrales bien connues, ils remarquèrent que celles-ci étaient toujours décalées vers le rouge. Cette méthode est toujours utilisée aujourd’hui. Les galaxies les plus lointaines que l’on peut observer se trouvent à des distances de l’ordre de dix milliards d’années-lumière, ce qui correspond à des valeurs du décalage spectral de l’ordre de huit à dix. Ces décalages caractérisent directement l’expansion de l’Univers 1 . La vitesse de récession des galaxies υ est régie par la loi de Hubble : υ = H0 d où d est la distance par rapport à notre galaxie et H0 la constante de Hubble. D’après les mesures les plus récentes du satellite Planck, sa valeur 2 est de 68 ± 1 km s−1 Mpc−1 . Si maintenant on déroule le film à l’envers, la fuite des galaxies que l’on observe aujourd’hui impliquerait l’existence dans le passé d’un état initial très dense, dans lequel aurait été concentrée toute la matière de l’Univers. Avec la loi de Hubble, on peut alors estimer, en première approximation, l’âge de l’Univers à 1/H0 , soit dix à quinze milliards d’années. Une estimation plus précise prend en compte le fait que la constante de Hubble n’est pas tout à fait constante, ainsi que notre connaissance de la densité de l’Univers et de sa géométrie à grande échelle 3 . On évalue alors l’âge de l’Univers à 13,8 milliards d’années. Cet état de densité et de température extrêmes, à partir duquel la matière de l’Univers aurait émergé dans une sorte d’explosion initiale, a été appelé le big bang par ses détracteurs, en particulier les astrophysiciens Fred Hoyle (Angleterre) et Jayant Narlikar (Inde). Ils défendaient alors la théorie concurrente de la création continue, ou théorie de l’état stationnaire, modèle largement accepté jusqu’en 1963. Il y a ici un certain abus de langage à parler d’explosion initiale, car il n’y a pas eu d’explosion et d’expansion de matière, dans un espace-temps préexistant : 1

2

3

Le décalage spectral d’un objet lumineux est défini par la relation z = (λobs − λ0 )/λ0 . La variable λ0 est la longueur d’onde de la lumière émise lors d’une transition atomique bien identifée, telle qu’elle est observée en laboratoire. Lorsque cette lumière est émise par une source astronomique lointaine, du fait de l’expansion de l’Univers, elle est observée avec une longueur d’onde λobs . On montre que 1 + z = a0 /a(t), a(t) étant le facteur d’échelle de l’Univers à l’époque où l’objet a émis la lumière qui nous parvient et a0 sa valeur actuelle. Le facteur d’échelle dépend donc de la localisation dans l’Univers que l’on étudie. Le mégaparsec (Mpc) est une unité de longueur adéquate pour les échelles extragalactiques et correspond à une distance d’environ 3,3 millions d’années-lumière soit 3,1 · 1019 kilomètres. La grande galaxie spirale la plus proche de la nôtre, Andromède (M31), est à deux millions d’annéeslumière, soit 0,7 Mpc. Les mesures actuelles de la densité donnent une valeur proche de la valeur critique ρc correspondant à un univers plat : ρc = 3H02 /(8πGN ) ∼ 5 · 10−6 GeV cm−3 , où GN est la constante de gravitation. Cette densité correspond à environ cinq protons par mètre cube, alors que la densité baryonique, correspondant à la matière visible, n’est que de 0,2 proton par mètre cube (figure 3.3 page 65).

L’AVENTURE DU GRAND COLLISIONNEUR LHC

95

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 96 — #112

i

i

l’espace, le temps et la matière ont justement été créés simultanément à partir de cette singularité initiale. 5.2

Le rayonnement cosmologique micro-onde

En 1963, deux physiciens des Laboratoires Bell aux États-Unis, Arno Penzias et Robert Wilson (prix Nobel en 1978), découvrirent par hasard un bruit de fond radio dans le domaine des micro-ondes. Il s’agissait d’un rayonnement uniformément réparti sur tout le fond du ciel, dont le spectre de radiation correspondait à celui de l’émission d’un corps noir parfait 4 , à la température de 2,73 kelvins. On s’est alors souvenu de la prédiction du physicien d’origine russe George Gamow, à la fin des années 1940 : un tel rayonnement aurait été émis au cours du refroidissement de l’Univers, au moment de la formation des atomes d’hydrogène à partir du plasma d’électrons et de protons. Il porterait donc la trace de ce passé. On l’appelle rayonnement cosmologique micro-onde (Cosmological Micro-wave Background, CMB) ou parfois rayonnement micro-onde fossile. Avec l’expansion et le refroidissement qui s’en est suivi, la température, à un certain moment, a suffisamment chuté pour que l’énergie d’agitation thermique moyenne, k B T (k B = 1,381 · 10−23 J K−1 étant la constante de Boltzmann 5 ), tombe au niveau de l’électronvolt, énergie de liaison typique d’un électron dans un atome. Les électrons ont alors été capturés dans les atomes d’hydrogène et d’hélium, quasiment les seuls noyaux existants à l’époque (voir section suivante). L’Univers, jusqu’alors opaque, est devenu transparent à la lumière : les photons émis à cet instant ont donc pu se propager librement et parvenir jusqu’à nous. Cette phase de l’évolution cosmique, appelée séparation de la lumière et de la matière, est située vers 380 000 ans après le big bang. Alors qu’elle était dominée jusqu’alors par le rayonnement, l’évolution de l’Univers est déterminée à partir de cet instant par la matière. Cette séparation entre matière et radiation advient lorsque la température de l’Univers est de quelques milliers de degrés (T ∼ 0,3 eV/k B ∼ 3 000 K). Le rayonnement cosmologique à 2,7 kelvins que nous observons aujourd’hui, et qui correspond à environ quatre cents photons par centimètre cube, est le dernier reflet de cette émission qui s’est refroidie d’un 4

5

Un corps noir est un corps idéal qui absorbe, sans la réfléchir ni la diffuser, toute l’énergie électromagnétique qu’il reçoit. Il réémet ensuite l’énergie qu’il a absorbée sous forme d’un rayonnement électromagnétique. À l’équilibre entre les rayonnements absorbés et réémis, le spectre en fréquence ne dépend que de la température absolue du corps noir. La constante de Boltzmann k B peut s’interpréter comme le facteur de proportionnalité entre la température d’un système et son énergie thermique, c’est-à-dire la moyenne des énergies d’agitation de ses constituants élémentaires. C’est la raison pour laquelle on exprime souvent la température d’un système en unité d’énergie, comme l’électronvolt.

96

Chapitre 5. Retour vers le big bang

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 97 — #113

i

i

facteur mille, correspondant au coefficient d’expansion de l’Univers depuis lors. Autrement dit, avec la dilatation de l’espace, les longueurs d’onde du rayonnement initial se sont allongées de ce même facteur. Elles sont passées du domaine du visible, de 0,2 à 0,6 micron, au domaine millimétrique où nous les mesurons aujourd’hui. La découverte du rayonnement cosmologique a sonné le glas du modèle théorique de l’état stationnaire et établi celui du big bang.

5.3

La nucléosynthèse primordiale des éléments légers

Remontons encore dans le temps. Environ 10−6 seconde après le big bang, la température a déjà baissé jusque vers 200 MeV, rendant possible la transition depuis le plasma de quarks et de gluons vers la phase hadronique (voir section 13.2.1). La température atteint ensuite des valeurs de l’ordre du MeV, ce qui correspond à l’ordre de grandeur de l’énergie de liaison des noyaux. Les premiers édifices nucléaires peuvent alors se former et subsister. C’est la période de la nucléosynthèse primordiale, qui se situe approximativement entre la première seconde et les premières minutes après le big bang. C’est pendant cette phase que se forment par exemple les noyaux d’hélium 4, 4 He, très stables, dont l’énergie de liaison est de 28 MeV. Le processus de formation consiste en deux réactions successives : la production de deutéron (c’est-à-dire d’hydrogène 2 H) dont l’énergie de liaison n’est que de 2 MeV, p + n → d, puis la capture d + d → 4 He. La production de deutéron est en compétition avec la désintégration du neutron, qui, lorsqu’il n’est pas incorporé à un noyau stable, a un temps de vie moyen d’environ quinze minutes. Le neutron disparaît donc rapidement de la scène, d’autant que le processus de production p + νe → n + e+ , qui est une réaction endothermique exigeant un apport d’énergie d’environ 1,5 MeV, se raréfie du fait de la baisse de température rapide du plasma 6 . À la fin de cette phase de nucléosynthèse, qui ne dure que quelques minutes, l’essentiel de la matière hadronique est constituée de protons (ou hydrogène 1 H), soit 75 %. La quantité d’hélium 4 He représente environ 25 %. Les autres éléments légers tels que le deutérium, le tritium (3 H), l’hélium 3 (3 He), le lithium (7 Li) ou le béryllium (7 Be) sont présents, à l’état de traces, au niveau de 10−5 à 10−10 par rapport à l’hydrogène 1 H (figure 5.2). Il est possible de mesurer ces taux en étudiant, par exemple, la composition d’étoiles très anciennes ou d’objets

6

La différence de masses entre le neutron et le proton est mn − m p = 1,3 MeV. L’AVENTURE DU GRAND COLLISIONNEUR LHC

97

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 98 — #114

i

i

F IGURE 5.2. À gauche, évolution de l’abondance des noyaux (exprimée en fraction de masse sur l’ordonnée de gauche) en fonction du temps après le big bang, au cours de la nucléosynthèse primordiale. La courbe rouge décroissante en pointillés représente l’évolution de la température (ordonnée de droite). Dès que cette température chute en dessous de 2 · 108 K, la nucléosynthèse se fige. L’hydrogène 1 H est l’élément le plus abondant (environ 75 % en masse), suivi de l’hélium 4 He (environ 25 %). Les autres isotopes et noyaux sont à l’état de traces. À droite, abondance des noyaux légers, normalisée à celle de l’hydrogène 1 H, calculée en fonction du rapport η de la densité de baryons sur la densité de photons. Les rectangles oranges correspondent aux mesures astrophysiques. En tenant compte des erreurs expérimentales, ces mesures sont compatibles. Elles sont en outre en accord avec la mesure de η réalisée indépendamment par l’expérience WMAP, à partir de l’étude des propriétés du bruit de fond cosmologique.

célestes tels que les quasars 7 , formés juste après la nucléosynthèse primordiale 8 . Les prédictions théoriques dépendent de manière sensible du rapport entre les nombres de baryons et de photons, Nb /Nγ , présents à ce moment-là. Ce rapport détermine en effet le taux de refroidissement du milieu et la probabilité que les nucléons se rencontrent et puissent fusionner. Pour une valeur de Nb /Nγ d’environ 6 · 10−10 , les calculs reproduisent bien les mesures, elles-mêmes en accord avec celle que l’on peut extraire, de manière totalement indépendante, de l’étude du rayonnement cosmologique micro-onde (figure 5.2 à gauche). 7

8

Un quasar (quasi-stellar radio source) est la région compacte entourant un trou noir extrêmement lourd au centre d’une galaxie massive. Les quasars sont les phénomènes les plus lumineux de l’Univers. Ces mesures doivent être corrigées des effets ultérieurs induits par la nucléosynthèse stellaire (voir paragraphe suivant).

98

Chapitre 5. Retour vers le big bang

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 99 — #115

i

i

Pendant cette phase, la température chute trop rapidement pour permettre la synthèse de noyaux plus lourds. Les autres éléments chimiques du tableau de Mendeleïev seront fabriqués ultérieurement, à partir de ces noyaux légers, dans les réactions de fusion nucléaire qui s’opèrent au cœur des étoiles : c’est la nucléosynthèse stellaire. Ceux plus lourds encore que le fer ou le cobalt, jusqu’à l’uranium, seront produits par capture de neutrons dans les explosions de supernovae et plus généralement dans les fins de vie explosives des étoiles massives. C’est ainsi que les étoiles restitueront au milieu interstellaire toute la variété des éléments chimiques nécessaire à l’apparition de la vie, là où les conditions seront adéquates.

5.4

L’Univers est en expansion accélérée

À partir de 1998, notre vision de l’Univers a été bouleversée par de nouvelles mesures astrophysiques très précises qui ont grandement raffiné les observations présentées dans les sections précédentes. La concordance entre les différentes mesures sensibles à la courbure de l’Univers et à la densité d’énergie-matière, par trois méthodes indépendantes, a permis de construire ce qu’on appelle maintenant le modèle standard de la cosmologie. Cette nouvelle vision d’un Univers en expansion accélérée est la conséquence de cet extraordinaire résultat de cosmologie 9 . La première de ces mesures est celle de la luminosité des supernovae de type Ia, en fonction de leur distance. Ces supernovae sont considérées comme des chandelles standards. Cela signifie qu’on est capable de calculer leur luminosité en fonction de leur distance, car le mécanisme thermonucléaire qui provoque leur explosion est assez bien connu et, surtout, supposé reproductible. Comme on l’a vu dans la section 5.1, cette distance peut également être estimée à partir de la 9

Quelle serait la conséquence lointaine d’une expansion de plus en plus rapide de notre Univers ? Selon un scénario appelé big rip (grand déchirement), la densité d’énergie noire pourrait augmenter sans limite (devenant une énergie dite fantôme), provoquant la désintégration de tous les objets formés par la gravitation : les planètes, les étoiles, les systèmes solaires et les galaxies. Ce n’est pas tout. L’expansion deviendrait tellement rapide que même les interactions électromagnétique et forte ne seraient plus assez intenses pour empêcher le déchirement des molécules, des atomes et même des noyaux. L’expansion aboutirait à une singularité dans laquelle toute matière composite serait scindée en ses structures élémentaires. Ce scénario catastrophe n’est toutefois qu’un des possibles destins de l’Univers évoqués en cosmologie. Sa réalisation (hypothétique) dépend du rapport ω entre la pression de l’énergie noire et sa densité, qui doit être inférieure à −1. Les données expérimentales (incluant les résultats recents du satellite Planck) ne permettent pas encore de trancher entre ω < −1, ω = −1, et ω > −1. Le cas ω = −1 est celui d’une constante cosmologique correspondant à une densité d’énergie constante et une croissance d’échelle exponentielle.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

99

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 100 — #116

i

,

,

,

,

,

,

,

i

,

F IGURE 5.3. Magnitude lumineuse des supernovae de type Ia en fonction de leur décalage spectral z, mesurée par différentes expériences. La magnitude est une fonction logarithmique de la luminosité définie de telle manière qu’elle est d’autant plus grande que la luminosité est faible.

mesure du décalage spectral z de la supernova 10 . C’est en observant, en 1998, que la luminosité apparente des supernovae lointaines était plus faible qu’attendue (figure 5.3) que Perlmutter, Schmidt et Riess ont montré que notre Univers était en expansion accélerée, vraisemblablement en raison de l’existence d’une énergie noire. La seconde observation concerne la structure des fluctuations de température du rayonnement cosmologique micro-onde que l’on voit sur la figure 3.1 page 63. La figure 5.4 montre le spectre en intensité de ces fluctuations en fonction de l’échelle angulaire avec laquelle on les mesure. La forme de ce spectre contient beaucoup d’informations sur les paramètres cosmologiques qui caractérisent la structure de l’Univers, comme sa courbure spatiale, la vitesse H0 de son expansion, l’abondance de matière baryonique, de matière noire et d’énergie noire. Par exemple, la présence de pics, appelés pics acoustiques, signale l’existence d’échelles privilégiées dont l’origine remonte à l’époque de la séparation de la lumière et de la matière, 380 000 ans après le big bang. Avant cette époque, l’Univers est rempli d’un plasma constitué de noyaux légers, d’électrons libres, de photons et de WIMP (voir section 4.1). Ce plasma n’est pas parfaitement homogène mais présente au contraire des fluctuations de densité, dont l’origine proviendrait de fluctuations quantiques juste après la phase d’inflation. Les régions plus denses attirent, par la gravitation, la matière des régions environnantes, moins denses. Ce phénomène est contrecarré par la pression de rayonnement des photons qui tend à repousser les baryons et les électrons. La présence de ces deux effets 10 La

mesure de z peut se faire aussi à partir du décalage spectral de la galaxie qui contient la supernova.

100

Chapitre 5. Retour vers le big bang

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 101 — #117

i

i

Échelle angulaire (degrés) 90

18

1

0,2

0,1

6 000

0,07

Planck Collaboration

D [µK2]

5 000 4 000 3 000 2 000 1 000 0

2

10

50

500

1 000

1 500

2 000

2 500

Moment multipolaire F IGURE 5.4. Spectre en intensité des fluctuations de température du rayonnement cosmologique micro-onde en fonction de leur échelle angulaire, mesuré par le satellite Planck. L’échelle angulaire est exprimée par un moment multipolaire ` tel que les grandes valeurs de ` correspondent à de petites tailles angulaires. À titre de comparaison, la taille angulaire du Soleil et de la Lune est d’environ un demi-degré.

contraires conduit à une instabilité qui se traduit par l’existence d’oscillations entre des phases denses et chaudes et des phases plus diluées et plus froides 11 . Ces oscillations de pression sont semblables aux ondes acoustiques dans un gaz. Au moment de la formation des atomes et de la séparation de la lumière et de la matière, elles se sont figées. La répartition entre les fronts d’onde plus chauds et ceux plus froids se traduit aujourd’hui par la présence des pics acoustiques dans le spectre de distance angulaire des fluctuations de température. La forme, la taille et la position de ces pics résultent d’une physique complexe, mais bien comprise, et dépendent de nombreux paramètres cosmologiques. Par exemple, la courbure spatiale détermine la position des pics. La densité de matière (noire et baryonique) détermine leur hauteur. La densité de baryons détermine la hauteur relative des pics. Jusqu’aux données du satellite Planck dévoilées en 2013, la précision limitée des mesures ne permettait cependant pas de déterminer simultanément tous les paramètres cosmologiques. Avec les données de WMAP seules par exemple, il n’était pas possible à partir du spectre en puissance des fluctuations de mesurer séparément l’abondance de matière et celle d’énergie noire sans faire l’hypothèse d’un Univers plat (de courbure spatiale nulle). Si on ne fait pas d’hypothèse sur la amplitudes sont très faibles : de l’ordre de 10−4 par rapport aux valeurs moyennes de densité et de température (voir figure 3.1).

11 Les

L’AVENTURE DU GRAND COLLISIONNEUR LHC

101

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 102 — #118

i

i

géométrie de l’Univers, cette dégénérescence géométrique introduit une corrélation entre les mesures des deux abondances qui apparaît clairement sur la figure 5.6. La troisième mesure est celle des oscillations baryoniques acoustiques (BAO). Comme les pics acoustiques du CMB, elles proviennent des fluctuations de densité du plasma avant la recombinaison des noyaux et des électrons en atomes. Cependant, on s’intéresse ici à la propagation des ondes acoustiques. Celles-ci se sont en effet d’abord propagées dans le plasma à une vitesse proche de celle de la lumière, avant de se figer au moment du découplage entre les photons et la matière, 380 000 ans plus tard, à une distance des surdensités initiales de l’ordre de 150 kiloparsecs. Cette distance entre zones d’accumulation de matière constitue une sorte de règle étalon qui va évoluer selon le facteur d’échelle de l’Univers, donné par le décalage spectral. Lorsqu’on observe aujourd’hui la distribution des distances entre galaxies, elle présente un excès aux alentours de 150 mégaparsecs (figure 5.5) : c’est le reflet de cette règle étalon originale, dans un univers qui s’est distendu depuis d’un facteur z d’environ mille. L’évolution en fonction du décalage spectral z de la longueur de cette règle standard, entre l’époque du découplage et aujourd’hui, nous renseigne sur la quantité de matière et d’énergie noire, ainsi que sur leur nature. Chacune de ces méthodes conduit à des mesures corrélées de la densité Ωm de matière (baryonique et noire), qui contribue au ralentissement de l’expansion de l’Univers, et de celle de l’énergie noire, ΩΛ , responsable de l’accélération de

F IGURE 5.5. Distribution des distances entre galaxies lointaines (pour tous les appariements possibles), mesurée par l’expérience SDSS-III BOSS. L’excès à une valeur de 100 h−1 Mpc ' 150 Mpc (où h ' 0,71 est la contante de Hubble réduite) est attribué à la présence d’ondes acoustiques baryoniques.

102

Chapitre 5. Retour vers le big bang

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 103 — #119

i

i

,

,

,

,

,

,

,

,

,

,

,

,

,

,

F IGURE 5.6. Résultats des mesures de la corrélation entre la densité actuelle d’énergie noire ΩΛ (dénommée ainsi en référence à la constante cosmologique Λ qui est la forme la plus simple d’énergie noire) et celle de matière (noire et baryonique) Ωm par trois méthodes complémentaires (supernovae, notée SNe, CMB et BAO, voir texte). Le résultat noté CMB est celui de l’analyse des données de WMAP. Ces densités sont exprimées relativement à la densité critique de l’Univers qui est celle qui conduit à une géométrie plate euclidienne (de courbure nulle). La densité d’énergie contenue dans les radiations Ωrad , dominante avant la recombinaison, est négligeable dans l’Univers actuel (Ωrad < 10−5 ). Un univers plat correspond donc à ΩΛ + Ωm = 1. Ces trois mesures sont en accord et montrent avec une bonne précision que l’Univers semble être plat, avec des densités relatives de matière et d’énergie noire conformes à la figure 3.3 page 65.

cette expansion. Les résultats 12 sont représentés sur la figure 5.6 : il est tout à fait remarquable que les trois mesures, basées sur des processus physiques très différents, soient en accord avec l’hypothèse d’un univers plat (de courbure nulle et donc décrit par la géométrie euclidienne) dans le cadre d’un modèle de big bang. 12 Cette

figure ne prend pas en compte les résultats de 2013 du satellite Planck. Grâce à des mesures d’effets de lentille gravitationnelle, les données de Planck permettent à elles seules de lever la dégénérescence géométrique. Elles sont désormais assez précises pour permettre la détermination simultanée de la courbure de l’Univers et des quantités Ωm et ΩΛ , sans l’aide des données des supernovae et des expériences de BAO.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

103

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 104 — #120

i

i

F IGURE 5.7. Histoire de l’Univers exprimée à l’aide des unités de temps, de température et d’énergie moyenne des photons.

5.5

Le big bang, la physique des particules et le LHC

Les lois de la physique qui régissent l’Univers avant la nucléosynthèse primordiale sont celles de la physique des particules, telle qu’elle est explorée aujourd’hui auprès des accélérateurs, en particulier le LHC. Les théories actuelles ne permettent toutefois pas de discuter quantitativement de la période qui se situe avant 10−43 seconde. Ce serait en effet le domaine de la gravité quantique, théorie qui n’existe pas encore sous une forme satisfaisante (section 3.6). Vers 10−43 seconde après le big bang, les objets élémentaires ont vraisemblablement une énergie de l’ordre de la masse de Planck, soit 1019 GeV, et sont peut-être soumis à une seule interaction unifiée. La température chutant avec l’expansion de l’Univers, cette interaction va se scinder en deux : d’un côté l’interaction gravi-

104

Chapitre 5. Retour vers le big bang

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 105 — #121

i

i

tationnelle et de l’autre la force unifiant les interactions forte et électrofaible. Les fluctuations quantiques vont alors donner naissance aux premières inhomogénéités dans la répartition de la matière, à l’origine des anisotropies de température du rayonnement cosmologique micro-onde, et qui vont ultérieurement engendrer les grandes structures de l’Univers. Les interactions forte et électrofaible se différencient à leur tour vers 10−35 seconde. C’est le début de la phase dite d’inflation. Selon un modèle encore spéculatif, l’expansion pendant cette période aurait eu une vitesse très supérieure à celle de la lumière, ce qui aurait permis à l’Univers de grossir d’un facteur considérable : 1026 ou, probablement, immensément plus 13 . L’idée d’inflation cosmologique a été introduite dans les années 1980 par les physiciens Alan Guth (États-Unis) et Andrei Linde (États-Unis et Russie) 14 pour expliquer les problèmes de l’horizon et de la platitude. Le premier est lié au fait que l’Univers, à très grande échelle, paraît uniforme (comme en particulier le rayonnement cosmologique micro-onde) alors que des régions très distantes l’une de l’autre n’ont jamais été en relation causale : c’est en principe le cas si la distance qui les sépare est trop grande pour être parcourue à la vitesse de la lumière dans un temps inférieur à l’âge de l’Univers. Le second fait référence à ce que la densité de matière-énergie observée aujourd’hui est si proche de la densité critique requise pour un univers plat (de courbure nulle), qu’il aurait fallu un ajustement incroyablement précis des valeurs des paramètres 10−35 seconde après le big bang. Après l’inflation, vers 10−32 seconde (temps très incertain), on entre dans une phase mieux comprise : elle est essentiellement décrite par la physique des particules que l’on connaît aujourd’hui, à cela près qu’il faut tout de même inclure certaines spéculations théoriques comme la grande unification et la supersymétrie. C’est probablement à cette époque qu’est engendrée l’asymétrie entre matière et antimatière au niveau d’une unité pour un milliard (voir section 3.3) : c’est tout ce qui survivra à la grande annihilation et ce à quoi nous devons notre existence. Entre 10−32 et 10−13 seconde, la température chute d’un facteur 1010 à 1 TeV environ. L’Univers contient alors toutes les particules du modèle standard, voire tout le spectre de particules supersymétriques, en particulier le neutralino χ˜ 01 (la LSP 13 S’agissant

du facteur d’échelle de l’Univers, cette vitesse d’expansion n’est pas en contradiction avec la théorie de la relativité d’Einstein. Une conséquence de cette croissance ultrarapide, et de l’expansion continue et même accélérée depuis, est que la dimension actuelle de l’Univers, dont la géométrie semble euclidienne, du moins pour sa partie visible, est d’au moins cinquante milliards d’années-lumière. Il est probable qu’elle soit encore bien plus grande, voire infinie. Dans tous les cas, la taille de l’Univers est bien supérieure à son âge (13,8 milliards d’années) multiplié par la vitesse de la lumière. 14 Le concept de l’inflation est également dans une certaine mesure associé à François Englert, un des pères du mécanisme de Brout-Englert-Higgs.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

105

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 106 — #122

i

i

du MSSM, voir section 4.1). À la fin de cette période, vers 10−13 -10−12 seconde, du fait qu’il n’interagit que très faiblement, le χ˜ 01 aurait évolué différemment du reste de la matière. Progressivement, sous l’influence de la gravitation, il se serait accumulé dans des zones de plus grande densité engendrées précédemment et donnerait lieu aujourd’hui aux halos de matière noire des galaxies et amas de galaxies. C’est lorsque la température k B T se situe entre 1 000 et 100 GeV qu’a lieu la transition électrofaible, c’est-à-dire la séparation des interactions électromagnétique et faible. Lorsque k B T tombe en dessous de 100 GeV, les bosons W et Z, devenus trop massifs par rapport à l’énergie d’agitation thermique, ne sont plus régénérés dans les collisions. Ils sortent de l’équilibre thermodynamique, se désintègrent très rapidement, en 10−23 seconde, et disparaissent définitivement de la scène universelle (jusqu’à ce qu’ils soient à nouveau produits au CERN, en 1982 !). Lorsque la température descend vers 100 GeV, l’Univers ne contient plus comme matière que les quarks et les leptons que nous connaissons aujourd’hui. Le quark top est juste en train de disparaître, car il est trop lourd (173 GeV) et sa durée de vie très courte (3 · 10−25 seconde). Puis, lorsque la température atteint quelques GeV, c’est au tour des quarks b et c, qui se désintègrent en 10−12 seconde, de disparaître. La matière de l’Univers est alors constituée de quarks légers (u, d et s), de gluons et de photons, le nombre de photons excédant le nombre de quarks de neuf ordres de grandeur ! Il ne reste alors plus qu’une transition majeure, vers 10−6 seconde, lorsque la température de l’Univers tombe aux alentours de 200 MeV : c’est la transition de phase QCD lors de laquelle la matière sensible à l’interaction forte, jusqu’alors sous forme de plasma de quarks et de gluons, va se condenser en hadrons, en premier lieu les protons (baryons composés des quarks uud) et les neutrons (udd). Aux alentours du MeV, les particules stables qui ne sont sensibles qu’à l’interaction faible, telles que les neutrinos, à leur tour se séparent du reste de la matière avec laquelle elles n’interagissent presque plus. Ce fond de neutrinos cosmologiques, figé environ deux secondes après le big bang, est maintenant, 13,8 milliards d’années plus tard, descendu à une température de deux kelvins environ (soit une énergie de 10−4 eV). Pour chaque espèce, il représente une densité, à travers tout l’Univers, d’environ quatrevingt neutrinos par centimètre cube. C’est ensuite que se déroule la phase de nucléosynthèse primordiale décrite dans la section 5.3. La formation des premiers atomes a lieu 380 000 ans après. Un demi-milliard à un milliard d’années plus tard, sous l’influence de la gravitation, les premières galaxies apparaissent et les premières étoiles s’allument, brûlant de leurs feux nucléaires et engendrant les noyaux lourds et ainsi les éléments chimiques qui seront un jour nécessaires au développement de la vie.

106

Chapitre 5. Retour vers le big bang

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 107 — #123

i

i

Qu’est-ce que le LHC peut apporter à la compréhension de l’Univers primordial ? Le fonctionnement en mode de collisions d’ions lourds a pour but l’exploration de la transition de phase QCD. Avec les collisions proton-proton de 7 à 14 TeV, c’est le contenu en particules de l’Univers à l’époque où les énergies par particule étaient de l’ordre du TeV, juste avant la brisure électrofaible, qui peut être étudié avec précision. Les questions que l’on se pose sont multiples : le boson de Higgs était-il là, y avait-il des particules supersymétriques, ou d’autres bosons de jauge tels que le W 0 et le Z 0 , porteurs d’interactions encore inconnues ? Il est important cependant de noter que les collisions du LHC provoquent une excitation extrêmement locale du vide. Si elles permettent de recréer les particules qui existaient avant la brisure électrofaible, l’équilibre thermodynamique correspondant à une température k B T d’un TeV n’est pas réalisé. Il n’est donc pas possible d’étudier la phase où les particules n’ont pas encore acquis leur masse via le mécanisme BEH. Les particules créées, telles que le W, le Z, le top, sont effectivement observées avec une masse non nulle.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

107

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 108 — #124

i

i

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 109 — #125

i

i

6 Le LHC Janvier 1983, découverte du boson W. Avril 1983, découverte du boson Z. Octobre 1984, le prix Nobel de physique est attribué à Carlo Rubbia et Simon van der Meer. En deux ans, la prééminence en physique des particules a basculé des États-Unis vers l’Europe. Les physiciens américains qui avaient dominé la scène de la physique des hautes énergies depuis la fin de la Seconde Guerre mondiale décidèrent alors de lancer un projet colossal, le Superconducting Super Collider (SSC), avec lequel ils écraseraient toute concurrence : ils dépasseraient de loin le potentiel de découverte du collisionneur proton-antiproton de 0,6 TeV du CERN, ¯ de celui de 1,8 TeV en phase de démarrage au Fermilab, le Tevatron, et du le SppS, collisionneur électron-positon, en construction au CERN, le LEP. Du même coup, ils distanceraient définitivement et de manière éclatante l’URSS dans cette course à la suprématie scientifique et technologique. Le SSC, un collisionneur protonproton de 40 TeV d’énergie dans le centre de masse, serait installé dans un tunnel circulaire de quatre-vingt kilomètres de circonférence au Texas, à Waxahachi près de Dallas. Voici la scène sur laquelle va prendre naissance le LHC.

6.1 6.1.1

Historique des techniques d’accélération Les cyclotrons et synchrocyclotrons, ancêtres du LHC

Avant de décrire le LHC, il est utile de faire un rappel des techniques d’accélération. Revenons tout d’abord aux accélérateurs circulaires, ancêtres directs du LHC. Dans un cyclotron, les particules (proton, deuton, particule α, etc.) sont tout d’abord produites par une source d’ions placée au centre de l’entrefer d’un

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 110 — #126

i

B

B

B

V

i

B

B

E

V B

t B

B B

F IGURE 6.1. Schéma de fonctionnement d’un cyclotron. La direction du champ magnétique est perpendiculaire à la page.

électroaimant dipolaire statique, c’est-à-dire dont le champ magnétique est fixe. Elles sont ensuite accélérées dans une enceinte à vide située entre deux électrodes creuses, en forme de D (figure 6.1). À l’intérieur des électrodes, elles sont soumises au champ magnétique ~B du dipôle qui courbe leur trajectoire. Considérons une particule de masse m, de charge électrique e et de vitesse ~υ dans un plan perpendiculaire à ~B. Sous l’influence de la force de Lorentz ~FL = e~υ × ~B, elle parcourt une trajectoire circulaire de rayon R. ~FL devant équilibrer la 2 force centripète ~FC = −m Rυ 2 ~R (où ~R désigne le vecteur position ayant son origine au centre du cercle), l’impulsion p de la particule est donc : p = mυ = eBR La particule est accélérée au passage entre les deux D par la force électrique ~FE = e~E, ~E étant le champ électrique au moment où la particule traverse cet espace. Si sa vitesse augmente, le temps T d’une révolution : T=

2πR 2πm = υ eB

reste constant tant que l’on demeure dans un régime cinématique non relativiste. Le champ électrique ~E change de direction de sorte que la particule est accélérée à chaque passage entre les électrodes. Sa fréquence d’oscillation f est fixée afin de coïncider avec la fréquence de révolution ω = 2π/T = 2π f de la particule. Au

110

Chapitre 6. Le LHC

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 111 — #127

i

i

fur et à mesure que la particule acquiert de la vitesse, elle circule sur une orbite d’un rayon R croissant, en spirale : R=

mυ eB

jusqu’au moment où elle atteint le bord de la pièce polaire qui peut avoir un rayon de l’ordre de un ou deux mètres. Le cyclotron fut inventé dans les années 1930 à Berkeley aux États-Unis par Ernest Lawrence (figure 6.2). La première machine de ce type, conçue en 1929 et testée en 1931, mesurait treize centimètres de diamètre. Les protons atteignaient une énergie de 80 keV. En quelques années, Lawrence réussit à construire un appareil de vingt-huit centimètres de diamètre, permettant de dépasser une énergie d’un F IGURE 6.2. Ernest Lawrence, prix Nobel en 1939 pour l’invention du cyclotron, qu’il avait d’abord nommé proton merryMeV. Les premiers cyclotrons go-round. Il tient dans ses mains son premier engin. furent utilisés pour la production de radio-isotopes et, en 1937, du premier élément artificiel, le technétium, grâce à un appareil mesurant près d’un mètre de diamètre. On put mettre ainsi en œuvre des appareils permettant d’accélérer des protons jusqu’à des énergies cinétiques d’environ 25 à 30 MeV. Cette limitation en énergie provenait du fait que les cyclotrons fonctionnaient à champ magnétique ~B et à fréquence accélératrice f fixes, tandis quep la particule accélérée, de masse au repos m0 , voyait sa masse relativiste m = m0 / 1 − (υ/c)2 augmenter graduellement avec sa vitesse 1 . La période de révolution T n’était alors plus constante et la particule se trouvait peu à peu déphasée par rapport à l’oscillation du champ accélérateur entre les deux électrodes en D. Cette limitation fut levée grâce à la synchronisation de la fréquence accélératrice f avec la période de révolution T : c’est le principe des synchrocyclotrons. De cette manière, on put augmenter les énergies des particules jusqu’à environ 600 MeV, une limite qui était imposée cette fois-ci par la taille des aimants di1

La masse au repos m0 est une caractéristique intrinsèque d’une particule. Dans le modèle standard, c’est la masse engendrée par le couplage au boson de Higgs. La masse relativiste m est le coefficient intervenant dans l’équation E = mc2 .

L’AVENTURE DU GRAND COLLISIONNEUR LHC

111

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 112 — #128

i

i

Coupe%d’un%% électroaimant%dipolaire% fer"

B"

B"

B"

Bobinages% Tube%à%vide% Dipôle% d’injec7on%

Cavité%d’%accéléra7on%HF% Sec7on%droite%

Dipôle% d’éjec7on% Vers%les%% expériences%

Injecteur% Source%de%protons%

Électroaimant%%

F IGURE 6.3. Schéma de principe d’un synchrotron.

polaires qui devaient contenir la trajectoire des particules : ils atteignaient alors plusieurs mètres de diamètre et pesaient des milliers de tonnes.

6.1.2

Les synchrotrons

L’étape suivante dans le développement des accélérateurs fut l’invention des synchrotrons. Au lieu des gigantesques pièces polaires des cyclotrons et synchrocyclotrons, les particules sont désormais accélérées dans une chambre à vide circulaire de rayon fixe, enserrée dans une couronne où règne un champ magnétique dipolaire (figure 6.3). Le rayon du dispositif peut alors être de plusieurs dizaines, voire centaines de mètres. Dans le synchrotron, le champ magnétique B varie lui aussi au cours du cycle d’accélération. Au moment de l’injection des particules, lorsque leur impulsion est faible, B est également faible. Il croît ensuite au fur et à mesure que l’impulsion des particules augmente sous l’effet du champ électrique. Le champ magnétique doit être présent sur pratiquement toute la circonférence de l’accélérateur de manière à ce que les particules décrivent une trajectoire circulaire ou quasi circulaire. En revanche, le champ électrique oscillant qui accélère les particules est localisé en un ou quelques endroits sur le pourtour de la machine. Il est généré par des cavités radiofréquence accélératrices dont la fréquence varie elle aussi avec l’augmentation de la vitesse des particules. Les particules circulent en général, non pas comme une suite continue, mais sont regroupées en paquets, suivant autant que possible la même trajectoire. On parle cependant de faisceau de particules pour désigner l’ensemble des paquets.

112

Chapitre 6. Le LHC

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 113 — #129

i

A

i

B

F IGURE 6.4. À gauche, salle de contrôle du Cosmotron, le premier grand synchrotron à protons construit à partir de 1948 à Brookhaven. À droite, Saturne, au Centre d’études nucléaires de Saclay, premier synchrotron français, construit en 1958. Plusieurs fois modifié et amélioré, il fonctionna jusqu’en 1997.

Le premier grand synchrotron à protons, le Cosmotron de Brookhaven, fut mis en service en 1953. Il pouvait accélérer des protons jusqu’à une énergie de 3 300 MeV, soit 3,3 GeV. Il fut utilisé pour bombarder des cibles de protons ou de noyaux, et permit la découverte des hypérons Σ0 et Σ−1 (voir encadré 2.2). En 1956, démarra un autre grand synchrotron à protons, le Bevatron de Berkeley, ¯ n’avait alors jamais été conçu pour produire des antiprotons. L’antiproton ( p) observé mais la théorie prédisait qu’il puisse être produit dans la réaction 2 ¯ Une fois de plus, l’idée était donc de produire un faisceau de pp → pp + p p. protons pour bombarder une cible de protons. Or, un calcul relativiste simple (voir encadré 6.1 sur la production d’antiprotons) montre que l’énergie cinétique des particules incidentes devait être d’au moins 6 GeV. C’est l’énergie qui fut atteinte avec le Bevatron, ce qui permit d’observer des antiprotons pour la première fois en 1956 et des antineutrons l’année suivante. On construisit des synchrotrons également en Europe, par exemple Saturne à Saclay en 1958, qui fonctionna à une énergie de 3 GeV, Nimrod, en GrandeBretagne, qui atteignit 7 GeV en 1964, et le Synchrophasotron de 10 GeV en URSS. Toutefois, aucune grande découverte n’y fut faite. Malgré ces divers succès, le développement des synchrotrons rencontra une difficulté technique dans le fait que les particules avaient tendance à osciller latéralement par rapport à la trajectoire idéale. Dans cette première génération de machines, les déviations transverses pouvaient être très importantes. Il fallait donc des tubes à vide très larges (un mètre pour le Synchrophasotron !) et par 2

Le proton appartenant à la famille des fermions, il est nécessairement produit par paire particuleantiparticule (voir encadré 2.2).

L’AVENTURE DU GRAND COLLISIONNEUR LHC

113

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 114 — #130

i

A F IGURE 6.5.

i

B

À gauche, vue de face d’un aimant quadripolaire. À droite, combinaison de deux sextupôles enserrant un aimant dipolaire.

conséquent des entrefers d’aimant très grands. Le coût du fer de retour du champ, atteignant des niveaux prohibitifs, limitait le champ magnétique et donc l’impulsion maximale des particules accélérées. C’est alors que fut inventé le principe de focalisation forte, simultanément par Nicholas Christophilos et Ernest Courant aux États-Unis et Vladimir Veksler en URSS. L’idée était de séparer les deux fonctions du champ magnétique : celle de courber la trajectoire de la particule à accélérer pour la maintenir, approximativement, sur un cercle, et celle de focaliser le faisceau, c’est-à-dire de maintenir les particules sur des trajectoires proches de la trajectoire idéale centrale. Dans les synchrotrons de la première génération, la focalisation était obtenue en modifiant la forme des pièces polaires de façon à produire une force de rappel vers le centre. L’idée de la focalisation forte fut d’ajouter aux dipôles de courbure des aimants de type quadripôle jouant le rôle de lentilles magnétiques. Dès lors, on organisa les aimants en suite de dipôles de courbure et de quadripôles de focalisation (figure 6.5), diminuant ainsi sensiblement les déviations des trajectoires dans le plan transverse à la direction du faisceau. Le diamètre du tube à vide put alors être réduit à une dizaine de centimètres seulement. Cela permit de réduire également la taille et le poids des aimants, et donc le coût des machines, tout en augmentant les énergies d’accélération. Les deux premières machines de ce type furent le synchrotron à protons (PS) du CERN, entré en fonction en 1959, avec un diamètre de deux cents mètres et une énergie de 27 GeV, et l’AGS (Alternating Gradient Synchrotron) de Brookhaven en 1960, de même taille et fonctionnant à 32 GeV. En 1967, un synchrotron à protons de 70 GeV fut construit à Protvino en URSS. En 1972, Fermilab mit en service un synchrotron à protons de 6,3 kilomètres de circonférence et de 200 GeV d’énergie (portée à 400 GeV en 1976). En 1976, le CERN renchérit avec le supersynchrotron à protons (SPS) de 450 GeV et sept kilomètres de circonférence. Dans les années

114

Chapitre 6. Le LHC

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 115 — #131

i

i

1980, Fermilab installa des aimants supraconducteurs dans son synchrotron, ce qui permit d’augmenter l’énergie des faisceaux à près de 1 000 GeV, justifiant le nom de Tevatron pour cette nouvelle machine. Encadré 6.1. Pour produire des antiprotons, prendre d’abord des protons.

¯ Dans le formalisme de la relativité restreinte, la Prenons la réaction pp → pp + p p. somme des quadrivecteurs impulsion-énergie des particules incidentes est égale à la somme des quadrivecteurs impulsion-énergie des trois protons et de l’antiproton de l’état final. Exprimée dans le référentiel du laboratoire où le proton cible est au repos, le quadrivecteur somme incident s’écrit :

( Einc , pinc ) + (m p , 0) Au seuil de la réaction, tous les produits de l’état final sont au repos dans le référentiel du centre de masse de la réaction où le quadrivecteur somme s’écrit : 4( m p , 0) L’égalité des normes de ces deux quadrivecteurs, que l’on peut calculer dans n’importe quel référentiel, conduit à : 2 m2p + 2 m p Einc = 16 m2p d’où : Einc = 7 m p . L’énergie cinétique du proton incident est donc Einc − m p = 6 m p , soit environ 6 GeV.

6.2

Les collisionneurs hadroniques

6.2.1

Le premier collisionneur proton-proton : les ISR

Dans les années 1960, on construisit au CERN un collisionneur proton-proton, les ISR (Intersecting Storage Rings, ou annaux de stockage à intersections). Mis en service en janvier 1971, il s’agissait de deux anneaux distincts avec deux tubes à faisceaux et deux systèmes d’aimants dipolaires de courbure et de quadripôles de focalisation. Deux faisceaux de protons circulaient dans des directions opposées et se croisaient à certains endroits (figure 6.6). C’est l’ancêtre le plus direct du LHC. Les protons étaient accélérés dans le PS, puis injectés dans les ISR où ils circulaient pendant des heures, entrant en collision en des points d’intersection bien définis, où étaient installés des détecteurs. L’énergie dans le référentiel du centre de masse des deux protons entrant en collision pouvait varier de 20 à 60 GeV. Le courant de protons était de plusieurs ampères ce qui lui conférait

L’AVENTURE DU GRAND COLLISIONNEUR LHC

115

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 116 — #132

i

i

F IGURE 6.6. Vue d’un point d’interaction de l’anneau de stockage ISR au CERN. Les deux lignes d’aimants distinctes correspondant aux deux faisceaux de protons circulant en sens inverse appaissent clairement.

une très grande luminosité (voir encadré 6.2). Cette machine, alors unique en son genre, fut un tour de force technique et technologique qui démontra la grande maîtrise des ingénieurs et concepteurs d’accélérateurs du CERN. Ce fut également un banc de test pour le collisionneur qui allait suivre, le collisionneur proton-antiproton. Elle a fonctionné jusqu’à la fin des années 1970. On y a en particulier confirmé la structure en quarks des protons mise en évidence quelques années plus tôt à SLAC (section 2.1). 6.2.2

Le collisionneur proton-antiproton du CERN, le Spp¯ S

Comme on l’a vu dans la section 2.3, le principal enjeu de la physique des particules expérimentale dans les années 1970 était d’observer les bosons W et Z dont les masses devaient se situer entre 80 et 100 GeV. Or, le dispositif expérimental utilisé à l’époque était en général constitué d’un faisceau de protons bombardant une cible fixe. Malgré une énergie du faisceau incident qui pouvait atteindre de l’ordre de 450 GeV, l’énergie dans le centre de masse de la collision ne pouvait excéder les 30 GeV environ 3 . Malgré l’innovation que représentaient 3

√ Pour une particule incidente d’énergie E très supérieure à sa masse au repos, l’énergie s dans le centre de masse de la collision avec un nucléon au repos est égale à la norme de la somme des

116

Chapitre 6. Le LHC

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 117 — #133

i

i

Encadré 6.2. La luminosité d’un collisionneur.

La luminosité correspond au taux de collisions à la seconde. Elle est essentiellement déterminée par deux facteurs : le nombre de protons circulant dans les deux faisceaux (le courant) et la focalisation au point de collision, c’est-à-dire la concentration des faisceaux dans le plan perpendiculaire à leurs trajectoires (plan transverse), à l’endroit où ils entrent en collision frontale. La luminosité d’un collisionneur s’écrit de la façon suivante : L = f r · nb ·

Np,1 Np,2 4π σx σy

où Np,1(2) est le nombre de protons par paquet dans chacun des faisceaux 1 ou 2, nb le nombre de paquets de protons qui entrent en collision à chaque tour du faisceau, f r la fréquence de révolution des faisceaux dans l’anneau (donnée par le rapport entre la vitesse de la lumière et la circonférence) et σx,y les dimensions des faisceaux à leur point de croisement dans les deux directions x et y du plan transverse. La luminosité L décroît exponentiellement avec le temps, par perte progressive des faisceaux : on parle de leur temps de vie. Il peut être de l’ordre d’une journée. Une autre grandeur importante est la luminosité intégrée, c’est-à-dire l’intégrale sur le temps total de prise des données de la luminosité. Connaissant la section efficace de production σi d’un certain type d’événements i, il est aisé de connaître le nombre d’événements attendu Ni correspondant à une luminosité R intégrée Lint = L(t) dt, où L(t) est la luminosité à un instant t : Ni = σi · Lint La dimension de la section efficace étant celle d’une surface, on exprime généralement la luminosité instantanée en cm−2 s−1 . L’unité utilisée pour la luminosité intégrée est le barn−1 , le barn étant l’unité de section efficace : 1 barn = 10−24 cm2 . Les sous-multiples sont particulièrement utiles pour les valeurs qui nous intéressent au LHC : 1 pb−1 = (10−12 barn)−1 = 1036 cm−2 et 1 fb−1 = (10−15 barn)−1 = 1039 cm−2 . Un collisionneur qui tourne avec une luminosité instantanée moyenne de 1033 cm−2 s−1 = 0,001 pb−1 s−1 pendant vingt-quatre heures livre donc une luminosité intégrée de 86 pb−1 .

les ISR pour lesquels l’énergie de la collision proton-proton atteignait 60 GeV, le W et le Z restaient inaccessibles. C’est alors qu’intervinrent, en 1976, David Cline, Peter McIntyre et Carlo Rubbia. Ils proposèrent de convertir un des grands synchrotrons à protons existants (le SPS du CERN ou celui de Fermilab) en collisionneur proton-antiproton. quadrivecteurs impulsion-énergie : √ obtient s = 30 GeV.



s = |( E,pinc ) + (m p ,0)| =

L’AVENTURE DU GRAND COLLISIONNEUR LHC

p

2m p E. Pour E = 450 GeV, on

117

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 118 — #134

i

i

Il s’agissait de faire circuler un faisceau de protons et un faisceau d’antiprotons dans le même anneau, le même tube à vide, mais dans des directions opposées. Ces deux particules étant l’antiparticule l’une de l’autre, les forces électromagnétiques dans l’accélérateur-collisionneur seraient exactement opposées. Amenés en collision frontale, les deux faisceaux pourraient ainsi donner des énergies dans le centre de masse proton-antiproton de plusieurs centaines de GeV. Seule une fraction de cette énergie, 1/6 en moyenne, est en fait disponible dans les collisions entre constituants fondamentaux des protons et antiprotons, c’est-à-dire principalement dans les collisions quark-antiquark. On savait déjà dans les années 1970 qu’environ la moitié de l’impulsion d’un proton était portée par les gluons (qui ne participent pas directement à la création des W et Z), les 50 % restants étant partagés par les trois quarks de valence du proton (ou antiquarks de l’antiproton). Avec deux faisceaux d’environ 300 GeV circulant en sens inverse, cela représentait tout de même une énergie dans le centre de masse de la paire quark-antiquark entre 50 et 200 GeV, donc suffisante pour la production des bosons recherchés. La difficulté principale du projet de collisionneur proton-antiproton était d’obtenir un faisceau d’antiprotons suffisamment intense pour qu’on puisse espérer produire assez de W et de Z pour pouvoir les observer. La section efficace de production prédite, dans les modes de désintégration contenant des électrons ou des muons nécessaires à l’identification de ces bosons, est en effet plutôt faible : 0,5 nb pour le W et dix fois moins pour le Z. Les antiprotons pouvaient être obtenus en bombardant une cible fixe, par exemple avec le faisceau de 27 GeV du PS, avec un taux de production d’un antiproton par million de collisions. Cependant, ils étaient alors produits avec des impulsions et des directions en sortie de la cible très variables, et ne pouvaient pas être directement captés, collectés et accélérés en nombre suffisant pour former un faisceau avec l’intensité exigée. On dit que ces antiprotons sont chauds. Ce problème fut résolu grâce au principe du refroidissement stochastique proposé par Simon van der Meer en 1968 (voir encadré 6.3). Confiant dans la qualité de son système d’accélérateurs, le CERN fut le premier à se lancer dans l’aventure du collisioneur proton-antiproton. Les deux ¯ jusqu’à environ 300 GeV faisceaux étaient accélérés par le SPS, devenu SppS, puis étaient amenés en collision au centre de chacun des détecteurs, UA1 et UA2. Les collisions ont d’abord été produites à des énergies dans le centre de masse de 540 GeV de 1981 à 1983, puis de 630 GeV de 1984 à 1990. La découverte des bosons W et Z, décrite dans la section 2.3, fut un succès éclatant du CERN.

118

Chapitre 6. Le LHC

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 119 — #135

i

i

Encadré 6.3. Le refroidissement stochastique.

Le refroidissement stochastique consistait à capter le plus possible d’antiprotons produits autour de 3 GeV d’impulsion par le PS, puis de les faire circuler dans un anneau spécial, l’accumulateur d’antiprotons, où ils étaient soumis à des impulsions électriques correctives pour réduire leur dispersion en impulsion et en direction. Il s’agissait de détecter la déviation moyenne du barycentre du paquet d’antiprotons à un endroit sur la circonférence de l’anneau, et, tandis que le paquet d’antiprotons parcourait un demicercle, d’envoyer au point opposé sur la circonférence un signal électrique pour corriger cette déviation, juste au moment du passage de ce même paquet devant les électrodes. En répétant cette opération pendant des heures, il a été possible de refroidir le faisceau d’antiprotons, c’est-à-dire de graduellement réduire les mouvements et les impulsions dans la direction transverse. On a ainsi obtenu un faisceau d’antiprotons froids de densité suffisante et de dispersion transverse et longitudinale adéquate pour être réinjecté de l’accumulateur d’antiprotons dans le PS. La période d’accumulation des antiprotons durait à peu près douze heures. Pendant ce temps environ un milliard d’antiprotons étaient accumulés, refroidis et stockés, prêts ¯ à être injectés dans le PS où le faisceau était accéléré jusqu’à 27 GeV, puis dans le SppS jusqu’à environ 300 GeV. Il y était maintenu ainsi pendant plusieurs heures, l’accélérateur fonctionnant alors en mode anneau de stockage proton-antiproton.

6.2.3

Le Tevatron de Fermilab

À peu près au moment où van der Meer proposait sa méthode de refroidissement stochastique, Gersh Budker, brillant physicien de Novossibirsk (URSS) qui avait conçu la série des collisionneurs électron-positon VEPP, proposa une autre méthode de refroidissement des antiprotons. Cette méthode, appelée refroidissement par électrons, consistait à produire un faisceau intense d’électrons englobant le paquet d’antiprotons chauds et se déplaçant à la même vitesse que lui. Le mouvement désordonné des antiprotons était ainsi graduellement transféré aux électrons. Cette méthode fut très longue à être mise en œuvre, et ce n’est que vers la fin des années 1990 qu’elle put être utilisée pour la deuxième phase du collisionneur proton-antiproton du Fermilab 4 . Le Tevatron entra en service en 1986. Grâce à l’utilisation d’aimants supraconducteurs, l’énergie de collision dans le centre de masse était de 1,8 TeV, supplantant ainsi le collisionneur du CERN qui fut arrêté en 1990. L’énergie fut augmentée ensuite jusqu’à 1,96 TeV de 2001 à 2011. Le Tevatron, auprès duquel furent implantés deux grands appareillages, CDF et DØ, a fonctionné pendant plus de vingt ans, avec une luminosité qui n’a cessé de s’améliorer. Il fut notamment le 4

Le premier niveau de refroidissement dans le Tevatron était toujours obtenu par refroidissement stochastique, le refroidissement par électrons intervenant à un deuxième niveau et à plus haute énergie dans la chaîne d’accélération.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

119

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 120 — #136

i

i

lieu de la découverte du quark top en 1995 et de la première observation d’oscillations ultra-rapides entre un méson neutre contenant un quark beau et un quark étrange, Bs0 , et son antiméson, B0s , en 2006 (voir section 13.1). L’arrêt définitif de ce collisionneur eut lieu en septembre 2011. Les difficultés budgétaires, mais également l’excellent fonctionnement du LHC en 2010, ont été des facteurs majeurs dans cette décision. 6.3 6.3.1

Le lancement du LHC LHC contre SSC

L’idée d’installer un accélérateurcollisionneur de protons dans le tunnel du LEP avait été évoquée dès la conception de celui-ci au début des années 1980. En avril 1983, deux spécialistes des accélérateurs, Stephen Myers et Wolfgang Schnell, publièrent une note (figure 6.7) présentant ce concept. L’année suivante, un atelier de travail fut organisé par Giorgio Brianti, à Lausanne, lors duquel physiciens et experts en accélérateurs s’accordèrent sur le principe d’un collisionneur de protons et de noyaux : cet événement est considéré par beaucoup comme le coup d’enF IGURE 6.7. Première page de la LEP-note-440 présenvoi officiel du projet LHC. tant l’idée d’un collisionneur de protons installé dans le Entre-temps, les États-Unis avan- tunnel du LEP. cèrent un projet concurrent : le SSC. Grâce à son tunnel gigantesque (quatre-vingt kilomètres de circonférence), il pouvait atteindre relativement aisément une énergie dans le centre de masse de 40 TeV : c’était deux à trois fois supérieur à ce qui était envisageable avec les vingt-sept kilomètres du LHC. Lorsque le SSC fut officiellement décidé en 1987, l’idée du LHC fut donc sérieusement remise en question. Plus risquée dans ses choix technologiques, la construction de ce dernier n’a finalement été décidée qu’à l’issue d’un processus long et douloureux. Grâce à la taille de son tunnel, le SSC pouvait se reposer sur des techniques plus conventionnelles. Les aimants de courbure devaient certes être supraconducteurs pour fournir un champ de cinq à six teslas, mais cela était toutefois

120

Chapitre 6. Le LHC

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 121 — #137

i

i

nettement inférieur aux huit à dix teslas exigés par la configuration du LHC. De même, le SSC était conçu pour fonctionner avec deux tubes à vide et deux systèmes d’aimants indépendants (comme les ISR), alors qu’en raison de l’espace réduit, un seul système pouvait être installé dans le LHC. Le SSC devait en principe entrer en fonctionnement au début des années 2000. Le coût estimé lors du lancement du projet était de six milliards de dollars. En 1989, il était passé à neuf milliards, et en 1993, lorsque le projet fut définitivement abandonné, l’estimation avait atteint onze milliards. Le tunnel avait alors été en partie creusé et près de deux milliards de dollars avaient été dépensés dans les travaux de génie civil et le développement des aimants. Le manque de contrôle apparent des coûts a sans aucun doute été un facteur important dans l’annulation du projet, mais non le seul. Le contexte politique international avait profondément changé en quelques années : avec la fin de la guerre froide, la volonté de domination technologique des États-Unis sur l’URSS qui avait fortement bénéficié à ce type de grands projets n’était plus de mise. La très forte opposition d’éminents physiciens américains venant de domaines autres que la physique des hautes énergies, et naturellement le fait que cette même physique serait faisable au LHC à un moindre coût pour les citoyens américains, ont fait le reste. Le grand avantage du SSC sur son conccurent, à savoir qu’il aurait été plus aisé d’augmenter ultérieurement son énergie et sa luminosité, n’a pas suffit à faire pencher la balance en sa faveur.

6.3.2

1989 : lancement du projet LHC

Si par ailleurs l’idée du LHC a survécu, c’est surtout, selon Lyn Evans, chef du projet pendant dix-huit ans, grâce à la ténacité et la résolution de Carlo Rubbia. En septembre 1989, récemment nommé directeur général du CERN, celui-ci lança une étude du potentiel de physique d’un éventuel accélérateur-collisionneur de protons, situé dans le tunnel du LEP, fonctionnant à une énergie dans le centre de masse de 17 TeV et une luminosité de 1034 cm−2 s−1 . Les bosons W et le Z ayant été découverts quelques années auparavant, le nouvel objectif de la physique des hautes énergies était la recherche du boson de Higgs, ainsi que la recherche de physique au-delà du modèle standard, en particulier de la supersymétrie. L’idée principale était d’employer le tunnel déjà existant du LEP et d’y installer des aimants de courbure de champ maximum concevable à cette époque. On espérait un champ de près de dix teslas, ce qui permettrait d’accélérer les protons jusqu’à une énergie de 8,5 TeV par faisceau. Le LHC devait compenser son infériorité d’un facteur deux à trois en énergie par rapport au SSC par une luminosité dix fois supérieure.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

121

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 122 — #138

i

i

Il devait également être capable d’accélérer des ions lourds, en particulier des noyaux de plomb. Le but était de provoquer des collisions plomb-plomb à une énergie dans le centre de masse nucléon-nucléon d’environ 5 TeV, c’est-à-dire près de trente fois plus que dans le collisionneur RHIC (Relativistic Heavy Ions Collider) alors en construction à Brookhaven aux États-Unis 5 . Le projet initial du LHC incluait également la possibilité d’avoir des collisions entre un faisceau de proton du LHC à une énergie de 8 TeV et un faisceau d’électrons ou de positons du LEP d’une énergie de 50 à 100 GeV. Le seul collisionneur électron-proton alors en construction au centre de DESY à Hambourg, dénommé HERA 6 , devait fonctionner avec des protons de 800 GeV et des électrons ou positons de 30 GeV. 6.3.3

1990 : étude du potentiel de recherche

L’évaluation du potentiel de recherche et de découverte du LHC dans tous les modes de fonctionnement envisagés (proton-proton, plomb-plomb et électronproton) a duré un an et impliqué environ deux cent cinquante physiciens. Il s’agissait essentiellement d’identifier les modes de production et de désintégration les plus prometteurs pour la découverte du boson de Higgs, de particules supersymétriques, ou encore d’éventuels nouveaux bosons de jauge de haute masse W 0 et Z 0 (voir section 12.3). Afin d’estimer le potentiel de découverte, il fallait également évaluer le niveau des bruits de fond, c’est-à-dire des processus standards et bien connus qui contiennent soit les mêmes particules dans l’état final que ceux que l’on recherche, soit des particules avec des propriétés suffisamment proches pour qu’on puisse les confondre. Les résultats de ces études ont été présentés en octobre 1990 lors d’une conférence à Aix-la-Chapelle en Allemagne, considérée depuis comme l’événement fondateur du LHC. Tous les aspects du projet y ont été discutés : la faisabilité de la machine, les recherches et découvertes possibles, jusqu’aux premières idées sur les détecteurs. Le résultat essentiel de cette année d’étude a été l’évaluation détaillée de la capacité d’observer le boson de Higgs quelle que soit sa masse 7 . C’est ainsi qu’ont rapidement émergé plusieurs modes de désintégration particulièrement intéressants pour la détection du Higgs : les désintégrations en deux photons (H → γγ), en deux bosons Z (H → ZZ), et en deux bosons W (H → WW). Dans le premier cas, il s’agit simplement de détecter deux photons. Lorsque le Higgs se désintègre en deux bosons Z, chacun d’eux peut se désintégrer en deux leptons, e+ e− , µ+ µ− ou τ + τ − . S’il n’est pas aisé de détecter une paire de leptons 5 6 7

Ce collisionneur est entré en service au début des années 2000. HERA a fonctionné de 1990 à 2007 et a permis une étude approfondie de la structure du proton et de la QCD. À l’époque, le domaine de masse envisageable allait de 100 à 1 000 GeV.

122

Chapitre 6. Le LHC

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 123 — #139

i

i

τ, en revanche, les électrons et les muons constituent une signature intéressante. L’un des deux Z peut également se désintégrer en une paire de neutrinos, ¯ qui traverse le détecteur sans interagir. Avec un détecteur parfaitement νν, hermétique, on peut alors voir qu’il manque de l’énergie dans le bilan de la collision reconstruite, ce qui constitue une signature des neutrinos. C’est ainsi que l’on identifie également la désintégration H → WW lorsque les bosons W se désintègrent chacun en un lepton et un neutrino. Le W peut également se désintégrer en deux quarks qui en s’hadronisant donnent deux jets de particules dans le détecteur. Ces modes de désintégration de l’hypothétique Higgs ont très largement influencé la conception des grandes expériences ATLAS et CMS (voir chapitre 8). Leurs calorimètres électromagnétiques ont dû répondre aux contraintes de précision imposées par le mode H → γγ, alors que leurs spectromètres internes (détection des particules chargées) et externes (détection des muons), ainsi que leurs systèmes magnétiques (courbure de la trajectoire des particules chargées pour mesurer leur impulsion) ont été conçus en fonction notamment des particularités du mode H → ZZ. On a également pris soin de concevoir des détecteurs aussi hermétiques que possible pour pouvoir évaluer l’impulsion emportée par d’éventuelles particules indétectables comme les neutrinos, voire d’éventuels neutralinos, candidats supersymétriques à la matière noire. Au-delà de la problématique attachée à la recherche du boson de Higgs, tout le potentiel de recherche du LHC a été passé en revue. La production et la désintégration du quark top, qui n’a été trouvé qu’ultérieurement en 1995 au Tevatron, furent étudiées en détail, ainsi que les précisions attendues sur la mesure de sa masse. On estima qu’il serait possible de découvrir les particules supersymétriques si leurs masses étaient inférieures à 2 TeV, ou encore les bosons de jauges W 0 et Z 0 jusqu’à 4 TeV 8 . Le message essentiel de la conférence d’Aix-la-Chapelle fut que le LHC, en dépit de son énergie de collision nettement inférieure, pouvait néanmoins être compétitif avec le SSC, et ce grâce à une luminosité dix fois plus grande. En outre, il devait pouvoir être opérationnel plus tôt et surtout, il était beaucoup moins cher. 6.3.4

Contraintes sur les expériences

Pour atteindre la très haute luminosité requise, le LHC fut conçu de sorte que les 2 800 paquets de protons constituant les faisceaux se succèdent à des intervalles de vingt-cinq nanosecondes, soit sept mètres de distance. Il devait donc y avoir 8

La recherche de dimensions spatiales supplémentaires, ou celle de micro-trous noirs, sont des sujets d’études qui se sont ajoutés plus tardivement au programme du LHC.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

123

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 124 — #140

i

A F IGURE 6.8.

i

B

Simulation dans le trajectomètre de CMS d’un événement à haute luminosité avec un empilement d’une vingtaine de collisions proton-proton issues du croisement de deux paquets. Sur la figure de gauche, la trajectoire des protons est perpendiculaire au plan de la figure. La figure de droite montre une vue longitudinale (sur une dizaine de centimètres le long de la ligne de faisceau) de la zone proche du point d’interaction d’un événement enregistré en 2011.

un croisement entre deux paquets, au centre des détecteurs, toutes les vingt-cinq nanosecondes également. Chaque paquet contenant environ cent milliards de protons, on s’attendait à provoquer en moyenne vingt collisions proton-proton par croisement ! Or, une fraction très faible de ces collisions, moins d’une sur dix millions, produit un événement intéressant : un quark top, un W, un Z, ou simplement un processus du modèle standard que l’on souhaite étudier plus en détail. Les événements contenant un Higgs ou des éventuels W 0 , Z 0 , ou particules supersymétriques, sont encore plus rares (voir figure 10.1, page 191). Ces conditions de fonctionnement ont imposé des contraintes très fortes sur la conception des détecteurs. D’une part, ceux-ci devaient avoir un temps de réponse très bref, d’autre part, ils devaient avoir une très fine granularité, c’est-àdire être constitués d’un très grand nombre de cellules élémentaires pour pouvoir distinguer la multitude de particules produites au même instant (figure 6.8). Le trajectomètre en silicium de CMS est ainsi constitué de 66 millions de pixels et de dix millions de micropistes, tandis qu’ATLAS compte 80 millions de pixels. En outre, les détecteurs et l’électronique installée directement sur ceux-ci devaient être résistants aux radiations.

6.4 6.4.1

Le long chemin vers le démarrage du LHC La mise au point des aimants

Les études de recherche et développement (R&D) pour la mise au point des aimants du LHC ont été lancées dès 1990. Il s’agissait de concevoir d’une part

124

Chapitre 6. Le LHC

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 125 — #141

i

i

les aimants dipolaires pour courber les faisceaux dans le tunnel de l’accélérateur et d’autre part les aimants quadripolaires pour les focaliser. Deux types de supraconducteurs à basse température, du niobium-titane (NbTi) et du niobiumétain (NbSn), ont été initialement envisagés. La technologie du niobium-titane étant beaucoup plus avancée et bien mieux maîtrisée, on s’est rapidement focalisé sur ce supraconducteur. Le niobium-étain pouvait en théorie permettre des champs plus élevés mais le matériau étant extrêmement friable et peu malléable, sa mise en œuvre aurait nécessité un développement technique trop long dans cette course avec le SSC. C’est le CERN qui a eu la responsabilité principale du développement des dipôles, pièces maîtresses du LHC, tandis que le CEA et le CNRS ont développé les quadripôles. La R&D sur les dipôles a demandé dix ans et trois générations de prototypes avant d’aboutir à des aimants donnant satisfaction. Les aimants de la première génération étaient des prototypes de taille réduite (un mètre). Ceux de la seconde génération avaient dix mètres de long tandis que les aimants finals ont une longueur de plus de quatorze mètres. Il s’agit d’aimants fonctionnant à 1,9 kelvin (−271 ◦ C), refroidis à l’hélium superfluide. Il est devenu rapidement évident qu’on pourrait atteindre, de façon stable, un champ magnétique de 8,3 teslas 9 et non pas de dix teslas comme espéré initialement. Les faisceaux pourraient ainsi être accélérés jusqu’à 7 TeV, c’est-à-dire que la vitesse des protons atteindrait 0,999 999 991 fois celle de la lumière, soit à peine dix kilomètres par heure de moins 10 ! L’énergie de collision dans le centre de masse proton-proton serait donc de 14 TeV. En avril 1994, on réussit à faire fonctionner pour la première fois un prototype d’aimant de courbure de dix mètres de long, à 8,3 teslas. Ce fut une étape décisive de la longue conception de ces aimants qui toutefois ne s’acheva qu’en 2002, avec les toutes dernières modifications. La principale innovation, qui a rendu la construction du LHC possible, est le concept d’aimants deux-en-un, représenté sur les figures 6.9 et 6.10. De quoi s’agit-il ? Dans les collisionneurs proton-proton précédents, par exemple les ISR, les deux faisceaux circulant en sens inverse dans la machine étaient accélérés et maintenus en circulation dans deux tubes à vide distincts, chacun au centre d’un système complet et indépendant d’aimants de courbure, de focalisation et de correction. Le SSC avait été conçu selon le même principe. Le concept deux-en-un mis en œuvre pour la première fois au LHC nécessite deux fois moins d’aimants car les deux tubes à vide des deux faisceaux de protons sont incorporés dans une même structure magnétique et une même enceinte cryogénique. Le prix à payer est que ces aimants sont bien plus complexes et 9

Cela correspond à 160 000 fois l’intensité du champ magnétique terrestre !

10 On peut comparer ce chiffre à la vitesse des protons et antiprotons au Tevatron, d’environ 480

km/h

inférieure à celle de la lumière.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

125

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 126 — #142

i

i

Enceinte'à'vide' Écran'de'protec0on'thermique' Superisola0on' Cylindre'de'serrage'/'enceinte'hélium' Liaison'électrique'quadripôle'

Inser0on'magné0que' Culasse'magné0que' Colliers'amagné0ques' Bobines'supraconductrices' Liaison'électrique'dipôle' Écran'de'protec0on'thermique' Échangeur'de'chaleur' Tube'à'faisceau' Liaison'électrique'auxiliaire' Ligne'de'cryogénie' Faisceau'1'avec'paquets'de'1011'protons' Faisceau'2'en'direc0on'opposée'

F IGURE 6.9. Schéma d’un aimant dipolaire (de courbure) du LHC. On remarque, au centre, les deux tubes à vide distants de dix-huit centimètres, dans lesquels circulent les faisceaux dans des directions opposées. La direction du champ magnétique est de bas en haut dans le tube de droite et de haut en bas dans le tube de gauche.

rendent l’accélérateur moins souple dans la manipulation des faisceaux qui sont alors totalement couplés. Pour le LHC, en réalité, il n’y avait guère le choix, car la section transversale du tunnel du LEP de six mètres de diamètre ne permettait pas d’installer deux systèmes d’aimants côte à côte. Il ne faut pas oublier que le tunnel devait également contenir sur toute sa longueur un système cryogénique complexe et volumineux nécéssaire aux aimants, et éventuellement un anneau d’électrons. NéanF IGURE 6.10. Schéma illustrant le concept deux-en-un moins, il s’agissait là d’une décision des aimants du LHC. risquée et d’une grande audace au vu des connaissances de l’époque sur les aimants et la dynamique des accélérateurs que l’on doit en grande partie à Carlo Rubbia.

126

Chapitre 6. Le LHC

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 127 — #143

i

i

En 2002, les performances exigées ayant été atteintes avec les prototypes de la troisième génération, la production des 1 232 dipôles nécéssaires ainsi que de quarante dipôles supplémentaires fut enfin lancée. Les commandes furent réparties sur quatre grandes entreprises européennes spécialisées dans la fabrication d’aimants : Alstom (France), Ansaldo (Italie), Noell et Siemens (Allemagne). Des ingénieurs de ces entreprises ont passé une année avec les chercheurs au CERN pour maîtriser la procédure de fabrication avant de lancer la production dans leur propre entreprise : un bel exemple de transfert de technologie vers l’industrie européenne. Le développement des aimants quadripolaires, avec un gradient de champ de 223 teslas par mètre, a été moins difficile. Ce sont également des aimants supraconducteurs deux-en-un, au niobium-titane, fonctionnant à 1,9 kelvin. Environ 750 aimants quadripolaires supraconducteurs de plusieurs types sont nécessaires. Leur longueur va de trois à douze mètres et leur poids atteint jusqu’à dix-huit tonnes. Deux prototypes ont été construits et testés avant de lancer la production définitive entre 2004 et 2007, essentiellement dans l’industrie allemande. Le LHC a également exigé la production d’environ cinq mille petits aimants correcteurs multipolaires, fabriqués essentiellement au Royaume-Uni et en Inde. Entre 1994 et 1998, un premier élément de base de l’accélérateur composé de prototypes a été mis en place et utilisé pour tester et valider les aspects électriques, mécaniques et cryogéniques des différents composants. De 2003 à 2007, période pendant laquelle a eu lieu la production industrielle, l’assemblage et les tests de validation des aimants dipolaires, on pouvait voir sur plusieurs sites du CERN dans le pays de Gex des centaines de longs cylindres bleus alignés (figure 6.11). C’étaient les dipôles du LHC en attente, prêts pour le

A

B

F IGURE 6.11. À gauche, dipôles du LHC alignés dans le pays de Gex en attente d’installation dans le tunnel. À droite, descente du premier dipôle le 7 mars 2005.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

127

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 128 — #144

i

i

F IGURE 6.12. Vue de la caverne ATLAS en juillet 2002 pendant la phase de renforcement du plancher. La ligne des faisceaux sort au centre du mur du fond de la caverne.

montage dans le tunnel, une fois que celui-ci serait en état de les accueillir. La qualité des aimants était contrôlée au fur et à mesure qu’ils étaient livrés. Les physiciens des expériences suivaient avec le plus grand intérêt l’avancement des livraisons et les performances des aimants, car tout dépendait de ces dipôles !

6.4.2

Les huit octants du LHC et les zones expérimentales

Le tunnel du LHC est situé à environ cent mètres sous terre (figures 6.12 et 6.13). Il est subdivisé en huit octants, d’environ 3,5 kilomètres de long, contenant chacun de l’ordre de trois cents aimants (figure 6.14). On accède à la machine et aux zones expérimentales grâce à huit puits, un par octant. Les systèmes de cryogénie et d’alimentation électrique sont également séparés en huit secteurs, indépendants les uns des autres, qui vont du milieu d’un octant au suivant. On parlera ainsi du secteur 7-8 pour désigner le secteur qui va du milieu de l’octant 7 au milieu de l’octant 8.

128

Chapitre 6. Le LHC

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 129 — #145

i

i

F IGURE 6.13. Alignement des aimants supraconducteurs dans le tunnel du LHC. Les cylindres bleus correspondent à la surface externe de l’enceinte à vide des dipôles.

Les deux grandes expériences ATLAS et CMS sont installées aux puits 1 et 5. Le détecteur ALICE, conçu plus spécialement pour étudier les collisions plombplomb, se trouve au puits 2. L’expérience LHCb au puits 8 est spécialisée dans l’étude de la physique du quark b. Les octants 3 et 7 sont destinés au nettoyage et la collimation des faisceaux. L’octant 6 est équipé du système de décharge des faisceaux nécessaire pour les arrêter. Le système d’accélération radio-fréquence est dans l’octant 4. Pour installer les expériences ATLAS et CMS, de grandes cavernes souterraines ont dû être construites. Avec cinquante mètres de long et trente-cinq mètres de large, celle d’ATLAS constitue une des plus importantes excavations souterraines jamais réalisées (figure 6.12). Le plafond de 1 380 mètres carrés est suspendu à l’aide d’un système d’ancres insérées dans la roche à partir de galeries creusées latéralement. La caverne a été inaugurée en 2003. Pour pouvoir effectuer les travaux d’excavation de celle de CMS, il a fallu geler le sol à l’azote liquide sur quarante mètres de profondeur car l’emplacement était traversé par une rivière souterraine. Les travaux de génie civil ont été terminés en février 2005 et l’équipement de la caverne en octobre 2006. L’excavation et l’équipement de chacune des deux cavernes ont coûté environ 80 millions de francs suisses. Quant aux expériences LHCb et ALICE, elles ont plus simplement hérité des salles d’expériences du LEP.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

129

i

i i

i

ble Uses ofiRapid Switching Devices and Induction RF for an LHC Upgrade “master” — 2014/2/12 — 18:17 — page

i

130 — #146

i

i

F. Zimmermann, CERN, Geneva, Switzerland

Low ß (pp) High Luminosity

Dump

Low ß (Ions)

ct an n

LHC-B

tio

tio n

ATLAS Low ß (pp) High Luminosity

ec

ec

In j

In j

Octant 1

O

t2

an

ALICE

Cleaning

t8

Cleaning

Octant 7

Octant 3

t6

O ct

an

an

ct O

t4

Octant 5

ct

INTRODUCTION

CMS

RF

& Future Expt.

O

Accelerator Network on High Energy adron Beams (CARE HHH) is studying C Luminosity and enegry upgrades. The considered foresee either the compensabeam-beam collisions by pulsed electrowhich may be realized via fast switches, b cavities. Both the wire pulser and the ould benefit from the technological adon rf devices. In addition, the generation represents a possible use of induction rf ade, promising high luminosity at modcurrent. While the present LHC detece the event pile up implied by this type nches remain an attractive solution for a ng electron-proton collider based on LHC called QCD Explorer.

Low ß (B physics)

F IGURE 6.14. Segmentation du LHC en huit octants et emplacement des expériences et des diverses fonctionnalités de l’accélérateur. Figure 1: Layout of the LHC with its four interaction points

ron Collider (LHC) now under construc[1]. he world’s next energy-frontier machine. proton beams with a centre-of-mass enUne fois les travaux de génie civil pour les tunnels d’accès et les zones times the energy of the Tevatron’s protonaddressed in the following two sections. Proceeding, we terminés, le système cryogénique a été installé sur les vingtns) at design and ultimateexpérimentales luminosities of discuss long-range beam-beam compensation using wires sept kilomètres du next, LHC.crab Encavities. mars 2005, ce fut la descente du premier aimant d cm s (about 100 times and, Lastly, the merits and drawbacks e et dernier aimant de la machine a été installé en dipolaire (figure 6.11). Le 1 232 ron). The start of the LHC ring comof superbunches and their possible use at a QCD Explorer eduled for the fall of 2007, and2007. the first avril Chacun de ces dipôles, de concludes quinze mètres de long, d’environ trenteare examined. The reports with a summary and cted in spring 2008. Figure 1 shows the et d’une cinq tonnes, outlook.valeur moyenne d’un million de francs suisse, devait être the LHC, with two proton beams circu-et aligné Many of the developments e.g., higherpositionné avec une précision discussed, de l’ordre dethe cent micromètres (trois pipes and crossing each other at the four energy injectors, long-range beam-beam compensation usfois l’épaisseur d’un cheveux). Cette précision devait être respectée sur tout le wo high-luminosity experiments ATLAS ing a pulsed electromagnetic wire, rf crab cavities, supourtour de la machine ! C’était un véritable tour de force, mais également le prix physics experiment LHC-B, and the ion- perbunches or the QCD Explorer, may profit from recent parfaitement le champ magnétique, établir les faisceaux ent ALICE, respectively. à payer pour maîtriser progress in induction-rf technologies, which has been the de protons rapidement, assurer qu’ils aient le temps vie nécessaire ears, we are already considering possible focus of the RPIA (Recent Progress in Induction Accelera- et atteindre la voulue aux points d’interaction. Avec 65 % des ving-sept kilomètres de this unique facility; see,luminosité e.g., Ref. [2]. tion) 2006 workshop. e LHC luminosity upgrade has become circonférence du LHC occupés par des aimants supraconducteurs fonctionnant of the CARE (“Coordinated Accelerator à 1,9 kelvin, le LHC est le plus grand réfrigérateur du monde et l’endroit le LHC UPGRADE pe”) [3] HHH network [4],plus which is supfroid de l’Univers (sauf s’il existe d’autres civilisations plus avancées que la 6th Framework Programme of the Euronôtre). En outre,HHH dans les tubes où circulent les faisceaux règne un vide quasiment parallel development of higher field maginterstellaire ! ual LHC energy upgrade) is the objective The European Accelerator Network on High Energy pean Joint Research Activity, called NED High Intensity Hadron Beams (HHH) [4] was launched in Dipole”) [5]. 2004. The goals of this network are (1) to develop a road organized as follows. We first describe map for the upgrade of the European accelerator infrastructure (LHC & GSI complexes), (2) to prepare the technical work and strategy of the LHC upgrade. new higher-energy injectors. Stronger realization and scientific exploitation of the upgraded facilnd various interaction-region ities, and (3) to guide pertinent accelerator R&D and ex- Chapitre 6. Le LHC 130choices are

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 131 — #147

i

i

Protons'accélérés' à'7 000'GeV'

LHC SPS Protons'accélérés'à'450'GeV'

PS

Injec4on'des'protons'

Protons'accélérés'à'26'GeV'

F IGURE 6.15. Le complexe d’accélérateurs-injecteurs du CERN.

6.4.3

Le coût du LHC

Le système magnétique deux-en-un des dipôles et quadripôles a permis une économie financière considérable. Si ce système est plus complexe et donc plus cher, le fait qu’il nécessite deux fois moins d’aimants a réduit la facture d’environ 600 millions de francs suisses. La réutilisation du tunnel du LEP a de même permis d’économiser un milliard de francs. Enfin, on a gagné un autre milliard en se basant sur le système d’injection et d’accélération déjà existant au CERN (figure 6.15) 11 . Le prix du LHC, machine seule sans les expériences, était estimé initialement à 3,5 milliards de francs suisses, soit à peu près un tiers du prix du SSC en 1992. Le démarrage devait avoir lieu vers l’an 2000, avant le SSC. Finalement le coût global a été de 4,8 milliards de francs suisses 12 (3,8 milliards pour le matériel et 1,0 milliard pour le personnel), payé à 85 % par les États membres du CERN. Les États non membres ont contribué pour 600 millions de francs suisses (États-Unis : 11 Avant

d’être injectés dans le LHC, les protons issus d’atomes d’hydrogène sont injectés et accélérés dans le Linac 2, puis dans le PS (jusqu’à une énergie de 26 GeV) et le SPS (450 GeV) pour être finalement accélérés jusqu’à 7 TeV dans le LHC. 12 Ce coût inclut la mise à niveau de la chaîne d’injection en amont du LHC (figure 6.15).

L’AVENTURE DU GRAND COLLISIONNEUR LHC

131

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 132 — #148

i

i

Alimenta@on( Infrastructure(&( Installa@on(&( services( électrique( coordina@on( 3(%( 2(%( 2(%( Ges@on(&(études( √s/20)

2

10

1

0

1

σW σZ

10 10

2

10

jet

10

0

10

σjet (ET > 100 GeV)

-1

-1

10

10

-2

-2

10

10

σWW

-3

10

-3

10

σt σZZ σggH

-4

10

-4

10

{

MH=125 GeV

-5

10

σWH

-5

10

σVBF

-6

10

-6

10

WJS2012

-7

0.1

-2 -1

10

σtot

7

33

Section efficace proton−(anti)proton (nb)

8

10

10

i

Événements / sec pour L = 10 cm s

i

-7

1

10

10

Énergie dans le centre de masse (TeV) F IGURE 10.1. Sections efficaces de production (ordonnée de gauche) et taux d’événements pour une luminosité instantanée de 1034 cm−2 s−1 (ordonnée de droite) en fonction de l’énergie dans le centre de √ masse de la collision proton-proton ( s). La ligne pointillée correspond à l’énergie de fonctionnement nominale du LHC (14 TeV). On remarque que le taux de production du boson de Higgs dépend fortement de cette énergie. Fonctionner à la moitié de l’énergie nominale réduit ce taux par un facteur supérieur à trois pour un Higgs de 126 GeV. On peut aussi noter le rapport de plus de 109 entre le taux d’événements tout venant, σtot , et le taux de production d’événements avec un Higgs.

10.1.1

La reconstruction

La figure 10.2 montre une vue légèrement artistique d’un événement enregistré par le détecteur ATLAS lors de la première période de prise de données, en 2010, à une énergie de 7 TeV. Sur la petite vue transversale à gauche dans la figure, où nous sommes placés au centre du détecteur et regardons dans la direction des faisceaux de protons, nous voyons une multitude de points jaunes : ils représentent les signaux enregistrés par le détecteur interne. On a pu relier certains de ces points et reconstruire les trajectoires de particules chargées provenant du point d’interaction des protons. Connaissant le champ magnétique ambiant, la courbure des trajectoires (quasiment imperceptible pour celles des muons, représentées en rouge) permet de mesurer l’impulsion de la

L’AVENTURE DU GRAND COLLISIONNEUR LHC

191

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 192 — #208

i

i

F IGURE 10.2. Un événement enregistré par le détecteur ATLAS en mai 2010 et sélectionné comme boson Z se désintégrant en deux muons (traces en rouge). La structure mécanique et les cryostats des aimants ont été représentés en gris. Les parallélépipèdes en bleu et trapèzes en vert correspondent aux chambres à fils qui ont été touchées par les muons.

particule. D’autres points n’ont pas été associés à des trajectoires, soit parce qu’ils correspondent à des signaux factices (du bruit électronique), soit parce qu’on n’a pas réussi à les relier à des trajectoires provenant de l’interaction des protons initiaux. Sur la vue en trois dimensions, on voit que certaines trajectoires du détecteur interne ont pu être associées à des traces reconstruites dans la couche la plus extérieure d’ATLAS : le détecteur à muons. Selon toute vraisemblance, il y a donc eu deux muons produits lors de cette collision. Chaque événement enregistré par ATLAS ou CMS est traité par un logiciel dit de reconstruction qui permet précisément, à partir des signaux détectés, d’obtenir la charge, la direction et l’impulsion des particules produites lors de la collision (figure 10.3). Lorsque la particule est neutre, c’est sur les calorimètres que l’on se base pour en déterminer l’énergie. C’est un travail sophistiqué et essentiel pour la suite de l’analyse. Dans ATLAS, la reconstruction d’un événement demande en moyenne de l’ordre de dix secondes de temps calcul sur un processeur standard. Après la sélection en ligne par le système de déclenchement, le taux

192

Chapitre 10. L’analyse des données

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 193 — #209

i

i

F IGURE 10.3. Événement enregistré par le détecteur ATLAS. Lors du croisement de deux paquets, vingt-cinq collisions proton-proton ont eu lieu. Un boson Z se désintégrant en deux muons a été produit dans une des collisions. C’est grâce à la présence de ces deux muons de haute énergie que le système de déclenchement a provoqué l’enregistrement de l’événement. Lors de sa reconstruction numérique, on a ensuite su distinguer les multiples vertex.

d’événements écrits sur les disques de stockage est de plusieurs centaines par seconde. Une première reconstruction de tous les événements est effectuée au CERN avec un décalage d’environ deux jours. Elle nécessite la mise en œuvre de dix mille processeurs pour suivre le rythme de la prise de données. Une deuxième campagne de reconstruction des mêmes données est effectuée quelques mois plus tard lorsque l’on dispose de meilleures données de calibration et

L’AVENTURE DU GRAND COLLISIONNEUR LHC

193

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 194 — #210

i

i

d’alignement. Il s’agit alors de reconstruire en deux à trois semaines toutes les données accumulées en plusieurs mois. Une telle entreprise requiert des moyens informatiques bien au-delà de ceux disponibles au CERN comme on le verra dans la section 10.2 sur la grille de calcul. 10.1.2

Calibration et alignement des sous-détecteurs

Avant de procéder à la reconstruction des événements, il est nécessaire de connaître avec une certaine précision les facteurs de conversion qui permettent de passer des signaux numérisés en provenance des sous-détecteurs à des grandeurs directement utilisables par les programmes de reconstruction : énergie déposée dans un calorimètre, position géométrique d’un signal électrique correspondant au passage d’une particule chargée dans un plan d’échantillonage d’un trajectomètre, etc. Dans le cas d’un calorimètre à argon liquide comme celui d’ATLAS, ces signaux correspondent à la charge électrique produite par l’ionisation de l’argon par les particules chargées d’une gerbe électromagnétique. Pour des calorimètres à scintillation, comme ceux de CMS et le calorimètre hadronique d’ATLAS, il s’agit de l’intensité lumineuse produite par scintillation et transformée en charge électrique par des photomultiplicateurs ou des diodes à semi-conducteurs 2 . Dans le cas des calorimètres, on parle de calibration 3 pour désigner cette détermination des facteurs de conversion. Pour les trajectomètres, on nomme alignement les procédures qui permettent de connaître la position géométrique des élements de base tels que les micropistes et pixels de silicium ou les fils des chambres à dérive. Les procédures de calibration se font en plusieurs étapes et dépendent de la nature du calorimètre. Un premier étalonnage est effectué dans les années précédant l’installation du calorimètre dans la caverne. Il consiste à exposer les modules à un faisceau de particules dont l’énergie est connue et à mesurer la réponse. Par la suite, lorsque le détecteur est en fonctionnement, la calibration est contrôlée à intervalle de temps régulier. Pour les calorimètres à cristaux scintillants et à effet Tcherenkov, on injecte au niveau des cristaux, via des fibres optiques, une quantité de lumière bien connue. Ceci permet d’étalonner toute la chaîne de lecture en aval et par exemple dans le cas de CMS, de compenser la diminution avec le temps de la lumière captée due à la perte de transparence des cristaux 4 . Dans le cas de l’argon liquide, c’est une charge électrique précise 2 3 4

Il en est de même pour le calorimètre à effet Tcherenkov (voir encadré 13.1) en quartz qui constitue une partie du calorimètre hadronique de CMS. Le lecteur nous pardonnera cette entorse au français. Si le terme de calibrage est le mot correct, il a été totalement supplanté par son équivalent anglais. La transparence des cristaux est affectée par les radiations qu’ils subissent pendant la prise de données. Elles sont d’autant plus importantes que la luminosité instantanée est grande. Lorsque

194

Chapitre 10. L’analyse des données

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 195 — #211

i

i

et dont le profil en temps est semblable à celui provoqué par une particule chargée qui est injectée en amont de l’électronique de lecture. L’étape finale de la calibration fait appel aux données des collisions proton-proton elles-mêmes. Par exemple, grâce à la très bonne connaissance que l’on a de la masse du Z, on peut utiliser les paires e+ e− provenant de sa désintégration pour préciser l’échelle d’énergie absolue. Au final, on obtient une uniformité de réponse et une connaissance de l’échelle d’énergie des gerbes électromagnétiques avec une précision meilleure que le pourcent. L’alignement des chambres à fil des spectromètres à muons repose essentiellement sur des systèmes optiques qui utilisent la propagation en ligne droite de la lumière (figure 10.4). Dans ATLAS par exemple, ce sont dix mille triplets composés d’une diode laser, d’une lentille et d’un capteur CCD qui sont utilisés. Positionnés très précisément (à mieux que trente microns par rapport aux fils), ils permettent d’aligner les 1 200 chambres à dérive avec une précision meilleure que cinquante microns. Ainsi, l’impulsion d’un muon de 1 TeV peut être mesurée avec une précision d’environ 10 %. F IGURE 10.4. Schéma du système d’alignement optique Les données des capteurs CCD d’un bouchon du spectromètre à muons du détecteur ATsont analysées plusieurs fois par LAS. Un réseau de rayons lumineux (en vert et bleu) permet de reconstruire la position des chambres avec une précijour pour suivre d’éventuels mou- sion meilleure que cinquante microns. Seuls deux secteurs vements des chambres dus aux va- de chambres sont représentés sur la figure. riations de température. L’alignement des trajectomètres internes est basé sur l’utilisation des traces produites par des particules de haute impulsion dans les collisions protonproton. Il est rendu possible grâce au fait que l’on dispose de nombreux points d’échantillonage par trace : plus de quinze, au lieu de trois ou quatre dans le cas des spectromètres à muons. À l’aide d’une procédure d’ajustement, plus de 30 000 paramètres libres correspondant aux degrés de liberté géométriques le LHC est arrêté, on observe une récupération spontanée mais partielle. Sur une année, la perte n’est que de quelques pourcents dans la partie centrale mais atteint 40 % pour les cristaux les plus proches des faisceaux.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

195

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 196 — #212

i

i

des plaquettes de silicium composant le détecteur (voir par exemple figure 8.6, page 154) sont déterminés, en optimisant la qualité de reconstruction de plusieurs millions de traces. Au final, un alignement d’une précision meilleure que dix microns est obtenu. La résolution sur la mesure de l’impulsion des particules de haute énergie est alors essentiellement limitée par la précision de mesure des plaquettes de silicium elles-mêmes. 10.1.3

Sélection du signal, réduction et détermination du bruit de fond

L’objectif d’une analyse en phyToutes'les'traces' sique des particules est la mise en évidence d’un signal caractéristique du phénomène physique recherché, comme la production d’une nouvelle particule dont on connaîtrait les proT'>'25'GeV' duits de désintégration. On re- Traces'avec''p ' cherchera alors les événements correspondant à un état final prédit, à l’aide d’une sélection basée sur un ensemble de variables cinématiques mesurées par le détecteur : impulsion d’un cer- F IGURE 10.5. Simulation d’une collision proton-proton produitain type de traces (figure 10.5), sant un boson de Higgs se désintégrant en quatre muons via nombre de jets et leur énergie, deux bosons Z. La figure représente les traces des particules énergie transverse manquante, chargées reconstruites dans le détecteur interne de CMS. En masse invariante d’un certain sélectionnant celles qui correspondent à des impulsions transverses supérieures à un certain seuil, on retrouve facilement type de particules, etc. Le plus les muons provenant du Higgs. souvent, la sélection s’effectue en coupant sur les valeurs de ces variables, c’est-à-dire en se restreignant à une plage de valeurs caractéristiques de l’état final recherché. L’échantillon d’événements sélectionnés est rarement pur : une certaine fraction provient de phénomènes physiques déjà connus conduisant à un état final similaire. C’est ce qu’on appelle le bruit de fond. Parfois (souvent !), la totalité des événements sélectionnés sont explicables par le bruit de fond seul et on doit conclure à l’absence du signal recherché. Des méthodes de sélection, a priori plus performantes que celle des coupures, ont été développées pour traiter des cas difficiles où il y a peu de variables très discriminantes pour séparer le signal du bruit de fond (voir l’encadré 10.1 sur les méthodes multivariées).

196

Chapitre 10. L’analyse des données

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 197 — #213

i

i

Evénemenets, σ...

À l’issue de la procédure de sélection, la mise en évidence du signal s’effectue Signal résonant en géneral à partir de la distribution statistique d’une ou plusieurs variables caractéSignal non résonant ristiques du signal recherché : masse invariante, énergie manquante ou autre combinaison de variables cinématiques des parBru ticules de l’état final (figure 10.6). La proit de fon d duction d’une nouvelle particule est le plus souvent signalée par un pic dans une dismasse tribution de masse invariante d’un certain F IGURE 10.6. Schéma montrant le type de dis- type de particules de l’état final (signal résonant). Le signal peut être également retribution obtenu à l’issue d’une analyse. cherché sous forme d’un excès par rapport au niveau de bruit de fond attendu (signal non résonant). C’est le cas le moins favorable car il demande de très bien connaître la forme et le niveau de la distribution des événements de bruit de fond. Encadré 10.1. La classification des événements par analyse statistique multivariée.

La première étape d’une analyse est de sélectionner un échantillon d’événements correspondant au signal recherché. L’échantillon doit être le plus pur possible, c’est-à-dire avec une contamination minimale d’événements de bruit de fond, sans toutefois que la sélection ne rejette trop d’événements de signal. Pour cela, on se base sur un ensemble de N variables xi (telles qu’une impulsion transverse, un angle, etc.), sur lesquelles on applique des coupures (voir le texte). Les variables sont choisies pour leur pouvoir discriminant, provenant du fait que leur distribution est différente, parfois seulement très légèrement, pour des événements de signal et pour des événements de bruit de fond. Contours linéaires

Coupures rectangulaires xi

Signal

xi

Non-linéaires simples xi

S

B

Non-linéaires compliqués xi

S

B

S

B

Bruit de fond xj

xj

xj

xj

La figure montre, sur un exemple simple où N = 2, les distributions d’une variable xi en fonction d’une autre variable, x j , pour des événements de signal (en bleu) et de fond (en rouge) que l’on a simulés séparément. Les coupures peuvent être simplement rectangulaires ou obliques (schémas de gauche), ce qui toutefois correspond rarement

L’AVENTURE DU GRAND COLLISIONNEUR LHC

197

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 198 — #214

i

i

à la sélection optimale. Une meilleure classification peut en général être obtenue avec des coupures non linéaires (schémas de droite). Elles peuvent devenir très compliquées, surtout lorsqu’en pratique on travaille avec des valeurs de N pouvant atteindre plusieurs dizaines. Il existe tout un arsenal de méthodes statistiques de classification, dites d’analyse multivariée, qui permettent de répondre à ce problème, et que l’on rencontre par ailleurs dans de nombreux autres domaines : finance, planification, médecine, etc. En physique des particules, les méthodes les plus utilisées actuellement sont les calculs de maximum de vraisemblance, les réseaux de neurones artificiels, inspirés par le mode de fonctionnement des neurones biologiques, et les arbres de décision améliorés (BDT : Boosted Decision Tree). Il s’agit pour ces derniers d’une méthode astucieuse basée sur un ensemble d’arbres de décision dont chacun représente un enchaînement de coupures sur les variables xi , sous différentes conditions. L’objectif est de produire en sortie un nombre réel, souvent défini entre 0 et 1, qui quantifie pour chaque événement le niveau de proximité avec le signal ou le fond : par exemple, plus la valeur est proche de 1 (0), plus les propriétés de l’événement sont proches de celles du signal (fond). Ces algorithmes reposent sur un ensemble de paramètres internes qui sont à la base du processus de sélection non linéaire. Ces paramètres sont optimisés par une procédure d’apprentissage sur des échantillons de données simulées de signal et de bruit de fond, de manière à obtenir une discrimination maximale de la variable de sortie. La figure ci-dessous montre un exemple de distributions de cette variable, dans le cas d’un BDT, séparément pour le signal et le fond, à l’issue de la procédure d’apprentissage. On effectue ensuite une coupure sur cette variable unique pour parfaire la sélection sur les données réelles. L’algorithme a donc permis de passer de manière quasi optimale d’un espace de N variables à une dimension unique, représentée par la réponse du BDT. Il va sans dire que la fiabilité de ces méthodes repose grandement sur la qualité des simulations du signal et surtout des bruits de fond.

Événements

Exemple : classification avec un BDT

3,5

Signal Bruit de fond

3 2,5 2 1,5 1 0,5 0

−0,6

−0,4

−0,2

0

0,2

0,4

Réponse du BDT

198

Chapitre 10. L’analyse des données

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 199 — #215

i

i

Encadré 10.2. La détermination de la section efficace de production d’un état final.

L’étude d’un phénomène physique passe souvent par la détermination de la section efficace de production σ d’un état final F (par exemple contenant un quark top, ou une paire de bosons Z) dans une collision proton-proton. Expérimentalement, cette grandeur σ s’exprime en fonction du nombre d’événements observés de la manière suivante : σ ( pp → F ) = où

N obs − N bdf Lint · A · εtrig · εsel

– N obs est le nombre d’événements observés possédant toutes les caractéristiques du signal recherché, après les coupures de sélection ; – N bdf est le nombre d’événements de bruit de fond estimé à partir de la simulation ou des données elles-mêmes, par exemple à partir d’une extrapolation du nombre d’événements observés dans une zone proche de celle du signal ; – Lint est la luminosité intégrée correspondant à l’échantillon de données utilisé ; – A est l’acceptance du détecteur, c’est-à-dire la probabilité que les particules caractéristiques de l’état final F soient détectées, compte tenu de la configuration et de la couverture géométrique des différents sous-détecteurs ; – εtrig est l’efficacité du système de déclenchement pour les événements dans l’acceptance du détecteur, c’est-à-dire la probabilité qu’un événement correspondant au signal recherché soit effectivement enregistré ; – εsel est l’efficacité de sélection définie comme la probabilité qu’un événement enregistré et correspondant à l’état final F soit accepté par la procédure de sélection, utilisée pour rejeter le bruit de fond (ceci inclut l’efficacité de la reconstruction de l’événement). Pour connaître la luminosité intégrée, il faut d’abord mesurer la luminosité instantanée. Cette mesure est faite tout au long de la prise de données, grâce à des détecteurs spécifiques placés à proximité des faisceaux. Il s’agit de compteurs de particules, conçus de façon à donner une réponse qui dépende linéairement de la luminosité instantanée, et ce de façon extrêmement stable. Pour déduire la luminosité de ce comptage, il est nécessaire d’étalonner ces détecteurs. Plusieurs techniques existent. Citons celle du balayage de van der Meer qui consiste à déplacer transversalement les faisceaux au niveau du point d’interaction, de manière à en déduire leur profil géométrique (presque gaussien), à partir du taux d’événements mesurés par les détecteurs pour chaque position. Combinée à la mesure précise du courant électrique dans chaque faisceau qui donne le nombre de protons par paquet, on obtient une erreur de quelques pourcents sur la mesure de la luminosité instantanée. Le très bon fonctionnement de cette méthode au LHC a dépassé tous les espoirs des experts en accélérateurs. La simulation par méthode Monte Carlo (section 10.1.4) est l’outil essentiel pour la détermination de l’acceptance et de l’efficacité de sélection. Le calcul des efficacités de déclenchement et de reconstruction est basé à la fois sur la simulation et sur les données elles-mêmes, par exemple en utilisant des états finals bien connus comme ceux contenant un boson Z (section 10.1.5).

L’AVENTURE DU GRAND COLLISIONNEUR LHC

199

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 200 — #216

i

i

Lorsqu’un signal a été mis en évidence, on peut alors faire une mesure de la section efficace de production de l’état final recherché (voir encadré 10.2). En l’absence de signal, le résultat de l’analyse consiste à donner une limite supérieure à la section efficace de production (section 12.3). 10.1.4

La simulation

La simulation des collisions et de la réponse des différents détecteurs aux particules produites est un outil essentiel pour l’analyse des données. Dans la mesure d’une section efficace de production d’un processus physique, elle sert par exemple à déterminer ce qu’on appelle l’acceptance du détecteur, c’est-à-dire le rapport entre le nombre d’événements détectés et reconstruits, et le nombre d’événements produits dans la collision. Elle peut être parfois utile également pour déterminer le niveau de bruit de fond résiduel, après les coupures de sélection. La technique utilisée est celle de la simulation Monte Carlo, nommée ainsi en référence aux jeux de hasard pratiqués dans les casinos de la Principauté. Chaque processus, que ce soit la production d’un état final donné, la désintégration de particules instables, ou encore l’interaction des particules avec la matière des détecteurs, est engendré par le tirage de nombres aléatoires selon la distribution de probabilité associée au phénomène physique sous-jacent. Un événement simulé fait ainsi appel au tirage de millions de nombres aléatoires. Or, il faut en principe engendrer un très grand nombre d’événements, si possible bien supérieur à celui des données réelles, pour avoir un échantillon tout à fait représentatif. En pratique, le temps de calcul nécessaire à la simulation d’un unique événement étant de plusieurs minutes voire plusieurs dizaines de minutes, Les$cons(tuants$du$proton$(«$partons$»)$ ne$portent$seulement$qu’une$frac(on$x$$$$ de$l’énergie$du$proton$

proton!!

x1p$

√(sx1x2)%—%énergie%dans%le%centre%de%masse%des%partons% x2p$

proton%% Faisceaux%de% protons%

F IGURE 10.7. Dans une collision à haute énergie entre deux protons, ce sont en fait les partons, c’est-à-dire les quarks et les gluons constituant les protons, qui interagissent. Chaque parton emporte une fraction xi √ de l’impulsion ( p) du proton i incident (i = 1 ou 2). Si l’on note s l’énergie dans le centre de masse de la √ collision proton-proton, l’énergie effective de l’interaction entre les deux partons incidents est alors x1 x2 s. À l’énergie du LHC, seule une très faible fraction des événements contient une collision parton-parton dont le produit x1 x2 est supérieur à 0,01. La forme des fonctions de distribution de la variable x pour chaque type de parton est donnée dans l’encadré 10.3 sur les générateurs.

200

Chapitre 10. L’analyse des données

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 201 — #217

i

i

F IGURE 10.8. Illustration de l’effet de la diffusion multiple sur la précision de mesure d’un détecteur : tout comme l’eau sur un pare-brise brouille l’image de la lumière des phares de voitures, la présence de matière sur la trajectoire d’une particule détériore la mesure.

ce nombre sera limité par les ressources informatiques disponibles. Ce sont tout de même des milliards d’événements qui sont engendrés chaque année, pour chaque expérience 5 . On peut distinguer trois étapes dans la simulation d’un événement : – La génération des particules produites dans la collision proton-proton : par exemple, la production d’un boson de Higgs se désintégrant en deux bosons Z ou la production de paires de quarks top-antitop suivie de leur désintégration dans un mode donné. Les particules provenant des débris des deux protons incidents sont également générées. Cette partie constitue l’interface entre la théorie et l’expérience. – La propagation des particules dans le détecteur. Cette étape de la simulation décrit les interactions entre les particules produites dans l’état final de la collision (hadrons chargés ou neutres, électrons, muons, photons) et la matière des différents sous-détecteurs. Par exemple, sont simulés les processus aléatoires liés à l’interaction forte des hadrons avec les noyaux des constituants des calorimètres, à l’origine des gerbes hadroniques. Un autre effet est la diffusion multiple, c’est-à-dire la déviation aléatoire que subissent les particules chargées lorsqu’elles interagissent par interaction électromagnétique avec les atomes des milieux qu’elles traversent (figure 10.8). Si les particules issues de la collision ont une durée de vie suffisamment courte pour se désintégrer avant de sortir du détecteur, leur désintégration est également simulée. Chaque fois qu’une particule traverse une partie sensible du détecteur (piste de silicium, gaz d’une chambre à fil, scintillateur d’un calorimètre, etc.), les coordonnées de la particule et l’information sur le sous-détecteur touché sont stockées pour l’étape suivante, la numérisation. 5

Lorsque l’analyse le permet, une simulation moins détaillée, et donc plus rapide, peut être utilisée.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

201

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 202 — #218

i

i

– La numérisation est l’interface entre le détecteur et le système d’analyse des données. Elle simule la réponse de chaque sous-détecteur au passage des particules. Par exemple, lorsqu’une particule chargée, réelle, ionise le milieu sensible d’une chambre, le temps de dérive est converti par l’électronique de lecture en un nombre codé sur un nombre limité de bits. La numérisation simule cette étape et fournit ainsi des données dans un format de stockage identique à celui des données réelles. Certaines imperfections du détecteur, comme par exemple des canaux d’électroniques hors service, sont introduites à ce stade. Les données simulées sont ensuite reconstruites avec la même chaîne de logiciels que les données réelles recueillies dans les détecteurs. Ainsi, par exemple, aura-t-on accès aux impulsions des particules chargées, comme si elles avaient été effectivement mesurées, avec les inefficacités et les incertitudes attachées aux sous-détecteurs, dans la réalité. Les données simulées présentent bien sûr l’avantage de contenir les quantités dites vraies, c’est-à-dire celles que l’on a générées dans la toute première étape. Ces informations sont fondamentales pour l’étude des performances des détecteurs, ainsi que pour relier les quantités mesurées aux phénomènes physiques survenus au point d’interaction. Encadré 10.3. Les générateurs Monte Carlo pour la simulation des interactions au LHC.

Comment prédire les caractéristiques cinématiques des particules produites lors d’une collision entre deux protons ? La théorie des champs permet de décrire l’interaction entre les partons, c’est-à-dire les quarks et les gluons qui constituent chacun des deux protons (figure 10.7). Le calcul est d’abord effectué pour chaque type de paires de partons, et le résultat est ensuite convolué avec les fonctions de distribution des partons à l’intérieur du proton. Ces fonctions décrivent de manière statistique la fraction x de l’impulsion des protons incidents emportée par chaque type de parton. Elles résultent des mesures de diffusion de muons ou d’électrons de haute énergie sur des protons, faites en particulier au collisionneur HERA à Hambourg. La figure de gauche ci-dessous donne des exemples de fonctions de distribution : en vert, bleu et rose pour les quarks u, d et s et en rouge pour les gluons. La présence de gluons et de quarks s à l’intérieur du proton peut paraître étrange. Cela vient du fait qu’outre les quarks dits de valence, uud, qui définissent les nombres quantiques du proton et son positionnement dans le modèle des quarks, celui-ci est constitué de gluons et de paires de quark-antiquark qui forment ce qu’on appelle la mer dont l’existence est permise pendant un laps de temps très court (voir section 1.9, page 32). Les quarks u et d peuvent être soit des quarks de valence, soit des quarks de la mer, tandis que les quarks s, les antiquarks u¯ et d¯ et les (anti)quarks encore plus lourds que le quark étrange, ne peuvent provenir que de la mer. C’est la raison pour laquelle les premiers portent en moyenne une plus grande fraction de l’impulsion que les quarks s.

202

Chapitre 10. L’analyse des données

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 203 — #219

i

i

Les gluons, qui portent collectivement en moyenne 50 % de l’impulsion totale du proton, sont concentrés à faible valeur de x, ce qui explique pourquoi le LHC est souvent qualifié de « collisionneur de gluons ».

, , , ,

,

,

,

,

La figure de droite montre la section efficace de production des jets de quarks et de gluons dans les collisions proton-proton à 7 TeV en fonction de l’impulsion transverse p T de ces jets. L’histogramme jaune correspond à la prédiction théorique obtenue à partir d’un générateur appelé Pythia, très communément utilisé en physique des hautes énergies. Ce générateur est basé sur les distributions de la figure de gauche et sur la théorie QCD pour décrire les interactions entre partons. La prédiction de Pythia est comparée aux mesures expérimentales représentées sur la figure par les points rouges et noirs. Remarquez l’accord spectaculaire sur treize ordres de grandeur entre l’expérience et la prédiction théorique, démontrant que celle-ci est maîtrisée avec un très haut degré de fiabilité. Les quarks et les gluons produits dans la collision doivent ensuite se combiner avec des paires de parton-antiparton issues du vide de la QCD pour former les particules visibles dans les détecteurs, les hadrons (voir figure 2.5, page 48). Cette phase, impossible à décrire théoriquement par des principes premiers, est modélisée de manière très phénoménologique avec des paramètres ajustés à partir des données expérimentales.

10.1.5

La mesure de la masse du Z : un test de la qualité du détecteur

Une bonne maîtrise de la mesure de l’énergie ou de l’impulsion des particules par les calorimètres et les spectromètres est importante pour la plupart des études de physique. Elle est en particulier cruciale pour mesurer précisément la masse d’une nouvelle particule. À l’inverse, on peut utiliser la masse d’une particule connue pour contrôler la réponse des sous-détecteurs, voire la corriger. Le meilleur exemple est celui du boson Z dont la masse a été mesurée, essentiellement au

L’AVENTURE DU GRAND COLLISIONNEUR LHC

203

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 204 — #220

i

× 10

CMS preliminary

3

number of events / GeV

2

χ

i

-1

36 pb at

s = 7 TeV

1.5 data Z → µ +µ -

1

0.5

5 0 -5 60

80

M(µ+µ-)

100

120

[GeV]

F IGURE 10.9. Distribution en masse des événements contenant deux muons, enregistrés par le détecteur CMS en 2010 (points noirs). L’accumulation aux alentours de 91 GeV prouve la présence prédominante de bosons Z dans l’échantillon sélectionné. L’histogramme en jaune correspond à la prédiction de la simulation. La figure du bas montre le rapport entre les données réelles et simulées. La quantité χ en ordonnée correspond à l’écart à l’unité, exprimé en nombre de fois l’erreur statistique divisée par le nombre d’événements dans les données expérimentales.

LEP : m Z = 91,1876 ± 0,0021 GeV. C’est un résultat d’une précision remarquable, bien meilleure que celle qu’on n’atteindra jamais au LHC. La figure 10.9 montre la distribution de la masse invariante des paires de muons détectées dans les premières données enregistrées par CMS en 2010 (points noirs). Lorsque les muons sont issus de la désintégration d’un boson Z, la masse invariante correspond à la masse de la particule mère. L’accumulation autour de 91 GeV est donc la preuve de la présence de bosons Z dans l’échantillon. L’histogramme en jaune représente la même distribution, obtenue à partir d’événements simulés par la méthode Monte Carlo. La concordance entre les deux distributions montre que la réponse du détecteur est bien comprise et que l’on est capable d’en reproduire, avec la simulation, les inévitables imperfections. Pourquoi donc ne trouvons-nous pas, pour chaque paire de muons, exactement la valeur de 91,1876 GeV ? Il y a deux raisons à cela : la première est que le boson Z, comme n’importe quelle particule, a une largeur naturelle, en l’occurrence Γ Z = 2,4952 ± 0,0023 GeV (voir l’encadré 2.1). La seconde est la résolution du détecteur : les impulsions ne sont pas mesurées avec une précision

204

Chapitre 10. L’analyse des données

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 205 — #221

i

i

infinie et les masses invariantes calculées peuvent donc être différentes de la véritable valeur. Une fois la distribution en masse invariante obtenue, il ne reste plus qu’à mesurer la masse du boson Z, c’est-à-dire, en première approximation, la position du pic. La forme théorique de la distribution est prédite par le modèle standard et peut s’exprimer à l’aide d’une fonction analytique. Cette fonction, modifiée par les effets de détecteur tels que la résolution, est ajustée à la distribution en variant certains de ses paramètres, dont la position du pic. En 2010, CMS a ainsi mesuré une valeur m Z = 91,17 ± 0,56 GeV. Ce résultat est très loin de la précision du LEP, ce qui est bien normal après quelques mois de prise de données. Cependant, il est en très bon accord et a montré que l’on pouvait avoir confiance dans les mesures du détecteur. Cette vérification a constitué une étape essentielle avant d’aborder de nouvelles mesures. 10.2

Les défis de l’informatique et les analyses sur la grille

10.2.1

Traitement et stockage des données

Les quantités de données produites au LHC sont gigantesques. En 2012, une grande expérience comme ATLAS ou CMS a enregistré environ deux milliards d’événements de données réelles et produit un nombre encore plus grand de données simulées. La taille sur disque de chaque événement étant de l’ordre d’un mégaoctet, les données brutes (avant reconstruction) occupent déjà à elles seules près de deux pétaoctets 6 d’espace disque, chiffre qu’il faut multiplier au moins par deux une fois que l’on a pris en compte les données traitées par les logiciels de reconstruction. En comptabilisant les données réelles, enregistrées par les quatre détecteurs, et les données simulées, on estime à environ quarante pétaoctets le volume des informations produites chaque année. C’est ce qu’il faudra stocker tous les ans, pendant plus d’une décennie. Le traitement de ces données est également très gourmand en puissance de calcul : environ cent mille processeurs sont nécessaires. La reconstruction, on l’a vu, requiert environ dix mille processeurs, pour chacune des expériences ATLAS et CMS. Cependant, la majeure partie du temps de calcul est consommée lors de la simulation : alors que le temps de reconstruction d’un événement réel varie entre dix et cinquante secondes en fonction de sa complexité, celui nécessaire à la simulation complète d’un seul événement peut aller jusqu’à plusieurs dizaines de minutes. Enfin, une contrainte technique supplémentaire est ce que l’on nomme la distribution des ressources. Si les expériences sont situées au CERN, les physiciens, 6

Un pétaoctet équivaut à un million de gigaoctets, soit 1015 octets.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

205

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 206 — #222

i

i

eux, travaillent dans le monde entier. Il faut pourtant que tous puissent accéder aux données et bénéficier de la puissance de calcul nécessaire à l’analyse. Cela impose donc de pouvoir travailler avec des réseaux très rapides : un gigabit par seconde, très souvent dix. En règle générale, il s’agit de réseaux non commerciaux, réservés à la recherche. Il aurait été envisageable de centraliser au CERN l’ensemble des moyens de calcul, disques de stockage et processeurs, mais les demandes d’accès aux données, simultanées, en provenance du monde entier, auraient certainement rencontré des problèmes de saturation. En outre, vu le coût élevé d’un tel centre de calcul, il aurait été impossible de convaincre les différents pays d’investir autant pour financer l’achat de systèmes informatiques qui ne soient pas implantés sur leur sol et qui ne puissent servir à une communauté plus large que celle des physiciens des particules. 10.2.2

Qu’est-ce qu’une grille de calcul ?

Pour répondre à ces besoins et à ces contraintes, les physiciens se sont tournés vers les grilles de calcul. Le terme de grille a été introduit par analogie avec le réseau électrique (power grid) : de même que l’on branche un appareil au réseau sans se soucier de la provenance de la puissance électrique que l’on consomme, l’idée de la grille de calcul est de pouvoir accéder à des puissances de calcul et de stockage, sans se préoccuper de la nature ni de la localisation géographique de l’informatique sous-jacente. En pratique, des milliers, voire des centaines de milliers de processeurs et de disques de stockage composent une grille, mais apparaissent à l’utilisateur comme un unique ordinateur. En outre, ces ressources ne se concentrent pas en un seul endroit mais sont réparties, parfois à l’échelle du globe. C’est sur ces principes qu’est conçu le projet LCG : LHC Grid Computing. Cette grille rassemble environ 250 centres de calcul à travers le monde. Elle est structurée en trois niveaux : – le centre de calcul du CERN est le nœud de niveau 0 (tiers 0). C’est le cœur de cette structure. L’ensemble des données enregistrées par les quatre détecteurs y est stocké. Ce centre est également en charge d’effectuer une première reconstruction des données, et de les diffuser dans la vingtaine de nœuds de niveau 1 nécessaires à ATLAS et CMS ; – les nœuds de niveau 1 (tiers 1), une dizaine par expérience, sont d’importants centres de calcul répartis à l’échelle du globe (figures 10.10 et 10.11). Ils sont chargés de traiter les données brutes pour en extraire les données de physique et les distribuer vers les nœuds de niveau 2. Une partie de la production et de la reconstruction des données simulées est également

206

Chapitre 10. L’analyse des données

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 207 — #223

i

i

NDGF

NL-T1

UK-T1-RAL DE-KIT

FR-CCIN2P3

IT-INFN-CNAF CA-TRIUMF

US-T1-BNL

ES-PIC

TW-ASGC

F IGURE 10.10. Carte mondiale des dix nœuds de niveau 1 utilisés pour le calcul de la collaboration ATLAS. Le CERN constitue le nœud central de niveau 0. CMS utilise une grille comparable.

effectuée dans ces centres. En France, le nœud de niveau 1 est le Centre de calcul de l’IN2P3 à Lyon qui fournit 10 à 15 % de la puissance de calcul ; – les nœuds de niveau 2 (tiers 2), au nombre de 150 environ, représentent une capacité totale de calcul d’environ 70 000 processeurs, légèrement supérieure à celle des nœuds de niveau 1. Situés au sein même des instituts de recherche, ils sont principalement utilisés pour la simulation (production et reconstruction), ainsi que pour les analyses de physique finales. La contribution de la France aux nœuds de niveau 2 représente environ 10 % du total ; – les nœuds de niveau 3 (tiers 3), également situés dans les instituts, sont surtout utilisés en complément pour les besoins des analyses faites localement par les physiciens et qui demandent beaucoup de réactivité et relativement peu de ressources en disques et en temps de calcul. Le principe de fonctionnement de LCG est que les données reconstruites correspondant à un certain type de déclenchement (par exemple celles qui correspondent à des événements contenant au moins un électron de plus de 20 GeV) ne sont stockées que dans un ou deux centres de niveau 1. Il en est de même pour les données simulées dans les centres de niveau 2. Lorsqu’un utilisateur a besoin d’analyser un certain type d’événements, le système gérant la grille envoie automatiquement le programme à effectuer vers les centres contenant les données recherchées sans que l’utilisateur n’ait à se préoccuper de

L’AVENTURE DU GRAND COLLISIONNEUR LHC

207

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 208 — #224

i

i

Tiers-2

Tiers-1

Tiers-0

Tiers-2

Tiers-2

Tiers-3 Tiers-2

Tiers-2 Tiers-2 Tiers-1

Tiers-3

Tiers-3

F IGURE 10.11. En haut, architecture du calcul des expériences LHC en nœuds de niveau 0, 1 et 2 (les niveaux 3 ne sont pas représentés). En bas, répartition géographique des nœuds de niveau 2 français.

leurs emplacements. Une fois le programme terminé, les données de sortie sont rapatriées vers l’ordinateur de l’utilisateur. Si les réseaux ont fait récemment de grands progrès et continuent d’en faire, la vitesse de calcul par cœur de processeur, elle, sature. Le temps de calcul disponible va donc devenir le facteur limitant et le principe de fonctionnement de la grille va devoir évoluer dans les années à venir. Les programmes pourront par exemple être envoyés vers les nœuds qui ont du temps de calcul disponible, quitte à transférer les données requises, via le réseau, depuis d’autres nœuds connectés avec une liaison rapide.

208

Chapitre 10. L’analyse des données

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 209 — #225

i

i

Ainsi, le traitement des données en physique des particules peut-il se faire aisément avec un très grand nombre de processeurs du commerce, bon marché, chaque cœur traitant un événement indépendamment des autres. C’est une des raisons pour lesquelles la grille de calcul est une réponse parfaitement adaptée aux besoins de ce domaine. Les supercalculateurs à architecture massivement parallèle tels que ceux utilisés pour la modélisation météorologique et dont le coût est très élevé ne sont donc pas nécessaires. Les physiciens des particules ne sont pas les seuls à s’intéresser à la technologie de la grille. D’autres domaines scientifiques sont très gourmands en calcul, comme par exemple la bio-informatique, ou les sciences de la Terre. Comme la physique des hautes énergies, ce sont des sciences qui ont des besoins de simulation ou de traitement de données importants. La grille peut intéresser également les scientifiques lorsque ceux-ci souhaitent mettre en commun des données : c’est le cas de l’épidémiologie. De même, les États, les organisations internationnales peuvent bénéficier de cette technologie, par exemple pour partager des données et réagir efficacement lors de grandes catastrophes.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

209

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 210 — #226

i

i

La chasse au bison de Higgs (Lison Bernet, © d.r.)c

210

Chapitre 10. L’analyse des données

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 211 — #227

i

i

La chasse au bison de Higgs, suite

L’observateur attentif aura remarqué que cette illustration ne représente pas tout a fait correctement le mécanisme de Higgs : ce n’est en fait pas le bison de Higgs lui-même qui est responsable du « ralentissement » des particules massives (et donc du phénomène qui est parfois appelé la « viscosité du vide »), mais la valeur non nulle du champ de Higgs dans le vide, dont le boson n’est qu’une manifestation.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

211

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 212 — #228

i

i

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 213 — #229

i

i

11 Le boson de Higgs : recherche et découverte L’histoire de la recherche du boson de Higgs a commencé bien avant le LHC. Dans les années 1980, plusieurs expériences à Zürich, au CERN, ou encore à Cornell aux États-Unis, se sont attaquées à la recherche du déjà célèbre boson. Ainsi, au démarrage du LEP, un Higgs avec une masse inférieure à 5 GeV était relativement peu probable. Cependant, les prédictions sur les taux de production et de désintégration dans cette région de masse souffrent de grandes incertitudes théoriques. Aussi, trente ans plus tard, alors que les recherches au LHC allaient bon train et que la fenêtre de masses possibles se rétrécissait comme peau de chagrin, certains ont suggéré d’explorer à nouveau cette région de très basse masse, dans l’éventualité où l’on échouerait à observer le Higgs au LHC. La suite de l’histoire est autre. Avant de la relater, nous souhaiterions revenir sur les longues années de recherche au LEP et au Tevatron, d’autant que les techniques d’analyse utilisées par ATLAS et CMS pour la découverte leur doivent beaucoup. 11.1

Le temps du LEP

L’époque du LEP a marqué le début de la recherche intensive du boson de Higgs. Selon le modèle standard, le principal mode de production lors d’une collision électron-positon est le processus dit de Higgsstrahlung, au cours duquel le Higgs est émis par un Z (figure 11.1) 1 . Pendant la première période, LEP-1, 1

Ce nom a été choisi par analogie avec le bremsstrahlung, e− → e− γ.

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 214 — #230

i

e+"

f"

Z#

f"

Z"*" e

!

i

!

H#

F IGURE 11.1. Diagramme de Feynman de la production de Higgs dans une collision e+ e− → ZH , le boson Z se désintégrant ici en une paire fermion-antifermion. On note le boson intermédiaire Z ∗ pour indiquer qu’il est hors de sa couche de masse. C’était le cas pour la phase LEP-2 où l’énergie de collision était au moins deux fois la masse du Z. À LEP-1, où l’énergie de collision était exactement la masse du Z, c’est le Z final qui pouvait être hors de sa couche de masse.

l’énergie dans le centre de masse étant précisément la masse du Z, celui-ci était par conséquent produit quasiment au repos. Il ne pouvait donc rayonner un Higgs que s’il était hors de sa couche de masse, ce qui pénalisait fortement la section efficace de production. Il a cependant été possible durant cette phase d’explorer, sans succès, une zone de masse allant de quelques MeV à environ 60 GeV. Nous avons vu dans la section 2.4 qu’il est possible de déduire de la mesure de la masse du boson W des contraintes sur la masse du Higgs, puisque celle-ci intervient au niveau des corrections radiatives prédites par le modèle standard. Il en est de même pour un certain nombre de quantités liées à la production et la désintégration du Z. Ces mesures ont été faites à LEP-1 avec une précision remarquable 2 . Elles ont permis de déduire des contraintes dites indirectes sur la masse du boson de Higgs et de montrer que celui-ci devait être plus léger que 160 GeV et plus lourd qu’une cinquantaine de GeV. La valeur préférée était autour de 90 GeV (figure 11.2), ce qui semblait mettre le Higgs à la portée d’un collisionneur électron-positon d’énergie double de celle de LEP-1 3 . Tel était le but de la seconde période de LEP, LEP-2. L’énergie de collision fut considérablement augmentée grâce à l’installation de cavités accélératrices supplémentaires. Elle est d’abord passée à 189 GeV en 1998, puis à 192 GeV en 2

3

L’expérience SLD auprès du collisionneur linéaire e+ e− installé à SLAC a également contribué à établir ces contraintes. Grâce à la possibilité de polariser le faisceau d’électrons, on a pu y mesurer précisément l’asymétrie dans la production du Z en fonction de la polarisation gauche ou droite des électrons incidents. Cette asymétrie est prédite par le modèle standard et est sensible à la masse du Higgs. Attention, comme toujours en physique des particules, ce résultat est statistique : il signifie que vraisemblablement, au vu des données enregistrées, la masse du Higgs devait être comprise entre ces limites. Un Higgs avec une masse légèrement supérieure à 160 GeV n’était donc pas totalement exclu. C’était toutefois un immense progrès : au moment du lancement du LEP (et du projet LHC en 1990), la seule limite supérieure était théorique et de l’ordre de 1 000 GeV !

214

Chapitre 11. Le boson de Higgs : recherche et découverte

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 215 — #231

i

6

Prédiction du modèle standard Exclu par LEP

4

2

mLimit = 160 GeV

March 2008

5

Δχ

i

3

2

1 Préliminaire

0 30

40

60

80 100

200

300

m H [ GeV ] F IGURE 11.2. Contrainte sur la masse du boson de Higgs m H provenant des mesures de précision faites au LEP (essentiellement la masse du W et un certain nombre de quantités liées à la production et la désintégration du Z) et au Tevatron (la masse du quark top et, moins précisément alors que le LEP, celle du boson W ). La variable ∆χ2 indique la qualité de l’ajustement des prédictions du modèle standard à ces mesures, lorsqu’on fait varier la masse du boson de Higgs. Le meilleur ajustement correspond à ∆χ2 = 0, et donc à une valeur de m H éliminée par les recherches directes, infructueuses, à LEP-2 (bande grise). La valeur ∆χ2 = 1 définit les bornes de la zone d’incertitude sur m H correspondant à un niveau de confiance de 68 % autour de la valeur préférée par l’ajustement. De même, ∆χ2 = 2 correspond à un niveau de confiance de 95 %. On peut ainsi prédire que, dans le cadre du modèle standard, m H doit être inférieure à 160 GeV, à 95 % de niveau de confiance. L’abscisse est représentée en échelle logarithmique car la dépendance des prédictions théoriques en fonction de m H est elle-même logarithmique.

1999. Les ingénieurs du LEP ont ensuite poussé leur machine jusqu’à ses dernières extrémités pour atteindre 209 GeV en 2000. Finalement, en octobre 2000, le LEP tirait sa révérence : il fallait démanteler l’accélérateur pour céder le tunnel au LHC dont l’installation devait commencer. Les données de LEP-2 ont permis une recherche directe du boson de Higgs produit par Higgsstrahlung, car l’énergie était suffisante pour que le Z et le Higgs soient tous les deux sur leur couche de masse, dans l’hypothèse où ce dernier ne serait pas plus lourd que 115 GeV. Les recherches ont porté sur le canal de désintégration le plus abondant dans cette région de masse, à savoir ¯ En effet, si la masse celui en une paire de quark et antiquark beaux, H → bb. du Higgs est inférieure à 115 GeV, sa désintégration en une paire de W, de Z ou de quark-antiquark top est exclue ou extrêmement réduite. Environ 70 % des désintégrations ont donc lieu en une paire bb¯ (figure 11.5).

L’AVENTURE DU GRAND COLLISIONNEUR LHC

215

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 216 — #232

i

ALEPH

DALI_F1

ECM=206.7 Pch=83.0 Efl=194. Ewi=124. Eha=35.9 BEHOLD Nch=28 EV1=0 EV2=0 EV3=0 ThT=0 5 Gev EC 5 Gev HC

i

Run=54698 Evt=4881 Detb= E3FFFF

00−06−14 2:32 (φ −138)*SIN(θ) o o

o

x

o

x

− ox o −o x o ox oooox o x





o

x − −

o

x

−oxo o

0.6cm

o o

− −



o o o o xx− x − o x o x x − o o o− o

o

o

x

RO TPC

0.3cm

Y"

−1cm P>.50 Z015GeV

4 000

Z axis

[pb] -1

3000 fb discovery reach -1

300 fb discovery reach

3 500

-1

3000 fb exclusion 95% CL

1/2

10−2

-1

300 fb exclusion 95% CL

3 000

10−3

2 500

10−4

2 000

i

[pb]

i

10−5

Zn, sys = 30 %

ATLAS Preliminary (simulation)

1 500 2 000

2 500

3 000

3 500

−6 4 000 10

m~q [GeV] F IGURE 14.7. Prévisions d’ATLAS sur la recherche de squarks (première et deuxième générations) et de gluinos, en fonction de la luminosité intégrée, dans le cadre d’un modèle MSSM assez général, avec un neutralino comme LSP, de masse inférieure à environ 200 GeV. Ces particules pourraient être découvertes (à 5 σ) si elles se situent dans la zone de masse en bas à gauche des courbes pleines.

sions spatiales supplémentaires (sections 4.2 et 4.3), on pourrait atteindre des masses de l’ordre de 5 TeV dans la première phase d’améliorations et jusqu’à 8 TeV avec le HL-LHC. Un HE-LHC permettrait de doubler ces valeurs. Avec l’augmentation de l’énergie de collision, on peut également espérer une mise en évidence de la formation de micro-trous noirs (section 12.5) : une luminosité intégrée de 100 fb−1 à 14 TeV devrait permettre d’être sensible à des masses de l’ordre de 10 TeV. Une telle découverte serait absolument fondamentale, d’une portée scientifique et philosophique comparable à la découverte de la relativité ou de la mécanique quantique il y a cent ans, car cela impliquerait l’existence de dimensions supplémentaires. Cela aurait également comme conséquence une modification radicale de la physique des hautes énergies. Une fois la formation de micro-trous noirs possible, il ne serait plus question de chercher d’autres structures sous-jacentes, telles que des constituants de quarks ou de leptons. En effet, au-delà d’un certain seuil en énergie, toutes les collisions ne mèneraient qu’à la formation de micro-trous noirs. La recherche en physique des particules se transformerait en l’étude de leurs propriétés et de leurs modes de désintégration, pour comprendre le nombre de dimensions supplémentaires, leur taille et leur géométrie, et étudier ainsi le régime et la nature de l’interaction unifiée, gravitationnelle-électrofaible-forte.

288

Chapitre 14. Le futur

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 289 — #305

i

gluon&→ jet&

proton& q"

quark&→ jet&

proton&

χDM&

g"

q̄&

i

χDM&

q̄&

χDM&

proton&

χDM&

proton&

F IGURE 14.8. Diagrammes décrivant la production d’une paire de particules de matière noire χDM dans les interactions proton-proton. La signature de tels événements est la présence d’un seul jet associé à une grande énergie transverse manquante due aux particules χDM s’échappant du détecteur sans interagir. La nature de l’interaction entre les quarks et les particules χDM dépend des modèles théoriques.

La recherche de particules susceptibles de former la matière noire de l’Univers (par exemple les WIMP introduites dans la section 4.1) fait également partie des objectifs prioritaires du LHC et du HL-LHC. Nous avons déja mentionné la possibilité de détecter la désintégration du Higgs en deux particules de matière noire. Une autre piste, plus générale et complémentaire des recherches directes dans les détecteurs cryogéniques 6 , est basée sur la recherche d’un excès d’événements appelés monojet, car le seul objet détecté serait un unique jet de particules (figure 14.8) 7 . Les limites provenant des données 2011 et 2012 du LHC dépendent du modèle utilisé pour décrire l’interaction des WIMP avec les quarks des protons. En supersymétrie, celle-ci pourrait être un simple échange de squark, les neutralinos étant alors les particules de matière noire. Dans d’autres modèles, la production de WIMP se ferait via un boson de jauge lourd de type Z 0 comme dans la figure 12.14. Avec les données des années à venir, de nombreuses classes de modèles théoriques pourront ainsi être testées, avec bien sûr l’espoir de découvir un signal. 6

7

Avec ces détecteurs, placés dans des sites souterrains à l’abri des rayons cosmiques, on cherche à mesurer le recul nucléaire dû à la diffusion élastique d’une WIMP sur le noyau d’un atome du détecteur. Citons l’expérience EDELWEISS (Expérience pour Détecter Les WImps En SIte Souterrain) installée dans le tunnel du Fréjus en Savoie et dans laquelle sont impliqués des groupes de physiciens du CEA et du CNRS. Elle exploite les signaux d’ionisation et de chaleur qui seraient déposés dans des bolomètres, détecteurs cryogéniques constitués de plusieurs hectogrammes de cristaux ultrapurs de germanium, portés à très basse température (20 mK) pour être sensibles à des effets de recul de quelques keV. L’expérience américaine CDMS est également basée sur des cristaux de germanium. En 2013, l’expérience phare de ce domaine est l’expérience XENON, installée dans le tunnel du Gran Sasso près de Rome. Elle est basée sur la détection des signaux d’ionisation et de scintillation engendrés par un éventuel recul nucléaire dans plus de cent kilos de xénon liquide (plus d’une tonne à l’horizon 2016). En 2013, les événements enregistrés dans ces détecteurs sont compatibles avec le bruit de fond, à l’exception d’un signal de trois événements dans CDMS qui demande confirmation. Certains processus du modèle standard peuvent mener au même état final, comme la production d’un gluon et d’un Z, le Z se désintégrant en deux neutrinos.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

289

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 290 — #306

i

i

Voilà donc quelques excellentes raisons de mettre en œuvre le HL-LHC, voire le HE-HLC. Il n’est pas impossible en outre que de futures découvertes au LHC fournissent des motivations supplémentaires. Toute la difficulté réside en la nécessité de prévoir dès maintenant l’évolution du collisionneur et des expériences, tout en considérant la possibilité que des surprises, imprévisibles par essence, surgissent dans les prochaines années.

14.3

Au-delà du LHC

Cette question est encore plus aiguë lorsque l’on tâche de plannifier un avenir plus lointain. Cependant, la masse du Higgs étant désormais connue, il est possible de définir assez précisément le collisionneur nécessaire à l’étude détaillée de ce boson. L’outil le plus approprié paraît en effet être un collisionneur électronpositon de très haute luminosité et d’une énergie dans le centre de masse autour de 250 GeV, soit environ 40 GeV de plus que le LEP-2 arrêté en 2000. Comme au LEP (section 2.4), le Higgs serait produit en association avec un Z : e+ e− → ZH. Cette signature très propre permettrait l’accès à tous les modes de désintégration dont le rapport d’embranchement est supérieur à environ 10−4 . En particulier, il serait possible de mesurer une éventuelle largeur partielle dans le mode invisible (voir la discussion dans la section 14.2.1) avec une précision de l’ordre d’une fraction de pourcent. Pour avoir accès au couplage à trois bosons de Higgs à travers le processus + − e e → ZH → ZHH, une énergie dans le centre de masse d’au moins 400 GeV est nécessaire. Si l’on souhaite en outre avoir accès au mode de production tt¯H pour la mesure du couplage au quark top, alors il faut monter encore en énergie et disposer au minimum de 500 GeV dans le centre de masse de la collision. Une difficulté des collisionneurs e+ e− circulaires vient de la perte d’énergie des faisceaux par rayonnement synchrotron qui varie comme E4 /R, E étant l’énergie des électrons et positons et R le rayon du collisionneur. Pour des faisceaux de 250 GeV, si l’on veut se restreindre à la même perte d’énergie par tour et par électron que pour LEP-II (soit environ 3 GeV), il faudrait donc des anneaux gigantesques, d’une circonférence de 900 kilomètres ! C’est pourquoi depuis de nombreuses années, les techniques d’accélérateurs et de collisionneurs linéaires e+ e− ont été développées. Deux projets sont actuellement à l’étude. Le premier est l’ILC (International Linear Collider), un collisionneur e+ e− avec une énergie dans le centre de masse de 250 GeV dans une première phase, puis 500 GeV dans une deuxième, et qui pourrait être augmentée ultérieurement jusqu’à 800 GeV. Cette machine, longue d’une trentaine de kilomètres (figure 14.9) pour la phase à 500 GeV, pourrait être construite avec les techniques d’accélération

290

Chapitre 14. Le futur

i

i i

i

3.1

The ILC Technical Design

i 3.1.1

i

Overview

“master” — 2014/2/12 — 18:17 — page 291 — #307

The International Linear Collider (ILC) is a high-luminosity linear electron-positron collider based on 1.3 GHz superconducting radio-frequency (SCRF) accelerating technology. Its centre-of-mass-energy range is 200–500 GeV (extendable to 1 TeV ). A schematic view of the accelerator complex, indicating the location of the major sub-systems, is shown in Fig.3.1:

i

Anneaux de refroidissement

Région d’interaction et détecteurs

i

Compresseur de paquet de positons

Source d’électrons

Compresseur de paquet d’électrons

Source de positons Linac principal de positons 11 km

Linac principal d’électrons 11 km 2 km

2 km

Région centrale 5 km

Figure 3.1. Schematic layout the ILC, indicating all the les major subsystems (not to scale). F IGURE 14.9. Schéma deofprincipe de l’ILC avec deux accélérateurs linéaires (linac) d’électrons et de positons. Une partie des électrons accélérés est utilisée pour produire les positons. Les anneaux de refroidissement servent à réduire la dispersion angulaire et en impulsion des électrons et des positons avant a polarised electron leur •injection dans les linacs. source based on a photocathode DC gun;



a polarised positron source in which positrons are obtained from electron-positron pairs by

déjà maîtrisées en 2012 8 . Elle permettrait leshigh-energy couplagesmain du boson converting high-energy photons produced de by mesurer passing the electronde beam Higgsthrough avec les particules du modèle standard de masse supérieure à un GeV avec an undulator; une précision de 1 à 3 %. L’incertitude sur la mesure du couplage à trois bosons • 5 GeVest electron and àpositron damping pour rings (DR) with a circumference of3.2 km, housed in a de Higgs estimée 30 %, comme le HL-LHC. common tunnel; L’ILC permettrait de plus une mesure• beaucoup plusfrom précise de la masse beam transport the damping rings to the main linacs, followed by a two-stage bunchdu quark top, system toujours délicate compressor prior plus to injection into the main linac; dans un collisionneur hadronique tel • two 11 km main linacs, utilising 1.3 GHz SCRF cavities operating at an average gradient of que le LHC. L’intérêt de cette mesure 31.5 MV/m, with a pulse length of 1.6 ms; pour effectuer un test de cohérence du modèle standard et eventuellement 9 pour signaler la présence de nouvelle physique est illustré sur la figure 12.7. En outre, elle apporterait une première réponse aux questions concernant F IGURE 14.10. Illustration artistique du tunnel de la stabilité du vide. En effet, les valeurs l’ILC au Japon. des masses du Higgs et du top mettent le modèle standard, et donc notre Univers, dans une situation périlleuse : le vide de la théorie qui définit nos conditions de vie de tous les jours, sauf lorsqu’on s’amuse à cogner très fort des protons les uns contre les autres, n’est pas stable. 8

Toutefois, la technique pour obtenir la focalisation finale qui doit ramener la taille des faisceaux à vingt ou trente nanomètres représente encore un défi considérable.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

291

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 292 — #308

i

i

Ou plus exactement, il l’est juste assez pour que, compte tenu de l’âge de l’Univers, nous soyons toujours là pour en discuter (voir encadré 14.1) ! En revanche, le fait que le LHC exclut déjà l’existence de particules supersymétriques dans un domaine de masse allant jusqu’à environ 400 GeV réduit le domaine d’énergie accessible à l’ILC où de la nouvelle physique pourrait apparaître. Encadré 14.1. Le boson de Higgs, le quark top, leurs masses et la stabilité du vide.

Les valeurs des masses du boson de Higgs et du quark top mesurées jusqu’à présent au LHC et au Tevatron ont une conséquence surprenante : le vide du modèle standard n’est pas stable. Cette coïncidence, pour le moment mystérieuse, est illustrée sur les figures ci-dessous. Elles montrent les zones de stabilité (en vert), d’instabilité (en rose) et de métastabilité (en jaune) du vide, en fonction des masses du Higgs (en abscisse) et du quark top (en ordonnée). Pour des grandes masses de Higgs, la zone est dite de non-perturbativité car les calculs de théorie quantique des champs basés sur des diagrammes de Feyman conduisent à des amplitudes qui excèdent la limite d’unitarité. Ces figures, ainsi que la discussion qui suit, supposent que le modèle standard est valable jusqu’à l’échelle d’énergie de Planck, c’est-à-dire qu’il n’existe aucune particule de masse supérieure à celle du quark top et se couplant au champ de Higgs. 200

180

6 8 10

Instabilité

107

Instabilité

108

109

100

I

50

16

5 10 GeV 4

Stabilité

Masse du top en GeV

12 é ilit 10 tab 8 9 s a t 7 6 Mé

150

14

Non perturbativité

Masse du top en GeV

178 19

1010

176

1011 1012 1013

Métastabilité

1016

174

1,2,3 σ 1019

172 170

1018

Stabilité

1014

0 0

50

100

150

Masse du Higgs en GeV

200

168 120

1017

122

124

126

128

130

132

Masse du Higgs en GeV

La figure de droite correspond à un agrandissement de la zone rectangulaire indiquée sur la figure de gauche. On remarque que les mesures des masses du Higgs et du top se situent exactement sur la bande très étroite de métastabilité. Qu’est-ce que cela signifie ? Rappelons que le vide est défini par le minimum du potentiel de Higgs, V (φ) = µ2 |φ|2 + λ|φ|4 , φ étant le champ de Higgs (figure 1.7, page 21). Ce potentiel prend une forme de chapeau mexicain pour µ2 < 0 et λ > 0. Or, comme toutes les constantes de couplage, λ varie avec l’échelle d’énergie (notée Λ), principalement en raison du couplage du Higgs au quark top (figure de gauche ci-après). Au-delà d’une énergie Λ

292

Chapitre 14. Le futur

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 293 — #309

i

i

d’environ 1010 GeV, dont la valeur exacte dépend de celle de la masse du top, λ devient même négatif (figure centrale). Lorsque l’on prend en compte cette variation de λ en fonction de l’échelle d’énergie, le potentiel du champ de Higgs prend la forme d’une gamelle pour chien, représentée sur la figure de droite. V (φ) présente alors un second minimum, infiniment négatif, alors que la valeur correspondante de |φ| tend elle vers l’infini. Seuls des effets de gravité quantique qui apparaîtraient à ces très hautes énergies pourraient empêcher cette dérive vertigineuse.

En quoi ce minimum à très grand |φ| et à très haute échelle d’énergie concerne-t-il notre monde de basse énergie ? En théorie quantique des champs, toutes les échelles d’énergie sont accessibles dans les processus virtuels, jusqu’à celles pour lesquelles λ devient négatif. Localement, la probabilité de transition par effet tunnel entre notre vide (correspondant à un minimum local) et celui à très haute énergie (le minimum absolu, infiniment négatif) n’est donc pas nulle, quoiqu’extrêmement faible. Une telle transition conduirait à la formation d’une bulle de vide à très haute énergie qui s’étendrait à la vitesse de la lumière, pour finir par englober tout l’Univers. Si cette probabilité de transition, intégrée sur tout l’espace-temps en tenant compte de l’âge de l’Univers (13,7 milliards d’années), reste inférieure à 1, cela signifie que notre vide aura pu survivre aux fluctuations quantiques jusqu’à maintenant. On dira alors que le vide est métastable. Quelle est la raison profonde qui fait que les masses du Higgs et du top se situent précisément à l’intérieur de cette plage très étroite de métastabilité ? Leurs mesures précises permettront d’affiner la valeur de l’échelle d’instabilité. Cela permettra peut-être d’établir un lien entre le modèle standard et la gravité quantique à l’échelle de Planck. Certains développements théoriques suggèrent même que l’évolution du potentiel de Higgs au voisinage de cette échelle d’énergie pourrait être à l’origine de l’inflation cosmologique !

Le Japon pourrait proposer de financer à lui seul près de la moitié du collisionneur, pourvu qu’il soit construit sur son sol. Il s’agit d’un budget très important, près de dix milliards d’euros en incluant la phase à 500 GeV, soit environ trois fois le prix du LHC. Si la décision de le contruire est prise suffisamment rapidement (avant 2015, c’est-à-dire sans attendre les résultats de la deuxième phase du LHC),

L’AVENTURE DU GRAND COLLISIONNEUR LHC

293

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 294 — #310

i

i

le début de l’exploitation de l’ILC serait envisagé entre 2025 et 2030 pour la phase à 250 GeV. Le second projet de collisionneur linéaire e+ e− est le CLIC (Compact Linear Collider). Long d’une cinquantaine de kilomètres, il s’agit d’un projet encore plus ambitieux dont le but est d’atteindre une énergie dans le centre de masse e+ e− de 3 TeV. Outre le boson de Higgs, le CLIC permettrait d’étudier les éventuelles particules supersymétriques dans le détail. Son intérêt est donc directement lié à la découverte au LHC de signes de nouvelle physique dans une zone de masse en deçà de 2,5 TeV. Le CLIC est basé sur un système de cavités accélératrices d’un gradient de 100 MeV/m (près de trois fois celui de l’ILC), alimentées en puissance RF (radiofréquence) par un second faisceau d’électrons, parallèle au faisceau principal, d’énergie beaucoup plus faible (quelques GeV), mais d’intensité extrêmement élevée. La puissance RF nécessaire serait ainsi engendrée par le passage de ce second faisceau dans des cavités résonantes situées à proximité immédiate des cavités accélératrices du faisceau principal. Ce dispositif remplacerait avantageusement les klystrons traditionellement utilisés jusquà présent pour l’alimentation RF des cavités accélératrices. La faisabilité de ce projet dépend donc de développements technologiques qui n’ont pas encore complètement abouti. Le démarrage d’un tel collisionneur pourrait probablement se faire à l’horizon 2035-2040. Malgré les difficultés évoquées plus haut, il existe plusieurs projets de collisionneurs circulaires. Le moins ambitieux mais également, de loin, le moins onéreux, est le projet LEP-3. Il s’agit de (re)construire dans le tunnel du LEP-LHC un anneau de collision e+ e− de très haute luminosité à une énergie de 240 GeV. L’intérêt de LEP-3, dont le potentiel de recherche, limité à l’étude détaillée des canaux de désintégration du Higgs, est bien inférieur à celui de l’ILC, et encore plus du CLIC, est qu’il pourrait être mis en œuvre rapidement. Il faudrait cependant que le LHC cède sa place, ce qui n’est guère probable dans les dix à quinze ans à venir. Le dernier né des projets du CERN, appelé TLEP, est basé sur l’idée d’un tunnel de quatre-vingts à cent kilomètres de circonférence autour de Genève (figure 14.11) dans lequel serait installé un collisionneur e+ e− de 350 GeV d’énergie maximale dans le centre de masse. Un tel collisionneur pourrait fournir une luminosité supérieure à celle de l’ILC pour un coût comparable 9 , même en prenant en compte le creusement du tunnel. En outre, le TLEP permettrait l’installation de plusieurs expériences alors que l’ILC ne peut accepter qu’un seul détecteur en opération. Avec une telle luminosité, la principale difficulté réside 9

En 2013, le niveau d’avancement du projet ILC est bien supérieur à celui du projet TLEP qui vient juste de naître. Il est donc difficile de comparer objectivement leurs performances et leurs coûts.

294

Chapitre 14. Le futur

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 295 — #311

i

i

100 km option

F IGURE 14.11. Emplacement possible du projet TLEP. Avec ses quatre-vingts (pointillés jaunes) ou cent kilomètres (ligne pleine) de circonférence, le tunnel ferait le tour de l’agglomération genevoise. Le tunnel du LHC (vingt-sept kilomètres) est représenté en blanc et la frontière franco-suisse en rouge.

dans le temps de vie très faible (quelques minutes) des faisceaux, en raison de la focalisation extrême aux points d’interactions qui provoque un éclatement des paquets de particules. Il serait alors nécessaire de construire un deuxième anneau de stockage en parallèle, sans point d’interaction, qui viendrait régulièrement remplir l’anneau principal lorsque la luminosité commencerait à s’effondrer. Le tunnel du TLEP pourrait en outre servir pour l’installation d’un collisionneur proton-proton ou proton-antiproton de 80 TeV à 100 TeV dans le centre de masse, en l’équipant des dipôles de quinze teslas actuellement étudiés pour le HE-LHC (figure 14.12). Un tel saut en énergie permettrait d’explorer un domaine où la nouvelle physique ne manquerait pas d’apparaître. Le cas de la supersymétrie, tout au moins à une énergie proche de l’échelle de brisure électrofaible, serait définitivement réglé. Les perspectives de recherche de dimensions supplémentaires et de micro-trous noirs seraient exceptionnelles. Les grands projets pour les quatre prochaines décennies ne manquent donc pas, en particulier au CERN 10 . Malgré les restrictions budgétaires, en particulier 10 Il

existe d’autres projets assez audacieux sur le plan technique qui visent à produire plusieurs dizaines de milliers de Higgs pour un coût qui pourrait être beaucoup plus modeste que celui des options ILC, CLIC ou TLEP. On peut ainsi citer les idées, proposées en 2012, de collisionneurs µ+ µ− ou photon-photon avec une énergie dans le centre de masse de 126 GeV, qui pourraient produire environ dix mille Higgs par an. Dans les deux cas, l’intégralité de l’énergie des faisceaux

L’AVENTURE DU GRAND COLLISIONNEUR LHC

295

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 296 — #312

Énergie dans le centre de masse (TeV)

i

160 140 120

Champ = 20 T

i

Énergie des collisions pp

Champ = 15 T Champ = 8,3 T

100 80 60 40

20

0 5 10 15 20 25 30 35 40 45 50 55 60 65 70 75 80 85 90 95 100

0

Circonférence de l'anneau (km) F IGURE 14.12. Énergie dans le centre de masse de la collision en fonction de la circonférence du collisionneur proton-proton, pour différentes valeurs du champ magnétique dans les aimants dipolaires, servant à maintenir les protons sur une trajectoire circulaire. La valeur la plus faible (8,3 T) correspond au champ nominal des aimants du LHC. La suivante (15 T) est celle que pourraient atteindre les aimants au niobium-étain (NbSn) que l’on pense pouvoir développer dans les cinq à dix années à venir. La valeur haute (20 T) nécessite l’utilisation de supraconducteurs à haute température et demandera encore de nombreuses années de recherche et développement.

en Europe, il est impératif de convaincre les gouvernements de l’importance de cette recherche pour le développement de la connaissance. Les retombées technologiques et économiques que ces projets engendreront inévitablement, sans en être le but principal, sont des arguments parfois entendus. Au début du XXe siècle, les recherches sur la relativité et la mécanique quantique relevaient également de la connaissance pure, sans perspective d’application à court ou moyen terme. Ce sont pourtant ces disciplines qui ont permis la révolution technique actuelle, basée sur l’électronique et l’informatique. Même s’il est impossible d’entrevoir une application pratique de la découverte du boson de Higgs, elle marque une est utilisée pour produire les Higgs dans le centre de masse de la collision. Dans le second cas, les photons seraient produits par des rayons laser pulsés extrêmement puissants, envoyés juste avant le point de collision contre un faisceau très intense d’électrons polarisés, dont l’énergie ne dépasserait pas 80 GeV. Au contraire du LEP ou du TLEP, les électrons ne circuleraient pas à nouveau dans l’accélérateur. Cette technique permettrait donc de limiter la circonférence de l’anneau à environ neuf kilomètres, et par conséquent son coût. Dans le cas du collisionneur µ+ µ− , qui permettrait de mesurer directement la largeur du boson de Higgs (prédite à environ 4 MeV), le tunnel existant des ISR au CERN serait suffisant. La faisabilité technique de ces deux projets est toutefois loin d’avoir été démontrée.

296

Chapitre 14. Le futur

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 297 — #313

i

i

étape importante dans la compréhension des interactions qui gouvernent notre Univers. Elle pourrait conduire à très long terme au développement de techniques qu’on ne peut concevoir aujourd’hui. Les auteurs de science-fiction ne nous ont pas attendus pour mettre en scène de tels scénarios.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

297

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 298 — #314

i

i

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 299 — #315

i

i

15 Conclusion Que nous enseigne l’histoire du CERN, depuis sa création en 1954 jusqu’à la mise en route du LHC, point culminant de cette épopée ? L’Europe, sortie ruinée de la Seconde Guerre mondiale, a su développer un laboratoire unique au monde. Elle a mis en place une gestion administrative, financière et surtout scientifique qui lui a permis lentement mais sûrement de remonter le courant et de reprendre sa place dans la physique mondiale. Le CERN est devenu le plus grand laboratoire de recherche au monde et a été pris comme modèle d’organisation par d’autres institutions de recherche telles que l’ESO (European Southern Observatory) ou l’EMBL (European Molecular Biology Laboratory). Dans les années 1970, l’Europe a repris peu à peu sa place en physique des particules grâce à de belles expériences comme Gargamelle et CDHS (neutrinos) et BCDMS (muons). Les années 1980 ont été celles de la consécration du CERN, avec la découverte des bosons de jauge W et Z grâce au collisionneur proton¯ et aux expériences UA1 et UA2. Est venue ensuite l’ère du LEP, antiproton SppS de 1990 à 2000, qui a fourni l’assise définitive du modèle standard, la théorie physique la plus complète et la mieux testée à ce jour. Le LHC et ses expériences étaient alors en phase d’élaboration et de construction des prototypes. Pendant cette période et la longue transition entre l’arrêt du LEP et le démarrage du LHC, la connaissance a progressé grâce surtout à plusieurs grands collisionneurs dans le monde : HERA à Hambourg (structure du nucléon), le Tevatron de Fermilab (découverte du quark top pour ne citer que le plus marquant de ses résultats), ou encore les usines à B en Californie et au Japon (découverte et mesure précise de la violation de la symétrie CP entre matière et antimatière dans le système des mésons B). Hors accélérateur, les résultats phares de cette période ont été la mise en évidence de la masse non nulle des neutrinos et la confirmation par de nouveaux satellites (WMAP et Planck) de phénomènes encore incompris tels que

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 300 — #316

i

i

la matière noire et l’énergie noire de l’Univers. En 2010, le LHC a commencé à fonctionner. Les améliorations en termes de luminosité ont été rapides et le CERN est redevenu en l’espace de quelques mois le centre mondial de la physique des particules. La découverte du boson de Higgs, honorée par l’attribution du prix Nobel en 2013 à François Englert et Peter Higgs, à l’origine de la découverte en 1964 du mécanisme sous-jacent, est un immense succès scientifique. C’est indéniablement le résultat le plus important en physique des particules depuis la découverte des bosons W et Z confirmant l’unification électrofaible en 1982 et 1983, et peut-être même depuis le début des années 1960 et la mise en évidence de la structure en quarks du nucléon. Bien que le fonctionnement nomi- F IGURE 15.1. « Ce pourrait être la découverte du nal en termes d’énergie n’ait pas en- siècle. Selon jusqu’où ça descend. », © d.r. core été atteint en 2012, le LHC est également une grande réussite technologique. Ce succès n’a été possible que grâce à un financement stable, à long terme, que les gouvernements européens ont su assurer. À travers ce projet, la physique des particules a joué une fois de plus son rôle de catalyseur de l’innovation. Nous avons vu comment les développements sur les aimants supraconducteurs du LHC ont été transférés vers l’industrie, de même que ceux sur les cristaux scintillants de CMS. On ne répétera jamais assez combien l’invention du World Wide Web au début des années 1990 au CERN, pour permettre la communication entre physiciens à l’échelle de la planète, a révolutionné la société. Aujourd’hui, c’est l’utilisation intensive et à grande échelle de la grille de calcul pour analyser les données du LHC qui pave le chemin pour de nombreux domaines, scientifiques ou autres. Ce ne sont là que quelques exemples. Le CERN continue également d’être un lieu de rencontre et de contacts privilégiés entre les physiciens du monde entier. Il a joué ce rôle entre les scientifiques de l’Ouest et de l’Est, dans les années de guerre froide quand cela n’était ni facile ni courant. Avec les grandes expériences du LHC, totalement mondialisées, il continue aujourd’hui à construire des ponts avec des régions du monde dont les tensions font trop souvent la une de l’actualité.

300

Chapitre 15. Conclusion

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 301 — #317

i

Quarks'et'leptons'

Hadrons'

i

Noyaux''Atomes'

Température'(°K)'

1031% 1025% 1019%

Nucléo7' synthèse'

1013%

Aujourd’hui' Etoiles' Galaxies'

107% 10% 10

33%s%

10

11%s%%%%%%%%

10 6%s%

3%min%

Temps'après'le'big'bang'

13,8%milliards%% d’années%

F IGURE 15.2. Phases de l’évolution de l’Univers testées par les collisions au LHC.

Avec la découverte du Higgs, le LHC est en passe d’apporter la réponse à une question fondamentale, celle de l’origine de la masse des particules élémentaires. La période qui s’ouvre pourrait en apporter bien d’autres car nombreuses sont les questions qui demeurent. La supersymétrie explique-t-elle le problème de la hiérarchie ? Est-ce la voie vers l’unification de toutes les interactions fondamentales ? Est-ce la réponse à l’énigme de la matière noire de l’Univers ? L’étude de la violation de CP permettra d’approfondir la compréhension des subtiles différences entre matière et antimatière, et celle des collisions ions-ions, la connaissance de l’état de plasma de quarks et de gluons. Le programme scientifique du LHC dans les dix, voire vingt ans à venir pourrait permettre d’atteindre de nouveaux stades dans la compréhension de la structure intime de la matière et des forces. Traduit en termes de remontée dans le temps, les collisions d’ions lourds du LHC permettent d’explorer la période se situant une microseconde après le big bang qui a vu la transition du plasma de quarks et gluons vers la phase hadronique de la matière. Les études en mode proton-proton sont celles de la transition électrofaible qui se situe, elle, entre 10−15 et 10−11 seconde après le big bang (figure 15.2). Les générations futures de physiciens des particules tenteront certainement de remonter encore plus loin dans le passé. Il n’y a pas de doute que, même si d’après certaines croyances antiques « au commencement était le Verbe » (Saint Jean, I, 1), pour les physiciens, au début il n’y avait que les particules et leurs symétries ! La physique est une science expérimentale et seule la nature indiquera la direction à prendre dans le foisonnement des théories d’aujourd’hui.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

301

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 302 — #318

i

i

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 303 — #319

i

i

Unités de longueur, de temps et de masse-énergie avec les ordres de grandeur correspondants

10−4 cm

1 micron (µm)

Longueur d’onde infrarouge/visible

10−8 cm

1 angström (Å)

Rayon d’un atome

10−13 cm

1 fermi (fm)

Rayon d’un proton

10−18 cm

Limite supérieure sur la taille d’un quark ou d’un lepton

10−33 cm

Longueur de Planck

109 cm

Rayon de la Terre

1013 cm

Rayon de l’orbite terrestre

1023 cm

Rayon de notre galaxie

1028

Rayon de l’Univers observable

cm

10−24 cm2

1 barn (b)

Section efficace d’un noyau

10−36 cm2

1 picobarn (pb)

Section efficace pour la production d’un Higgs

10−44

cm2

Section efficace d’interaction d’un neutrino solaire

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 304 — #320

i

10−6 s

1 microseconde (µs)

i

Temps de vie du muon, du pion chargé Transition du plasma quarks-gluons en hadrons après le big bang

10−9 s

1 nanoseconde (ns)

Durée entre croisements des paquets du faisceau du LHC : 25 ns

10−12 s

1 picoseconde (ps)

Temps de vie des particules charmées et de beauté Fin de la transition électrofaible dans le big bang

10−23 s

Temps de vie des bosons W, Z, H

10−33 s

Fin de la période d’inflation cosmologique

10−44 s

temps de Planck

Temps après le big bang auquel doit se manifester la gravité quantique

1 eV

1 électronvolt (= 1,6 · 10−19 J)

Énergie de liaison d’un électron dans un atome

1 mégaélectronvolt (MeV)

Énergie de liaison d’un nucléon dans un noyau

106 eV

109 eV

1 gigaélectronvolt (GeV)

1011 eV

Masse du proton (m p = 0,939 GeV = 1,9 · 10−24 g)

100 GeV

Échelle électrofaible, masse des bosons W, Z, H

1012 eV

1 téraélectronvolt (TeV)

Énergie d’un proton du faisceau du LHC : 7 TeV

1015 GeV

Énergie de grande unification (hypothétique)

1019 GeV

Énergie ou masse de Planck

1028 g

Masse de la Terre (6 · 1027 g)

1033 g

304

Masse de l’électron (me = 0,5 MeV = 9,1 · 10−28 g)

Masse du Soleil (2 · 1033 g)

Unités de longueur, de temps et de masse-énergie avec les ordres de grandeur correspondants

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 305 — #321

i

i

Bibliographie Cours de physique – The Feynman Lectures on Physics, New Millennium Edition, Richard P. Feynman, Robert B. Leighton et Matthew Sands (27 janvier 2011), Basic Books.

La physique des particules, le modèle standard et au-delà Vulgarisation

– The Particle Hunters, Yuval Néeman and Yoram Kirsh, Cambridge University Press, 1996 ; – Les Particules élémentaires, collectif bibliothèque Pour la science, diffusion Belin, 1983 ; – Le monde quantique, Michel Le Bellac, EDP Sciences, 2010 ; – L’univers quantique – Tout ce qui peut arriver arrive. . ., Brian Cox, Jeff Forshaw, Dunod, 2013 ; – Le vrai roman des particules élémentaires, François Vannucci, Dunod, 2010 ; – Rien ne va plus en physique ! L’échec de la théorie des cordes, Lee Smolin, Dunod, 2006 ; – Particules élémentaires et cosmologie : les lois ultimes ? Gilles CohenTannoudji, Michel Spiro, Le Pommier, 2008 ; – Le boson et le chapeau mexicain, Gilles Cohen-Tannoudji, Michel Spiro, Folio Essais Gallimard, 2013 ; – Le modèle standard de la physique des particules, de l’électron au boson de Higgs, Jean-Jacques Samueli, Ellipses, 2013.

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 306 — #322

i

i

Avancé

– La matière-espace-temps, Gilles Cohen-Tannoudji, Michel Spiro, Fayard, 1986 ; – Introduction à la physique des particules, Robert Zitoun, Dunod, 2004 ; – Quarks and Leptons: Introductory Course in Modern Particle Physics, Francis Halzen, Alan D. Martin, John Wiley & Sons, 1984 ; – Introduction to High Energy Physics, Donald H. Perkins, Cambridge University Press, 2000 ; – Gauge Theories in Particle Physics, Ian J.R. Aitchinson and A.J.G. Hey, Adam Hilger, Bristol and Philadelphia, Taylor & Francis, 2003 ; – Higgs, J. Baggott, Oxford, 2012.

Découverte des bosons W et Z, résultats du LEP et du Tevatron Vulgarisation

– Nobel Dreams – Power, Deceit and the Ultimate Experiment, Gary Taubes, Random House, New York, 1986 ; – The God Particle, Leon Lederman and Dick Teresi, A Delta Book, BanthamDoubleday Dell, New York, 1993 ; – Prestigious Discoveries at CERN, Roger Cashmore, Luciano Maiani, JeanPierre Revol editors, Springer, 2004. Avancé

– UA1 Collaboration, G. Arnison et al. Physics Letters 122B, 103 and 126B 398 ; – UA2 Collaboration, M. Banner et al. Physics Letters 122B 476 and 129B 130 ; – 50 years of CERN – the second 25 years, Physics Reports Volumes 403-404, December 2004 ; www.science.direct.com.

Les accélérateurs, le LHC – An Introduction to Particle Accelerators, Edmund Wilson, Oxford University Press, 2001 ; – LHC, un défi technologique sans précédent, par Jacques-Olivier Baruch, La Recherche novembre 2002, p. 68 ; – LHC, Peter Ginter, Rolf-Dieter Heuer, Franzobel, Lammerhuber, 2012 ; – Design Study of the Large Hadron Collider, CERN 91-03, May 1991 ; – LHC, Conceptual Design, CERN/AC/95-05, October 1995 ;

306

Bibliographie

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 307 — #323

i

i

– The Large Hadron Collider project: historical account, Giorgio Brianti, Physics Reports 403-404 (2004) 349-364 ; – The Large Hadron Collider: A Marvel of Technology, Lyndon Evans, CRC Press Inc, 2009.

Instrumentation – Techniques for Nuclear and Particle Physics experiments, William R. Leo, Springer Verlag, 1994 ; – The Experimental Foundations of Particle Physics, Robert N. Cahn and Gerson Goldhaber, Cambridge University Press, 2009.

Les expériences du LHC – ATLAS, Technical Proposal, CERN/LHCC/94-43, 15 December 1994 ; – CMS, Technical Proposal, CERN/LHCC 94-38, LHCC/P1, December 1994 ; – LHCb, Technical Proposal, CERN/LHCC, CERN/LHCC 98-4, February 1998 ; – ALICE, Technical Proposal, CERN/LHCC95-71, December 1995 ; – Hunting the Higgs. The inside story of the ATLAS experiment at the Large Hadron Collider, Claudia Marcelloni, Papadakis Dist A C, 2013.

La physique au LHC Vulgarisation

– A Zeptospace Odyssey: A Journey into the Physics of the LHC, Gian Francesco Giudice, 2009, Oxford University Press. Avancé

– Large Hadron Collider Workshop, Aachen 4-9 October 1990, Volumes I, II and III, CERN 90-10, ECFA 90-133, December 1990 ; – ATLAS Physics Book (2009): Expected Performance of the ATLAS Experiment – Detector, Trigger and Physics. CERN-OPEN-2008-020, http://arxiv.org/abs/0901.0512 – CMS, Physics Performance, Physics Technical Design Report, Volumes I and II, CERN/LHCC 2006-001 February 2006 and CERN/LHCC/2006-021 June 2006 ; – Perspectives on LHC Physics, editors G. Kane and A. Pierce, World Scientific, 2009.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

307

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 308 — #324

i

i

Big bang, cosmologie Vulgarisation

– – – –

Patience dans l’azur, Hubert Reeves, Seuil, 1988 ; Enquête sur l’Univers, Jean Audouze et Jean-Pierre Chièze, Nathan, 1999 ; Les trois premières minutes de l’Univers, Steven Weinberg, Seuil, 1988 ; Big bang et au-delà – Balade en cosmologie, Aurélien Barrau, Dunod, 2013.

Avancé

– Initiation à la cosmologie, Marc Lachièze-Rey, Dunod, 2013 ; – Cosmology: The Science of the Universe, Edward Harrison, Cambridge University Press, 2000 ; – Fundamentals of Cosmology, James Rich, Springer-Verlag, Berlin, Heidelberg, 2009.

Matière noire et trous noirs – Des trous noirs en laboratoire, Bernard Carr, Steven Giddings, Pour la Science n◦ 332, juin 2005 ; – Particle Dark Matter: evidence, candidates and constraints, Physics Reports, Vol. 405, n◦ 5-6, January 2005 ; – Report of the LHC safety study group, J. Phys. G: Nucl. Part. Phys. 35 (2008) ; – Le LHC peut-il produire des trous noirs ?, Gabriel Chardin et Michel Spiro, Le Pommier, 2009.

Recherche et découverte du Higgs Vulgarisation

– LHC : enquête sur le boson de Higgs, Michel Davier, Le Pommier, 2008 ; – Le LHC détectera le boson de Higgs. . . s’il existe, Francois Englert, La Recherche, mai 2008, p. 58 ; – Le boson de Higgs enfin devoilé, La Recherche n◦ 467, septembre 2012 ; – Boson de Higgs, le pari gagné des physiciens, La Recherche no 469, novembre 2012 ; – À la recherche du boson de Higgs, Christophe Grojean et Laurent Vacavant, Librio, 2013 ; – Higgs. Le boson manquant, Sean Carroll, Belin 2013 ; – LHC : le boson de Higgs, Michel Davier, Dunod, 2013 ;

308

Bibliographie

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 309 — #325

i

i

– A caccia del bosone di Higgs. Magneti, governi, scienziati e particelle nell’impresa scientifica del secolo, Romeo Bassoli et Luciano Maiani, Mondadori Università, 2013. Avancé

– F. Englert and R. Brout, Physical Review Letters, 9, 321, 1964 ; – P. Higgs, Physical Review Letters, 16, 508, 1964 ; – Observation of a new particle in the search for the Standard Model Higgs boson with the ATLAS detector at the LHC, ATLAS Collaboration, Physics Letters B 716 (2012) 1–29 ; – Observation of a new boson at a mass of 125 GeV with the CMS experiment at the LHC, CMS Collaboration, Physics Letters B 716 (2012) 30-61.

L’AVENTURE DU GRAND COLLISIONNEUR LHC

309

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 310 — #326

i

i

7KLVSDJHLQWHQWLRQDOO\OHIWEODQN

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 311 — #327

i

i

Index accélérateurs circulaires, 109 ALICE description, 274 résultats, 277 amplitude de diffusion, 34 analyse des données, 190 bruit de fond, 196 méthodes multivariées, 196 simulation, 200 Anderson, 27 antihydrogène, 29 antiparticule, 27 antiproton découverte, 113 Arkani-Hamed, Dvali, Dimopoulos, 89 asymétrie matière-antimatière, 87 ATLAS, 129 alignement, 195 amélioration, 281 calorimètres, 164 description, 161 détecteur interne, 162 EAGLE, ASCOT, 147 organisation, 171 toroïde, 166 atome taille, 11 axion, 68 barn, 53 baryon, 44 BCDMS, 46 BEH, 17

Bevatron, 113 big bang, 3, 19, 93, 301 Born approximation de, 35 boson, 6 couplages à trois bosons de jauge, 287 Higgs, 8, 17 couplage à trois bosons de Higgs, 286 couplages, 235, 283 découverte, 226 désintégration, 218, 223 et supersymétrie, 247 masse, 72, 283 parité, 220 production au LHC, 222 production hadronique, 218 recherche au LEP, 213 recherche au Tevatron, 217 section efficace de production, 190 signal, 233 spin, parité, 235 masse, 24 W, 8 W, Z, découverte, 49 Z, 8, 23 largeur, 54 Bouchiat, 47 Broglie, de, 36 Brout, 18

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 312 — #328

i

Cabibbo, 30 Cabibbo-Kobayashi-Maskawa Modèle, 30 Cahn, 10 CDHS, 46 CERN collisionneur proton-antiproton, 118 futur, 297 ISR, 116 LHC, lancement, 120 PS, 45 SPS, 114 chambre à bulles, 135 chambre proportionnelle multifils, 139 champ, 6 gravitationnel, 15 jauge, 15 théorie quantique des, 33 charge effective, 37 électrique, 6, 15 faible, 6 forte, 6 gravitationnelle, 6 Charpak , 139 chromodynamique quantique, 17 CLIC, 294 CMS, 129, 147 aimant, 151 amélioration, 281 calorimètres, 156 organisation, 171 trajectomètre, 154 composites, modeles, 74 confinement, 8 constante cosmologique, 66 couplage, 5, 33 variation, 37, 84 Fermi, 25 Hubble, 65 Planck, 7 structure fine, de, 25, 37 correction radiatives, 35

312

i

corrections radiatives, 56, 246 cosmologie, 65, 93, 301 couleur, 6, 44 courant neutre, 47 Cronin, Fitch, 32 cyclotron, 109 Davis, 69 détecteur calibration, alignement, 194 calorimétrie, 141 chambre à dérive, 138 conception, 140 déclenchement, 170 organisation, 171 résolution d’un calorimètre, 143 résolution d’un trajectomètre, 142 semiconducteur, 139 spectromètre à muons, 144 trajectomètre interne, 141 détecteurs électroniques, 136 diagramme de Feynman, 33 diffusion de bosons longitudinaux, 286 dimensions supplémentaires, 88, 256 recherche expérimentale, 260, 288 Dirac, 27 données, traitement, stockage, 205 E(6), groupe, 85 Einstein, 14, 71, 93 formule, 29 électromagnétisme, 15 électron, 3 énergie noire, 66 énergie transverse manquante, 144 Englert, 18, 105, 229 famille de quarks et leptons, 4 Fayet, 78 Fermi, 25, 43 Fermilab, 5 synchrotron, 114 Tevatron, 115, 119 fermion, 6 Feynman, 6, 33 Fock, 33

Index

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 313 — #329

i

fragmentation, 48 Friedman, 45 Friedmann-Lemaître, 93 fuite des galaxie, 94 galaxie vitesse de rotation, 64 Gargamelle, 46, 135 Gell-Mann, 2, 43 générateurs Monte Carlo, 201 Georgi, 84 Gianotti, 229 Glashow, 23, 84 Glashow-Weinberg-Salam Modèle, 26 gluon, 8, 44 gravitation, 14, 70 graviton, 256 grille de calcul, 206 Gross, 38 Guralnik,Hagen,Kibble, 17 Guth, 105 hadron, 8, 44 HE-LHC, 281 Heisenberg, 7, 33 hiérarchie, 74 Higgs, 18, 229 champ, 19 mécanisme, 17 potentiel, 21 HL-LHC, 279 Hubble, 94, 95 hypéron, 42 ILC, 290 Incandela, 229 inflation, 105, 293 interaction électromagnétique, 2 courant chargé, 26 courant neutre, 27 électromagnétique, 15 faible, 2 forte, 2 gravitationnelle, 2

L’AVENTURE DU GRAND COLLISIONNEUR LHC

i

intensité, 5 portée, 7 ions lourds, 184, 273 résultats expérimentaux, 276 isospin, 6 faible, 13 jauge groupe, 15 invariance, 14 jet, 48 section efficace de production, 203 Kaluza-Klein, 87 Kendall, 45 Kobayashi-Maskawa, 30, 67 Landau, 33 Lawrence, 111 Lederman, Schwartz, Steinberger, 45 Lee, B.W., 26 LEP, 29 expériences, 53 LEP3, 294 recherche du Higgs, 213 lepton, 3, 5 tau, 5, 30 LHC, 10 aimants, 124 dipolaire deux-en-un, 125 quadripôles, 127 améliorations, 280 caractéristiques, 134 coût, 131 danger, 263 démarrage, 178 détecteurs, 147 incident 2008, 180 octants, 128 recherche du Higgs, 222 LHCb description, 266 mesure B0 en 2 muons, 254 mesure B0 en deux muons, 270 physique du quark b au LHC, 265 liberté asymptotique, 38

313

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 314 — #330

i

Linde, 105 luminosité, 117 Majorana, 69 masse, 17 fermion, 4 matière noire, 63 WIMP, 81, 289 Maxwell, 83 mélange, 8 méson, 44 Modèle standard, 2, 8, 10, 18, 45 lagrangien, 39 paramètres, 5, 10 problèmes, 61 moment magnétique dipolaire, 35 Monte Carlo, 200 muon, 3 découverte, 41 Neddermeyer, 29 neutrino, 3 abondance, 106 découverte, 41 masse, 31, 69 mélange, 69 nombre, 54 oscillations, 69 neutron, 4, 11 temps de vie, 11 Noether, 13 nombre baryonique, 28 leptonique, 28 nucléosynthèse primordiale, 97 oscillations baryoniques acoustiques, 102 particule détection, 135 largeur, 42 parité, 220, 236 virtuelle, 34, 37 parton, 46, 202 Pauli, 2, 28, 41

314

i

principe de, 6 Peccei-Quinn, 68 Penzias-Wilson, 96 Perl, 5 PETRA, 47 phase CKM, 30, 58, 68 photon, 3, 15 Planck, 65 masse, 71, 74, 88 plasma de quarks et gluons, 273, 276 polarisation du vide, 37 Politzer, 38 Pontecorvo, 69 positon, 27 principe anthropique, 12 proton, 4, 62 temps de vie, 84 Protvino, 114 quanta, 33 quantique mécanique, 9 quark, 3–5, 43, 44 beau, 30 charge, 3 masse, 61 top, 5, 242 masse, production, 243 quarks, 2 résonance, 43 radioactivité β, 41 Randall-Sundrum, 92 rayonnement cosmologique micro-onde, 65, 96 fluctuations, 100 refroidissement stochastique, 119 Reines, Cowan, 41 relation d’incertitude, 7, 33 relativité, 14 relativité générale, 71, 82 relativité générale, 87 renormalisation, 73 Richter, 45 Rubbia, 49, 121

Index

i

i i

i

i

i

“master” — 2014/2/12 — 18:17 — page 315 — #331

i

Cline, McIntyre, 117 Saclay Saturne, 113 solénoïde CMS, 153 toroide ATLAS, 168 Sakharov, 87 Salam, 23 saveur, 4 scalaire, 6, 18 Schrödinger, 27 section efficace, 53 section efficace de production, 199 SO(10), groupe, 85 spin, 6, 28 spineur, 27 SSC, 109, 120 statistique Bose-Einstein, 6 Fermi-Dirac, 6 stérile, 4 SU(5), 84, 86 supergravité, 82 SuperKamiokande, 69, 84 supernovae, 100 supermétrie gluino, squark, production, 249 limites expérimentales, 251 recherche expérimentale, 248, 287 supersymétrie, 77 MSSM, 78 mSugra, 81 transformation de, 78 symétrie, 12 brisure, 18, 20 CPT, 31 matière–antimatière, 30, 105 synchrotron, 112 t’Hooft, 26 Taylor, 45 Tevatron

L’AVENTURE DU GRAND COLLISIONNEUR LHC

i

recherche du Higgs, 217 tier1/2/3, 206 Ting, 45 TLEP, 294 trou noir, 262, 288 UA1,UA2, 49 unification, 87, 255 électrofaible, 23, 24, 83, 106 Grande, 38, 84 unitarité, 13, 285 Univers, 11 âge, 95 expansion, 66 horizon, 105 masse, 62 platitude, 105 refroidissement, 96 taille, 105 Veltmann, 26 vide quantique, 24, 34 stabilité, meta-stabilité, 292 violation CP, 30, 58, 68 Weinberg, 23 angle, 24, 85 Wilczek, 38 WMAP, 65, 70 Wu, 31 Yang et Lee, 31 Yang-Mills théorie, 15 Yukawa particule de, 42 Z’, 256 limites expérimentales, 257, 288 Zinn-Justin, 26 Zweig, 2, 43 Zwicky, Fritz, 63

315

i

i i

i