Le SI et la métrologie en France: Des unités de mesure aux références 9782759823697

Un Système international d’unités et des étalons de référence de mesure : à quelles fins ? Il est apparu impératif, au c

190 106 7MB

French Pages 168 [166] Year 2019

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Le SI et la métrologie en France: Des unités de mesure aux références
 9782759823697

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Le SI et la métrologie en France Des unités de mesure aux références

Imprimé en France ISBN (papier) : 978-2-7598-2370-3 – ISBN (ebook) : 978-2-7598-2369-7 Tous droits de traduction, d’adaptation et de reproduction par tous procédés, réservés pour tous pays. La loi du 11 mars 1957 n’autorisant, aux termes des alinéas 2 et 3 de l’article 41, d’une part, que les « copies ou reproductions strictement réservées à l’usage privé du copiste et non destinées à une utilisation collective », et d’autre part, que les analyses et les courtes citations dans un but d’exemple et d’illustration, « toute représentation intégrale, ou partielle, faite sans le consentement de l’auteur ou de ses ayants droit ou ayants cause est illicite » (alinéa 1er de l’article 40). Cette représentation ou reproduction, par quelque procédé que ce soit, constituerait donc une contrefaçon sanctionnée par les articles 425 et suivants du code pénal. © EDP Sciences 2019

Préface Au cœur de notre quotidien, la métrologie – science de la mesure – s’appuie sur des recherches dans les domaines de la physique et de la chimie afin d’accompagner l’innovation et d’assurer un monde plus sûr. La confiance dans la mesure est essentielle. Elle est aujourd’hui rendue possible par des étalonnages, vérifications et essais. Ces activités, réalisées quotidiennement dans les entreprises et les laboratoires, ont pour objectif d’assurer une traçabilité des mesures au Système international d’unités, le SI, afin de les rendre fiables et indiscutables. Dosage de médicaments, micro-électronique, nanotechnologies, surveillance de l’eau, qualité de l’air ou pollution des sols : tous ces enjeux sont accompagnés d’importants besoins d’exactitude et nécessitent d’avoir recours à la métrologie. Celle-ci contribue à la réponse aux défis sociétaux de l’efficacité énergétique, de la protection de l’environnement et de l’évolution du climat. Indispensable à la vie en société, la métrologie permet d’échanger en confiance avec des bases et un langage communs. L’importance de la mesure s’est accrue avec la croissance et la mondialisation des échanges commerciaux avec les évolutions technologiques qui induisent de nouveaux besoins : technologies quantiques, réseaux intelligents, intelligence artificielle, micro-capteurs… Depuis longtemps, la France a joué un rôle particulier dans le monde de la métrologie  : la Révolution française est à l’origine de la naissance du système métrique décimal ; la signature de la Convention du mètre en 1875 a eu lieu à Paris et la France conserve ce traité ; notre pays a toujours été très présent dans l’évolution du SI et de sa dissémination aux utilisateurs. Il l’a encore démontré récemment avec la redéfinition du SI votée en novembre 2018 à l’unanimité par la 26e  Conférence générale des poids et mesures (CGPM). Les laboratoires français ont fortement contribué aux changements des définitions du kilogramme, du kelvin et de l’ampère, définis désormais à partir de constantes fondamentales de la physique quantique. Cet ouvrage a été réalisé à l’occasion de la révision du SI dont la mise en œuvre est entrée en application le 20 mai 2019. Je remercie l’ensemble des laboratoires du réseau national de la métrologie française pour leurs contributions, et l’équipe du département R&D de la Direction de la recherche scientifique et technologique du LNE pour la conception et l’écriture de cet ouvrage accessible aussi bien aux enseignants, étudiants, ingénieurs de la mesure qu’aux simples curieux. Je vous en souhaite une bonne lecture ! Thomas Grenon Directeur général du LNE iii

Avant-propos La métrologie est une discipline pratique et dynamique qui tire parti des avancées scientifiques afin d’améliorer les résultats de mesure et accroître l’efficacité avec laquelle des mesures exactes peuvent être disséminées. Lors de sa 26e  réunion qui s’est tenue en novembre  2018 à Versailles, la Conférence générale des poids et mesures (CGPM) a approuvé l’une des améliorations les plus importantes du système mondial garantissant la stabilité et la comparabilité des mesures : la CGPM a ainsi décidé de réviser les définitions de quatre des unités de base du SI. Ces changements ont constitué le point d’orgue du travail effectué depuis plusieurs décennies par les métrologues des laboratoires nationaux de métrologie du monde entier  : ils ont, par conséquent, occupé le devant de la scène médiatique. Les nouvelles définitions et les motivations qui ont conduit à les adopter font l’objet de cet ouvrage, dont les auteurs font partie des métrologues éminents ayant été impliqués dans le travail de révision du SI. Les changements apportés au SI revêtent une importance considérable : désormais, tout laboratoire peut, en principe, mettre en pratique chacune des définitions de façon indépendante et l’éventail des méthodes permettant de réaliser les unités va par conséquent croître. Ainsi, le SI met en quelque sorte en œuvre l’une des plus grandes ambitions de la science de la mesure, à savoir l’universalité de l’accès aux mesures «  à  tous les temps, à tous les peuples ». Cette devise date de la loi de 1799 qui fixe la valeur du mètre et du kilogramme succédant à celle de 1795 instituant le système métrique en France. L’une des conséquences de la révision du SI est que le prototype international du kilogramme ne sera plus le fondement de la définition de l’unité de masse comme il l’était depuis 1889. La nouvelle définition du kilogramme exploite les lois de la physique et se fonde sur une valeur numérique fixée de la constante de Planck. Néanmoins, le SI par ces changements de définition ne devient pas totalement quantique car le système continue à dépendre de méthodes pratiques (et classiques) pour sa mise en œuvre, à moins que de futures avancées en métrologie quantique, d’importance comparable à la découverte des effets Josephson et von Klitzing, n’en décident autrement. Cette révision du SI ne marque pas la fin du processus d’amélioration du Système international d’unités. Il est à espérer que la métrologie connaîtra de nouveaux progrès qui conduiront à proposer d’autres révisions du SI, ne serait-ce que pour intégrer une définition

v

Le SI et la métrologie en France

de la seconde fondée sur une transition optique en lieu et place de l’actuelle transition micro-onde. Cela marquerait un changement au sein d’un système dans lequel la réalisation de toutes les unités est déjà accessible « à tous les temps, à tous les peuples ». Martin Milton Directeur du Bureau international des poids et mesures

vi

Sommaire Préface

iii

Avant-propos

v

Chapitre 1.  La métrologie pour l’industrie et les enjeux publics et sociétaux

1

I.

De l’utilité de la mesure et des unités 1

II.

Traçabilité des mesures et accords internationaux 6

Chapitre 2.  Le Système international d’unités, le SI

9

I.

Le SI : un fondement scientifique 9

II.

Le SI : des institutions internationales 11 1. La Conférence générale des poids et mesures (CGPM) 12 2. Le Comité international des poids et mesures (CIPM) 12 3. Les comités consultatifs (CC) 12 4. Le Bureau international des poids et mesures (BIPM) 13 5. Les organisations régionales de métrologie (RMO) 13 6. Les laboratoires nationaux de métrologie 14

Chapitre 3.  Unités et grandeurs de mesure I.

17

Unité de temps : la seconde (s) 19 1. Définition de l’unité de base du SI 19 2. Grandeurs et unités dérivées 20 3. Recommandations du CIPM pour la mise en pratique 20

II.

Unité de longueur : le mètre (m) 22 1. Définition de l’unité de base du SI 22 2. Grandeurs et unités dérivées 22 3. Recommandations du CIPM pour la mise en pratique 22

vii

Le SI et la métrologie en France

III.

Unité de courant électrique : l’ampère (A) 26 1. Définition de l’unité de base du SI 26 2. Grandeurs et unités dérivées 28 3. Recommandations du CIPM pour la mise en pratique 29

IV.

Unité de masse : le kilogramme (kg) 31 1. Définition de l’unité de base du SI 31 2. Mise en pratique de la définition 33 3. Grandeurs et unités dérivées 35

V.

Unité de température : le kelvin (K) 36 1. Définition de l’unité de base du SI 36 2. Mise en pratique de la définition 38 3. Grandeurs et unités dérivées 44

VI.

Unité de quantité de matière : la mole (mol) 45 1. Définition de l’unité de base du SI 45 2. Grandeurs et unités dérivées 45 3. Recommandations du CIPM pour la mise en pratique 48

VII.

Unité d’intensité lumineuse : la candela (cd) 49 1. Définition de l’unité de base du SI 49 2. Grandeurs et unités dérivées 49 3. Recommandations du CIPM pour la mise en pratique 50

Chapitre 4.  Les références nationales

53

I. Temps-fréquence 56 1. Les références de fréquence 56 2. Les références de temps 64 3. Comparaison des échelles de temps et diffusion des références 67 4. Autre référence : gravimétrie 69 II. Longueur 70 1. Références primaires 70 2. Références secondaires et moyens de comparaison 70 III.

Masse et grandeurs apparentées 75 1. Réalisation de la définition du kilogramme 75 2. Références pour les grandeurs dérivées de la masse 78 3. Références de débit 83

IV. Électricité-magnétisme 85 1. Étalons primaires 85 2. Références en courant continu et alternatif basse fréquence 94 3. Références de mesure de signaux radiofréquences 99 V.

Température et grandeurs thermiques 104 1. Réalisation de la définition du kelvin 104 2. Références pour les grandeurs thermiques 106

viii

Sommaire

VI.

Quantité de matière 111 1. Méthodes primaires 111 2. Étalons de transfert 116

VII.

 Photométrie et radiométrie 117 1. Références primaires en radiométrie 119 2. Références de transfert en radiométrie 124 3. Références en photométrie 128

VIII. Rayonnements ionisants 130 1. Introduction pour la mise en pratique 130 2. Radionucléides 132 3. Rayonnements neutroniques 145

Annexe.  Préfixes des unités et noms spéciaux d’unités

149

Pour aller plus loin…

153

Remerciements

155

ix

Chapitre 1

La métrologie pour l’industrie et les enjeux publics et sociétaux

I. De l’utilité de la mesure et des unités1 Il est très souvent nécessaire, voire indispensable, de devoir faire référence à une donnée chiffrée, pour une prise de décision ou pour l’accès à la connaissance. Ce nombre provient généralement d’une mesure qui, pour être utilisable, s’accompagne d’une unité qui permet de qualifier/quantifier la donnée. De tous temps, la société et les hommes ont fait appel à des systèmes d’unités pour échanger, commercer, bâtir, comprendre leur environnement (proche ou lointain comme l’espace), et cela d’une manière pragmatique.

1  Texte faisant référence à des interviews de personnes des laboratoires de métrologie du RNMF (Réseau national de métrologie française).

1

Le SI et la métrologie en France

Le SI, des applications tous azimuts Fondé sur un idéal universaliste et consolidé continûment par les acquis de la science fondamentale, le Système international d’unités est riche d’applications dans tous les secteurs de l’activité humaine. Depuis novembre 2018, l’ensemble des sept unités de base du Système international d’unités, appelé SI, est défini à partir de constantes fondamentales de la physique. Ainsi, la définition du kilogramme ne fait plus aucune référence à un étalon matériel, mais dépend désormais, entre autres, de la constante de la mécanique quantique, plus connue sous le nom de constante de Planck, h.

Photo 1 :  Loi française du 4 juillet 1837 sur la métrologie ; application du 1er janvier 1840. Source : photo BNM.

Abstrait ? À l’évidence. Depuis ses origines, la métrologie est une affaire de science fondamentale et de technologies de pointe, avec un objectif  : garantir la précision, l’universalité et la pérennité des unités de mesure. Ce faisant, elle concrétise les idéaux universalistes des Lumières d’en finir avec l’arbitraire et le particulier. Mais au-delà, c’est l’émergence, dans le courant du XIXe siècle, d’un vaste marché international qui a convaincu les grandes nations de la nécessité de mettre en place un système commun et utilisable par tous, conduisant en 1875 à la signature de la « Convention du mètre ». Autrement dit, la pérennité d’un système cohérent d’unités et sa dissémination répondent à un objectif éminemment pratique. D’un mot, il s’agit de garantir qu’un kilogramme de sucre est identique à Paris, New York ou Buenos Aires. Si bien que la quasi-totalité des activités humaines dépendent, sont transformées, voire sont déterminées par le travail des métrologues sans que nous en ayons toujours conscience. Un seul exemple : d’abord fondé sur la longueur d’un méridien terrestre, le mètre est défini depuis 1983 comme une fraction de la distance parcourue par la lumière dans le vide, en une seconde. Or sans cette évolution, guidée par les progrès des sciences et des techniques, jamais les applications de géolocalisation (telles qu’utilisant le GPS – Global Positioning System) n’auraient vu le jour ! Ce dernier n’était pas inscrit dans la réforme de 1983, mais celle-là l’a rendu possible, illustrant comment la métrologie, loin des abstractions, est source d’applications tous azimuts. Ce sont les illustrations les plus marquantes que les différents chefs des laboratoires du Réseau national de métrologie française, interrogés par Mathieu Grousson, soulignent ici.

Dans la vie quotidienne Cette réalité est criante dans notre vie quotidienne. Sans le SI, il n’y aurait pas de garantie possible de la quantité d’essence délivrée à la pompe, de suivi rigoureux de la qualité de l’air ou d’évaluation des performances d’une ampoule à incandescence. 2

Chapitre 1. La métrologie pour l’industrie et les enjeux publics et sociétaux

Le domaine de la santé, où des évolutions récentes de la métrologie auront un impact majeur, n’y échappe pas. Ainsi, peut-être vous êtes-vous déjà demandé pourquoi il était courant de voir les mêmes analyses sanguines répétées, plusieurs fois, par des praticiens différents ? Tout simplement car les différentes méthodes utilisées par les laboratoires d’analyses médicales pour doser les marqueurs biologiques n’étaient pas, jusqu’à récemment, rattachées à des références connues. « Ce n’est pas que les choses n’aient pas été faites sérieusement, mais d’une méthode de dosage à l’autre, les résultats étaient potentiellement différents. De là une difficulté pour les comparer dans le temps et entre laboratoires ». Pour y remédier, une ordonnance de 2010 fait désormais obligation à ces laboratoires d’obtenir une accréditation garantissant la traçabilité des résultats de leurs analyses au SI, et cela d’ici 2020. Dans cette perspective, les laboratoires de métrologie ont initié dès 2006 des travaux permettant de combler le manque de méthodes et de matériaux de référence pour l’étalonnage des automates utilisés pour doser les différents biomarqueurs.

Photo 2 :  Surveillance de la qualité de l’eau. Source : fotolia.

Glucose pour le diabète, créatinine pour l’insuffisance rénale, procalcitonine pour les chocs septiques, molécules associées aux risques cardiovasculaires ou aux maladies neurodégénératives… c’est ainsi plusieurs centaines de biomarqueurs qui devront faire l’objet d’un raccordement au SI dans les prochaines années. Ces exemples illustrent l’indispensable travail en continu des métrologues pour répondre aux exigences sociétales croissantes en matière de traçabilité. Celles-ci sont notamment particulièrement prégnantes dans le domaine de la radiothérapie et du radiodiagnostic. « S’agissant des rayonnements ionisants, il est indispensable de s’assurer que la dose minimale nécessaire à l’objectif médical (mais pas plus), est délivrée au patient ». Pour ce faire, dans un domaine où les évolutions technologiques sont rapides, les laboratoires développent des étalons primaires de dose, ainsi que des méthodes permettant de les disséminer jusqu’aux utilisateurs finaux. « Par exemple, une nouvelle référence pour les faisceaux d’irradiation de très faible section a été développée récemment, pour laquelle les spécialistes ont dû mettre au point un calorimètre à l’architecture très différente de celle des dispositifs adaptés à des faisceaux plus larges ».

Dans l’industrie Si les évolutions de la métrologie se font sentir jusque dans notre quotidien, elles accompagnent également le développement de l’industrie et des technologies. « Sans une métrologie de précision, il serait tout simplement impossible d’assembler un véhicule dont les différentes composantes ont été conçues aux quatre coins du monde ». Ainsi, aujourd’hui, l’essor des nanotechnologies est largement conditionné par la mise en place d’une métrologie adaptée. « L’ensemble 3

Le SI et la métrologie en France

des acteurs du domaine s’accordent sur le fait qu’une métrologie spécifiques aux plus petites échelles aurait un effet catalyseur sur le développement de filières industrielles ». Des plates-formes sont agrégées dans le but de constituer une série de références métrologiques nationales pour la caractérisation d’objets à l’échelle nanométrique. L’objectif concret est de raccorder aux unités du SI, huit paramètres parmi la multitude existante, qui permettent de caractériser finement des nanoparticules : taille, forme, état d’agglomération, structure cristallographique, charge, niveau d’impureté, surface spécifique et solubilité. « Ces développements sont essentiels pour le contrôle des procédés de fabrication et le passage à l’échelle industrielle des nanotechnologies ».

Photo 3 :  Caractérisation thermique de matériaux en couches minces. Source : photo LNE/ Philippe STROPPA.

La problématique est similaire dans le domaine des réseaux intelligents, notamment électriques. «  Avec l’essor des énergies renouvelables, hétérogènes et éparpillées, auquel s’ajoute une consommation de plus en plus aléatoire, les réseaux électriques se complexifient ». Conséquence : de nouveaux outils de mesures sont nécessaires afin de s’assurer de la qualité de l’énergie. Concrètement,  «  les métrologues doivent faire avec des signaux plus bruités, plus complexes, ce qui implique des capteurs plus performants, plus fiables et, parce que plus nombreux, donc moins chers ». Par exemple, le développement d’un réseau miniaturisé sur lequel on recrée l’ensemble des perturbations, harmoniques d’ordre élevé, pics, creux… observables sur un réseau intelligent, afin d’en étudier l’impact sur les installations, grâce à de nouveaux capteurs raccordés au SI  ; ou encore la mesure de la puissance électrique engendrée par une forte tension associée à un courant élevé. « La mesure des deux en simultané est une gageure, notamment pour des applications dans le domaine ferroviaire ».

Au laboratoire Les évolutions constantes de la métrologie impliquent des développements au plus près des concepts scientifiques les plus fondamentaux. Au point que le travail des métrologues a lui aussi des répercussions sur les avancées de la recherche. C’est particulièrement vrai en mécanique quantique, discipline aujourd’hui aux confluents de la science fondamentale, d’une révolution technologique en cours et d’une haute précision toujours recherchée. Une chose est sûre, la précision quantique est une réalité métrologique, puisque certains des effets de l’étrange mécanique sont mis en œuvre pour réaliser des étalons ultra précis. Par exemple, des étalons de tension, de résistance et de courant électrique fondés sur les effets Hall et Josephson, ne dépendent que de la charge de l’électron, e, et de la constante de Planck, h. À cet égard on peut, par exemple, citer les travaux proposés pour la génération d’étalon de courant basé sur un circuit quantique et exact à 10–8 près, contre 10–6 habituellement. 4

Chapitre 1. La métrologie pour l’industrie et les enjeux publics et sociétaux

Ces recherches au service de la métrologie ont également un impact sur le développement des technologies quantiques qui visent par exemple à concevoir des ordinateurs où des qubits, susceptibles d’être à la fois 0 et 1 (en remplacement des bits) ce qui laissent augurer des performances de calcul hors normes. Ainsi, des chercheurs développent des nanofils qui pourraient constituer un tel qubit… projet au départ né d’une collaboration avec des métrologues pour utiliser ces systèmes pour la réalisation d’étalons de courant monoélectronique. «  Même système, vision différente, permettant des avancées majeures ». Des convergences semblables sont aussi observées en métrologie du temps-fréquences où la mécanique quantique donne le «  la  » de la seconde depuis plusieurs décennies. Ainsi, les laboratoires de métrologie et universitaires travaillent de concert à la réalisation d’un réseau fibré pour disséminer la seconde atomique aux acteurs scientifiques, et maintenant aux industriels. Ceci pour effectuer des tests fondamentaux sur la violation de parité, dans les molécules, par exemple. Par ailleurs, les métrologues du temps développent actuellement une nouvelle génération d’horloges atomiques, dites optiques, dont la précision devrait atteindre 10–18 contre 10–16 aujourd’hui. « À ce niveau de précision, on est sensible à des effets géodésiques via la variation du potentiel gravitationnel ». Si ces effets sont bien entendu à prendre en compte pour atteindre la précision visée, cela signifie à l’inverse qu’une horloge atomique portable qui l’atteindrait pourrait devenir un instrument de mesures géodésiques au centimètre près ! « C’est bien sûr prospectif, mais cela illustre tout l’enjeu de la métrologie : avoir un coup d’avance sur les applications ». Qui, au-delà des abstractions de laboratoire, sont définitivement tous azimuts !

Photo 4 :  Échantillons de Hall pour les références de métrologie électrique. Source : photo LNE/ Philippe STROPPA.

5

Le SI et la métrologie en France

II. Traçabilité des mesures et accords internationaux À l’heure de l’internationalisation des marchés, de la conception, de la fabrication et de l’assemblage de pièces et de produits en tous genres, il paraît assez évident que la traçabilité et la comparaison des mesures effectuées dans plusieurs pays ou régions sont indispensables pour l’assurance de la qualité des produits et des instrumentations. La cohérence des résultats de mesure doit être établie ; elle passe souvent par des comparaisons internationales au plus haut niveau d’exactitude, entre les différents acteurs en métrologie, dont les instituts nationaux de métrologie. Cela a conduit à l’établissement d’un accord de reconnaissance mutuelle des certificats d’étalonnage et de mesurage en 1997, pour faciliter les échanges commerciaux en particulier : le CIPM MRA (voir chapitre 2). Pour assurer la traçabilité des mesures des utilisateurs, et permettre cette cohérence en tous lieux et à toute heure, différentes voies sont possibles qui établissent l’existence d’une chaîne ininterrompue de comparaisons, à différents niveaux d’incertitude de mesure. Ceci donne un lien fiable entre les mesures industrielles et des références déterminées et conforte la traçabilité des mesures au système international d’unités, le SI. Ce raccordement des entreprises, des laboratoires et de tout autre organisme technique, peut être reconnu par le biais du système de chaînes d’étalonnage, via l’accréditation. En France, l’accréditation est assurée par le Cofrac, Comité français d’accréditation. De la même façon que les instituts nationaux de métrologie, les organismes d’accréditation ont signé des accords au niveau international pour la reconnaissance de la validité des raccordements sous accréditation  ; c’est le MRA (Multi Recognition Agreement) défini par ILAC (International Laboratory Accreditation Cooperation). Le Cofrac est signataire du ILAC MRA.

6

Chapitre 1. La métrologie pour l’industrie et les enjeux publics et sociétaux

Définitions de quelques notions utiles Métrologie Science des mesurages et ses applications. Mesurande Grandeur que l’on veut mesurer. Mesurage Processus consistant à obtenir expérimentalement une ou plusieurs valeurs que l’on peut raisonnablement attribuer à une grandeur. Exactitude de mesure Étroitesse de l’accord entre une valeur mesurée et une valeur vraie d’un mesurande. Incertitude de mesure Paramètre non négatif qui caractérise la dispersion des valeurs attribuées à un mesurande, à partir des informations utilisées. Répétabilité de mesure Fidélité de mesure selon un ensemble de conditions de répétabilité. Reproductibilité de mesure Fidélité de mesure selon un ensemble de conditions de reproductibilité. Traçabilité métrologique Propriété d’un résultat de mesure selon laquelle ce résultat peut être relié à une référence par l’intermédiaire d’une chaîne ininterrompue et documentée d’étalonnages dont chacun contribue à l’incertitude.

7

Chapitre 2

Le Système international d’unités, le SI

I. Le SI : un fondement scientifique Comme cela a été vu dans le chapitre précédent, qui dit mesure, dit référentiel, donc unité. Le référentiel commun pour les mesures n’a cessé d’évoluer depuis des millénaires. Vers l’an 20 avant notre ère, sur ordre de l’empereur Auguste, on procéda à l’unification des poids et mesures dans l’ensemble du monde romain. Ce faisant, tous les poids et les mesures existant précédemment à usage local, furent abolis : on en trouve les traces à Pompéi, sur la mensa pondetaria. Bien plus tard, la révolution française a permis de faire émerger un autre système d’unités, cohérent, avec aussi comme objectif une large dissémination à travers le monde, le système métrique décimal. Ce système fût acté à l’échelle internationale par un traité diplomatique scientifique, la Convention du mètre en 1875. Le Système métrique a évolué depuis sa ratification et plusieurs autres unités ont été intégrées au cours du temps. C’est en 1960, date de la onzième Conférence générale des poids et mesures, que le nom de « Système international d’unités », ou SI, est entériné.

9

Le SI et la métrologie en France

Le SI est constitué de : • •

sept unités de base, associées aux sept grandeurs de base ; des unités dérivées, répertoriées dans la brochure sur le SI éditée par le BIPM.

Les sept unités de base, fondées sur une base décimale, sont les suivantes : • • • • • • •

le mètre (m), unité de longueur ; le kilogramme (kg), unité de masse ; la seconde (s), unité de temps ; l’ampère (A), unité d’intensité de courant électrique ; le kelvin (K), unité de température thermodynamique ; la candela (cd), unité d’intensité lumineuse dans une direction donnée ; la mole (mol), unité de quantité de matière.

La Convention du mètre La Convention du mètre a été signée le 20 mai 1875 par 17 États, à Paris. Ce traité diplomatique acte la création du Bureau international des poids et mesures (BIPM), entretenu à frais partagés entre les États. Il reconnaît ainsi tacitement le caractère universel du Système métrique dont les unités de longueur et de masse avaient été matérialisées par le Mètre et le Kilogramme des Archives. La nécessité de fixer « l’unité » commune de mesure pour tous (« À tous les temps, à tous les peuples ») a vu le jour lors de la première exposition universelle (Londres, 1851), puis dans les assemblées de l’Association géodésique internationale. Soutenue par les Académies des sciences de Saint-Pétersbourg et de Paris et motivée par le désir d’indépendance des nations aux prototypes français des Archives, les bases de l’organisation internationale de la métrologie ont été posées par la signature de ce traité. Celle-ci a permis la réalisation de nouveaux prototypes métriques nationaux. Cette décision favorise ainsi le progrès dans tous les domaines de la métrologie et donc de la science. La Convention du mètre est aujourd’hui la pierre angulaire du référentiel de mesures, à l’échelle internationale. Au 24 mai 2019, 60  États membres ont ratifié cet accord. Les membres associés à la Conférence générale des poids et mesures (CGPM) sont au nombre de 42. Bien que ce statut ne donne pas à ces derniers de droit de vote lors des réunions de la CGPM, c’est pour ces pays l’assurance de voir leur système de mesure national reconnu et associé à la Convention du mètre. Ils peuvent ainsi participer aux comparaisons clés et demander à ce que leurs possibilités d’étalonnage soient reconnues (CMC ou Calibration Measurement Capabilities).

10

Chapitre 2. Le Système international d’unités, le SI

II. Le SI : des institutions internationales Lorsque de nouveaux besoins émergent et que les moyens technologiques font progresser la connaissance scientifique, les mesures nécessitent de plus grandes exactitudes. Le SI est alors amené à évoluer : cela a été le cas à plusieurs reprises dans l’histoire, et les définitions des unités ont été modifiées. L’ensemble doit cependant conserver un caractère univoque et cohérent. Pour cela, la métrologie internationale est structurée en instances décisionnaires et opérationnelles (figure  1) qui fonctionnent entre elles selon un processus bien défini, garantissant ainsi la stabilité et la pérennité du système. Pour se prémunir de l’intérêt prédominant d’un État membre, le président du Comité international des poids et mesures (CIPM), le secrétaire du CIPM et le directeur du BIPM doivent être de nationalités différentes. Convention du mètre 20 mai 1875

Conférence générale des poids et mesures (CGPM) Présidée par l’académie des sciences française Délégués des États membres Réunion environ tous les quatre ans

Traité diplomatique

Gouvernements des États membres

Comité international des poids et mesures (CIPM) 18 membres à titre personnel Élus par la CGPM, de nationalités différentes Réunion tous les ans

Comités consultatifs (CC)

Laboratoires nationaux de métrologie

Président : membre du CIPM Représentants : experts des laboratoires nationaux de métrologie

Bureau international des poids et mesures (BIPM) Laboratoires et bureaux à Sèvres Pavillon de Breteuil

Figure 1 :  Organisation de la métrologie internationale. Source : LNE.

11

Le SI et la métrologie en France

1. La Conférence générale des poids et mesures (CGPM) C’est une conférence diplomatique qui réunit les délégués des États membres de la Convention du mètre et les observateurs associés. Elle réglemente le choix des unités, la définition des étalons et planifie l’organisation, le fonctionnement et le financement du BIPM. La CGPM se réunit au moins une fois tous les six ans, sur convocation du ministère des Affaires étrangères français. Depuis 1960, ces réunions se tiennent environ tous les quatre ans. La séance d’ouverture est présidée par le ministre des Affaires étrangères de l’État français ; les séances de travail par le président de l’Académie des sciences de Paris.

2. Le Comité international des poids et mesures (CIPM) Le CIPM prépare les propositions et recommandations qui seront soumises à la CGPM et a pour mission de superviser et diriger les travaux du BIPM. Le CIPM est composé de dix-huit personnalités élues à titre personnel, par la CGPM  : toutes ces personnalités scientifiques doivent être de nationalités différentes. De par son histoire et comme reconnaissance du rôle joué par la France en tant que dépositaire de la Convention du mètre, un des membres du CIPM est de nationalité française ; ainsi la France a toujours été représentée au CIPM. L’instance se réunit une fois par an. Devant le nombre croissant d’états membres, mais aussi étant donné l’ampleur des évolutions scientifiques, le CIPM a créé, depuis 1927, une série de comités consultatifs (CC) sur lesquels il s’appuie scientifiquement.

3. Les comités consultatifs (CC) Les comités consultatifs, présidés par un membre du CIPM, sont composés d’experts et de spécialistes mondiaux travaillant dans les laboratoires nationaux de métrologie. En 2018, on liste dix comités consultatifs : • • • • •

12

CCEM : Électricité – Magnétisme, créé en 1927 ; CCPR : Photométrie – Radiométrie, créé en 1933 ; CCT : Température, créé en 1937 ; CCL : Longueur, créé en 1952 ; CCTF : Temps – Fréquences, créé en 1956 ;

Chapitre 2. Le Système international d’unités, le SI

• • • • •

CCRI : Rayonnements Ionisants, créé en 1958 ; CCU : Unités, créé en 1964 ; CCM : Masse créé en 1980 ; CCQM : Quantité de Matière, créé en 1993 ; CCAUV : Acoustique - Ultrasons – Vibrations, créé en 1998.

Ces comités préparent des recommandations pour chacun de leur domaine, en analysant les travaux réalisés et l’impact de futures évolutions technologiques et scientifiques. Les recommandations sont soumises, en première instance, au CIPM.

4. Le Bureau international des poids et mesures (BIPM) Le BIPM, situé au « Pavillon de Breteuil » à Sèvres, a pour directeur une personnalité scientifique nommée par le CIPM. Son fonctionnement est assuré par les contributions financières de chaque État membre adhérant à la Convention du mètre. La mission principale de cette instance est de promouvoir et de faire avancer la comparabilité mondiale des mesures ou traçabilité des mesures pour l’ensemble des champs d’application, allant de la recherche à la production industrielle et à l’utilisateur.

5. Les organisations régionales de métrologie (RMO) Pour faciliter le fonctionnement, permettre l’accès aux services métrologiques et donner la possibilité à tous les États de participer à la traçabilité des mesures au SI, même s’ils ne sont pas adhérents à la Convention du mètre, des organisations régionales de métrologie (ou RMO – Regional Metrology Organisation) ont été créées dans les années 1970 à 1980. Six RMO sont répertoriées en 2018 (figure 2) : • pour la région Europe (37 membres)  : EURAMET, European Association of National Metrology Institutes ; • pour la région Asie-Pacifique  (26 membres)  : APMP, Asia and Pacific Metrology Programme ; • pour la région du continent américain (34 membres)  : SIM, Sistema Interamericano de Metrologia ; • pour la région Afrique (42 membres) : AFRIMETS, Système intraafricain de métrologie ; • pour la région Europe de l’est (20 membres et Cuba) : COOMET, Euro-Asian Co-operation of National Metrology Institutes ; • pour la région des pays du golfe (7 membres) : GULFMET.

13

Le SI et la métrologie en France

Les membres sont les laboratoires nationaux de métrologie des pays qui ont adhéré à la région concernée. Des membres associés (ou membres correspondants) sont aussi acceptés ; c’est le cas, en particulier, de pays se trouvant dans une zone où aucune RMO n’a encore été créée. À l’heure actuelle, ces entités ont su se développer de façon exponentielle, et leur rôle sur la scène internationale en métrologie s’est sans conteste accru. Elles jouent un rôle essentiel dans la mise en œuvre de la Convention du mètre et des différents accords de reconnaissance mutuelles.

EURAMET

COOMET

APMP SIM

GULFMET

AFRIMETS Figure 2 :  Mappemonde des organisations régionales de métrologie. Source : LNE.

6. Les laboratoires nationaux de métrologie Les laboratoires nationaux de métrologie réalisent et conservent les étalons et références de plus haut niveau métrologique du pays. Ils effectuent par ailleurs des recherches pour faire évoluer le SI en fonction des nouveaux besoins de l’industrie et de la société. Les équipes, constituées de métrologues de différents domaines métrologiques, contribuent de par leurs travaux de recherche aux évolutions et aux développements de nouvelles références, suivant la stratégie de développement de leur pays d’appartenance. Les références nationales et les différentes possibilités d’étalonnage des pays ayant ratifié la Convention du mètre sont répertoriées par le BIPM, sous la forme de CMC (Calibration Measurement Capabilities), dans une base de données dédiée.

14

Chapitre 2. Le Système international d’unités, le SI

Pour assurer la cohérence des mesures au niveau international et au plus haut niveau d’exactitude, ces laboratoires maintiennent au meilleur niveau de performance leurs références et participent de manière régulière à des comparaisons clés, garantie de la compétence de ces laboratoires et de la cohérence du système de mesure.

Arrangement de reconnaissance mutuelle du CIPM (CIPM MRA) L’arrangement de reconnaissance mutuelle (MRA - Mutual Recognition Arrangement) a été élaboré par le CIPM, en vertu de l’autorité qui lui est conférée par les États membres de la Convention du mètre. Il a été signé en octobre 1999 par les directeurs des laboratoires nationaux de métrologie. Cet accord établit une reconnaissance mutuelle des étalons nationaux de mesure et des certificats d’étalonnage et de mesurage (CMC) émis par leurs laboratoires. Pour établir les critères de reconnaissance mutuelle sur une base objective, cet arrangement s’appuie sur : –

– –

les résultats d’un ensemble de comparaisons clés effectuées selon des procédés spécifiés qui conduisent à une estimation quantitative du degré d’équivalence des étalons nationaux de mesure ; la mise en place, par chaque laboratoire, de moyens adaptés afin d’assurer la qualité des mesures ; la participation effective de chaque laboratoire à des comparaisons supplémentaires appropriées.

Cet arrangement comprend deux parties : dans la première partie, les signataires reconnaissent le degré d’équivalence des étalons nationaux de mesure des laboratoires nationaux participants  ; dans la seconde partie, les signataires reconnaissent la validité des certificats d’étalonnage et de mesurage émis par les laboratoires participants. Un logo spécifique a été créé, logo qui peut être appliqué sur les certificats d’étalonnage émis par les laboratoires, pour des CMC publiées dans la KCDB (Key Comparison DataBase du BIPM). Le Laboratoire national de métrologie et d’essais (LNE) est l’Institut de métrologie dont la mission est de mettre en œuvre la politique nationale de métrologie sur le territoire français. À ce titre, il est signataire du CIPM MRA, et doit répondre aux critères de celui-ci pour une reconnaissance effective des possibilités d’étalonnage de tous laboratoires nationaux de métrologie français, associés au LNE.

15

Chapitre 3

Unités et grandeurs de mesure

Introduction aux définitions des unités du SI Lors de la 26e réunion de la CGPM, qui s’est tenue  du 13 au 16  novembre 2018 à Versailles, la redéfinition des sept unités de base du SI a été adoptée. Considérant qu’il est essentiel de disposer d’un Système international d’unités uniforme, accessible dans le monde entier, stable sur le long terme, auto-cohérent, réalisable dans la pratique et fondé sur la description théorique de la nature, connue au plus haut niveau scientifique, la révision du SI a été adoptée à l’unanimité par les États membres. À compter du 20 mai 2019, le SI et ses sept unités de base reposent sur sept constantes de la nature, dites de définition, dont la valeur numérique exacte de chacune a été fixée : • la fréquence de la transition hyperfine de l’état fondamental de l’atome de césium-133 non perturbé, ∆νCs, est égale à 9 192 631 770 Hz ; • la vitesse de la lumière dans le vide, c, est égale à 299 792 458 m/s ; • la constante de Planck, h, est égale à 6,626 070 15 × 10−34 J·s ; • la charge élémentaire, e, est égale à 1,602 176 634 × 10−19 C ;

17

Le SI et la métrologie en France

• la constante de Boltzmann, k, est égale à 1,380 649 × 10−23 J/K ; • la constante d’Avogadro, NA, est égale à 6,022 140 76 × 1023 mol−1 ; • l’efficacité lumineuse d’un rayonnement monochromatique de fréquence 540 × 1012 Hz, Kcd, est égale à 683 lm/W. Les valeurs numériques des constantes, notamment pour les constantes h, e, k et NA, ont été fixées en 2018, d’après l’ajustement des valeurs des constantes effectué en juillet 2017 par CODATA (groupe de travail international sur les constantes fondamentales) spécialement pour la révision du SI. Les nouvelles définitions sont maintenant formulées de manière uniforme et dites « à constante explicite ». Ce chapitre passe en revue les sept unités de base du SI ainsi que leurs unités dérivées les plus importantes. Les mises en pratique des unités sont également introduites dans ce chapitre où sont synthétisées les recommandations effectuées par le CIPM via les comités consultatifs de chaque unité. La « mise en pratique » d’une unité est la réalisation pratique de sa définition.

18

Chapitre 3. Unités et grandeurs de mesure

I.

Unité de temps : la seconde (s)

1.

Définition de l’unité de base du SI

La définition de 2018 (26e CGPM) n’est qu’une nouvelle formulation de la précédente définition qui datait de 1967 (13e CGPM), où l’unité était passée d’un référencement astronomique (mouvement de la Terre) à un référencement atomique (césium) pour améliorer la précision des mesures de temps et l’universalité des références.

La seconde, symbole s, est l’unité de temps. Elle est définie en prenant la valeur numérique fixée de la fréquence du césium, ∆ν Cs , la fréquence de la transition hyperfine de l’état fondamental de l’atome de césium 133 non perturbé, égale à 9 192 631 770 lorsqu’elle est exprimée en hertz (Hz), unité égale à s−1.

Dans cette formulation, la fréquence de transition entre les niveaux d’énergie hyperfins de l’état fondamental de l’atome de césium 133 est devenue explicitement la constante de définition ∆ν Cs retenue pour définir la seconde. La valeur numérique de ce paramètre atomique ∆ν Cs est exacte, c’est-à-dire a une incertitude nulle. C’est un invariant de la nature ; l’isotope 133 de l’atome de césium est naturel, identique en tout lieu et stable dans le temps (sans altération de ses propriétés physiques) et lorsqu’il est non perturbé, ses propriétés physiques sont constantes. La valeur de ∆ν Cs exprimée en hertz a pour conséquence de définir la seconde comme la durée de 9 192 631 770 périodes d’oscillation d’un signal électromagnétique correspondant à la transition atomique citée dans la définition de la seconde : 1 s = 1 Hz −1 =

9 192 631770 . ∆ν Cs

La seconde, ainsi définie, doit être considérée comme une unité de temps propre pour le lieu où elle est générée, au sens de la théorie générale de la relativité. Pour comparer des signaux d’horloges produits dans des lieux différents, il est nécessaire d’effectuer une correction de fréquence qui tienne compte des effets relativistes.

19

Le SI et la métrologie en France

2. Grandeurs et unités dérivées 2.1. Temps En physique, la grandeur temps (t) exprime une durée ; la mesure d’un temps est en fait la mesure d’un intervalle de temps. La notion de temps absolu correspond à des instants, des dates, des heures… et donc ne se mesure pas ; ces termes se rapportent à des calendriers ou des repères de temps (des échelles) et concernent la datation. La seconde a déjà été utilisée par C.F. Gauss dès le XVIIIe siècle (définie alors à partir d’un jour solaire moyen, première unité de temps universelle) et a été introduite dans le SI dès sa création car c’est une unité fondamentale : dès qu’il y a mouvement ou transformation, la description du modèle dynamique nécessite la référence au temps, donc à la seconde. C’est pourquoi celle-ci est incluse dans de nombreuses unités dérivées pour exprimer par exemple une vitesse, une accélération, une force, une énergie, une charge électrique, un débit… et cinq des six autres unités de base du SI s’y réfèrent également : le mètre, le kilogramme, l’ampère, le kelvin et la candela. D’autres unités de temps, non SI, relatives aux cycles jour-nuit, sont utilisées tant pour des raisons historiques que pratiques et sociétales. Elles restent admises en usage avec les unités SI. Tableau 1 :  Unités de temps.

Unité (symbole)

Valeur en unités SI

minute (min)

1 min = 60 s

heure (h) jour (d)

= 1 h 60 = min 3 600 s = 1 d 24 = h 86 400 s

2.2. Fréquence Le hertz (Hz), unité de fréquence (f ), est une unité dérivée de la seconde, 1 Hz = 1 s−1. Cette unité doit être employée uniquement pour exprimer la fréquence d’un phénomène périodique, c’est-àdire l’inverse de sa période. S’il s’agit d’exprimer une vitesse de déplacement linéaire (m·s–1) ou angulaire (rad·s–1), le Hz ne peut pas être employé à la place de s−1.

3. Recommandations du CIPM pour la mise en pratique Par définition, la seconde est réalisée à partir d’une fréquence particulière, ∆ν Cs , qui appartient au domaine micro-onde du spectre électromagnétique (environ 9,2 GHz). La définition indique donc la 20

Chapitre 3. Unités et grandeurs de mesure

fréquence à utiliser pour réaliser un étalon primaire de fréquence. La seconde résulte alors de la construction d’un intervalle de temps égal à un nombre de fois (la valeur numérique entière à dix chiffres de ∆ν Cs ) la période du signal micro-onde de l’étalon primaire de fréquence, correspondant à la transition atomique citée dans la définition de la seconde. En plus de cette fréquence ∆ν Cs pour réaliser l’étalon primaire de fréquence, le CIPM recommande d’autres fréquences de transition atomique ou ionique pour constituer des représentations secondaires de la seconde. Cette liste évolue au cours du temps selon l’avancement des connaissances et des développements technologiques. Elle est élaborée en commun par deux comités consultatifs du CIPM, le CCTF (seconde) et le CCL (mètre) car elle sert aussi de base pour la mise en pratique du mètre, unité de longueur du SI. En 2019, neuf fréquences sont recommandées pour réaliser des étalons secondaires de fréquence : une est située dans la bande des fréquences micro-ondes et correspond à la transition atomique (hyperfine) du rubidium 87Rb (6,8 GHz), et les huit autres sont situées dans la bande des fréquences optiques et correspondent à des transitions d’atomes neutres, comme le mercure 199Hg (1 129 THz), l’ytterbium 171Yb (518  THz), le strontium 87Sr  (429  THz), ou à des transitions d’ions, comme l’aluminium 27Al+ (1 121 THz), le mercure 199Hg+ (1 065  THz), l’ytterbium 171Yb+ (  688  THz et 642  THz) et le strontium 88Sr+ (445 THz). Ces étalons de fréquence secondaires doivent être raccordés à l’étalon primaire au césium et ils ont donc une fréquence recommandée dont l’incertitude dans le SI est nécessairement plus grande que celle de l’étalon au césium. Ces fréquences sont répertoriées pour leur grande exactitude potentielle, qui peut se révéler être meilleure que celle obtenue avec le césium.

21

Le SI et la métrologie en France

II. Unité de longueur : le mètre (m) 1.

Définition de l’unité de base du SI

La définition sous-tend qu’un mètre est la longueur du trajet parcouru par la lumière dans le vide pendant un intervalle de temps d’une durée de 1/299 792 458 seconde. Le mètre, symbole m, est l’unité de longueur du SI. Il est défini en prenant la valeur numérique fixée de la vitesse de la lumière dans le vide c à 299 792 458 lorsqu’elle est exprimée dans l’unité m·s–1, où la seconde est définie en fonction de la fréquence du césium ∆νCs.

Jusqu’en 1960, le mètre était défini par un étalon matériel en platine iridié : le prototype international. La 11e CGPM abroge cette définition, pour la remplacer par une définition quantique et dématérialisée, basée sur la transition de résonnance entre les niveaux d’énergie de l’atome de krypton 86. Photo 5 : Exemplaire de prototype du mètre étalon. Source : photo LNE.

Dans les années 1980, les travaux en lien avec la définition de la seconde, en termes d’incertitude liée à la détermination de la vitesse de propagation c de la lumière dans le vide, mènent à adopter la présente définition du mètre, lors de la 17e CGPM (1983).

2.

Grandeurs et unités dérivées

Des unités dérivant du mètre sont présentées ci-dessous : Tableau 2 : Unités et grandeurs dérivées du mètre.

Grandeur dérivée

Nom spécial de l’unité

Symbole

Expression en unités SI

angle plan

radian

rad

m·m–1

angle solide

stéradian

sr

m2·m–2

volume

-

-

m3

3.

Recommandations du CIPM pour la mise en pratique

La 17e CGPM (1983) a décidé d’une nouvelle définition du mètre et demandé au CIPM de définir la mise en pratique du mètre. Celle-ci doit être réalisée par l’une des trois méthodes décrites dans les paragraphes ci-après. 22

Chapitre 3. Unités et grandeurs de mesure

3.1. Mesure du temps de vol La relation suivante permet de mettre en pratique le mètre à l’aide d’une impulsion lumineuse dans le vide : l = c · t avec c la vitesse de la lumière dans le vide (c = 299 792 458 m.s–1), l la longueur du trajet parcouru dans le vide par une onde électromagnétique plane pendant une durée t. La mesure du temps de vol t permet de mettre en pratique le mètre, puisque c est fixée et connue de manière exacte. Cette méthode s’applique à la mesure de longues distances afin que la durée mesurée soit suffisamment importante. Ainsi, la mesure de la distance Terre-Lune se prête bien à cette mise en pratique du mètre. Cette mesure est réalisée sur la distance aller-retour, à l’aide d’un réflecteur posé sur la surface lunaire par les missions spatiales Apollo 11, 14 et 15, de manière à ce que la même horloge puisse être utilisée au départ et à l’arrivée de l’impulsion. La durée du trajet aller-retour entre la Terre et la Lune est d’environ 2,5 secondes.

3.2. Mesure de fréquence Les radiations monochromatiques de fréquence stabilisée permettent d’obtenir des étalons de longueur d’onde dans le vide. En effet, la mesure de la fréquence f d’une onde électromagnétique plane permet de calculer la longueur d’onde dans le vide λ, à l’aide de la relation : c λ= f Avec c, la vitesse fixée de la lumière dans le vide. Les fréquences de ces radiations peuvent être mesurées par comparaison directe à une référence dans le domaine optique (400 nm à 700 nm) par l’intermédiaire d’une chaîne de synthèse de fréquence, ou depuis les années 2000, d’un laser femtoseconde. Un laser femtoseconde produit de brèves impulsions de lumière, d’une durée de l’ordre de quelques femtosecondes à quelques centaines de femtosecondes. La représentation graphique du spectre de fréquence produit par un laser femtoseconde est appelée peigne de fréquence. La réalisation de peignes de fréquence sur la base de lasers femtosecondes a d’ailleurs permis à ses inventeurs, T. Hänsch et J.L. Hall, de recevoir le prix Nobel de physique en 2005. La fréquence de répétition du laser impulsionnel, de l’ordre de 1 GHz, est asservie sur une référence de fréquence traçable. Ainsi le peigne de fréquence (figure 3) est constitué de « dents » régulièrement espacées dont l’écartement est traçable. La fréquence optique de chaque dent du peigne est donc connue puisqu’on mesure en plus le « décalage » du peigne (f0 sur la figure 4). Le peigne de fréquences du laser femtoseconde peut alors être utilisé comme une « règle » de fréquences. 23

Le SI et la métrologie en France

E (f)

domaine spectral

frep

f0

Figure 3 :  Peigne de fréquence. Source : LNE. ΔΦ

E (t)

2 ΔΦ

domaine temporel

t

1/frep

Figure 4 :  Train d’impulsions émis par un laser à modes bloqués et peigne de fréquence associé. Source : LNE.

La mesure de la fréquence absolue d’un laser inconnu consiste à superposer sur un photodétecteur, la fréquence de ce laser à étalonner et le peigne de fréquence. Il est alors possible de détecter la fréquence de battement (l’écart entre les deux fréquences) entre le laser à étalonner et la dent du peigne de fréquence la plus proche. Un compteur de fréquence est ensuite utilisé pour mesurer ce battement de fréquence. La fréquence du laser à étalonner est ainsi comparée directement à une référence de fréquence autour de 1 GHz, fréquence de répétition du laser impulsionnel qui sert de référence. La figure 3 est une représentation graphique du spectre produit par un laser femtoseconde. Chaque impulsion est séparée d’un temps Trep = 1/frep. La transformée de Fourier du signal en sortie du laser est un peigne de fréquence dont les dents sont espacées de la fréquence de répétition des impulsions frep.

3.3. Fréquences étalons recommandées Un atome auquel est fournie une quantité d’énergie peut l’absorber et monter à un niveau énergétique supérieur. Après un temps court (de l’ordre de la nanoseconde, pouvant même aller jusqu’à la seconde), l’atome excité retourne spontanément à son état fondamental, énergétiquement plus bas et donc plus stable. L’énergie excédentaire reçue est restituée en émettant de la lumière sous la forme d’un photon, l’énergie de ce photon étant égale à la différence 24

Chapitre 3. Unités et grandeurs de mesure

d’énergie entre le niveau excité et le niveau fondamental. L’énergie d’un photon étant égale à hν, le photon est émis à une certaine fréquence et donc une longueur d’onde connue. Ce phénomène permet de développer des lasers. Au cours des années, le CIPM a enrichi la liste des radiations recommandées pour la mise en pratique du mètre (voir tableau 3). En pratique dans la majorité des applications seules deux ou trois de ces transitions sont utilisées pour la matérialisation du mètre. La transition la plus utilisée est une transition de l’iode moléculaire 127 excitée par un laser hélium-néon à 633 nm (laser rouge). Molécule, atome ou ion

Longueur d’onde (nm)

115In+

237

1H

243

atome neutre

199Hg

atome neutre

266

27Al+

267

ion 199Hg+

282

ion 171Yb+

436

ion

171Yb

467 515 ; 531 ; 532 ; 543 ; 576 ; 612 ; 633 ; 640

molécule absorbante de 127I2 171Yb 86Kr

Tableau 3 :  Liste des radiations recommandées pour la mise en pratique du mètre.

atome neutre

578

rayonnement de la lampe spectrale

606

laser HeNe

633

atome absorbant de 40Ca

657

88Sr+

674

88Sr

atome neutre

698

87Sr

atome neutre

698

40Ca+

729

atome absorbant de 85Rb

778

atome de 87Rb

780 13

molécule absorbante de C2H2

1 542

molécule absorbante de CH4

3 392

molécule absorbante de OsO4

10 318

Les radiations de lampes spectrales de 86Kr, 198Hg et 114Cd peuvent également être utilisées pour la mise en pratique de la définition du mètre (plusieurs transitions sont concernées, voir tableau 4). Atome

Longueur d’onde (nm)

86Kr

450,36 ; 565,11 ; 642,28 ; 645,81

198Hg

435,96 ; 546,23 ; 577,12 ; 579,23

114Cd

467,95 ; 480,13 ; 508,72 ; 644,02

Tableau 4 :  Liste des radiations de lampe spectrale de 86Kr, 198 Hg et 114Cd.

25

Le SI et la métrologie en France

III. Unité de courant électrique : l’ampère (A) 1.

Définition de l’unité de base du SI

L’ampère est l’unité de base du SI utilisée pour mesurer des grandeurs électriques et magnétiques. Son nom est celui du physicien-chimiste français, André-Marie Ampère (1775–1836), qui comprit dès le début du XIXe siècle l’existence de liens entre l’électricité et le magnétisme : il est reconnu comme fondateur de l’électromagnétisme. L’ampère, symbole A, est l’unité d’intensité de courant électrique. Il est défini en prenant la valeur numérique fixée de la charge élémentaire, e, égale à 1602 , 176 634 × 10 −19 lorsqu’elle est exprimée en coulomb (C), unité égale à A ⋅ s, la seconde étant définie en fonction de la fréquence ∆ν Cs . L’intensité  (Ι ) d’un courant électrique (figure  5) circulant dans un conducteur représente le débit de charges électriques (q = n ⋅ e ) au travers d’une section de ce conducteur : Ι = q /t . Figure 5 : Représentation d’un courant électrique dans un conducteur. Source : LNE.

La définition de l’ampère exprime directement la quantité unitaire de l’intensité d’un courant qui correspond à un débit de 1 /1602 , 176 634 × 10 −19 charges élémentaires circulant pendant une durée de 1 seconde, c’est-à-dire que 1 ampère est un débit d’environ 6 × 1018 charges élémentaires par seconde.

1.1. Évolution du principe de la définition en 2018 Contrairement aux définitions de la seconde et du mètre, dont les fondements n’ont pas été modifiés en 2018, celle de l’ampère a fondamentalement changé. La précédente définition de l’ampère datait de 1948. Elle reposait sur la force d’Ampère et reliait formellement les unités électriques aux unités mécaniques (kilogramme, mètre et seconde). Cependant, la réalisation pratique de cette définition était si difficile à mettre en œuvre qu’elle limitait grandement les incertitudes de réalisation de l’ampère (à 10 −6 en valeur relative) ; l’ampère était donc réalisé, depuis une trentaine d’années, à partir de deux unités dérivées (volt et ohm) en appliquant la loi d’Ohm. 26

Chapitre 3. Unités et grandeurs de mesure

La définition de 2018 de l’ampère établit un lien direct entre les mesures électromagnétiques et la physique quantique, par l’intermédiaire de la charge élémentaire et de la constante de Planck. Cela renforce la voie de nouveaux développements reposant sur des technologies quantiques, permettant d’améliorer les incertitudes sur les étalons et les mesures en Électricité-Magnétisme.

1.2. Conséquences sur les valeurs de constantes électromagnétiques Depuis le 20 mai 2019, la constante magnétique (ou perméabilité magnétique du vide), µ0 ,=est déterminée expérimentalement avec une incertitude relative identique à celle de la constante de structure fine α . En effet, ces deux constantes sont liées par la relation 2h µ0 = α ⋅ 2 , où c, h et e ont des valeurs numériques exactes, fixées ce par définition du SI. Il en va de même pour les valeurs de la constante électrique (ou permittivité électrique du vide), ε 0 , et de l’impédance caractéristique du vide, Z 0 . Toutes trois sont désormais déterminées expérimentalement avec la même incertitude relative car elles sont liées 1 Z par les relations µ0 ⋅ ε 0 = 2 et 0 = c . c µ0 Au moment de l’adoption de la révision du SI en 2018 cette incertitude type relative est de 2,3 × 10 −10 .

1.3. Conséquences sur les valeurs des références de résistance et de tension Depuis 1990 et jusqu’au 20  mai 2019, les instituts nationaux de métrologie attribuaient les valeurs de leurs représentations du volt et de l’ohm, fondées sur l’effet Josephson et l’effet Hall quantique respectivement, en prenant comme référence les valeurs admises par convention de la constante de Josephson, K J , et de la constante de von Klitzing, RK . Ces constantes K J et RK sont maintenant strictement égales respectivement à l’inverse du quantum de flux magnétique et au quantum de résistance : 2e h KJ =  et RK = 2 . h e Ces valeurs sont sensiblement différentes des valeurs conventionnelles, dites de 1990, précédemment utilisées pour les étalonnages. Mais seuls les laboratoires qui mettent en œuvre les effets quantiques Josephson et Hall pour étalonner leurs références sont véritablement affectés par ce changement de valeur de leurs étalons en 2019.

27

Le SI et la métrologie en France

2. Grandeurs et unités dérivées Certaines unités dérivées de l’ampère, les plus couramment utilisées, ont des noms spéciaux éponymes : Le volt  (V), du physicien italien Alessandro Volta (1745–1827), est la différence de potentiel électrique qui existe entre deux points d’un fil conducteur transportant un courant constant de un ampère (1 A), lorsque la puissance dissipée entre ces deux points est égale à un watt (1 W). L’ohm (Ω), du physicien allemand Georg Simon Ohm (1789–1854), est la résistance électrique qui existe entre deux points d’un conducteur lorsqu’une différence de potentiel constante de un volt (1 V), appliquée entre ces deux points, produit dans ce conducteur un courant de un ampère (1  A), ce conducteur n’étant le siège d’aucune force électromotrice. Le farad (F), du physicien britannique Michael Farad (1791–1867), est la capacité d’un condensateur électrique entre les armatures duquel apparaît une différence de potentiel électrique de un volt (1 V), lorsqu’il est chargé d’une quantité d’électricité égale à un coulomb (1 C). Le henry (H), du physicien américain Joseph Henry (1797–1878), est l’inductance électrique d’un circuit fermé dans lequel une force électromotrice de un volt (1 V) est produite lorsque le courant électrique qui le parcourt varie uniformément de un ampère par seconde (1 A/s). Le coulomb  (C), du physicien français Charles-Augustin Coulomb (1736–1806), est la quantité d’électricité ou la charge électrique transportée en une seconde (1 s) par un courant de un ampère (1 A). Tableau 5 :  Unités dérivées de l’ampère ayant des noms et des symboles particuliers.

Le weber (Wb), du physicien allemand Wilhelm Eduard Weber (1804–1891), est le flux d’induction magnétique qui, traversant un circuit d’une seule spire, y produirait une force électromotrice de un volt (1 V) si on l’annulait en une seconde (1 s) par décroissance uniforme.

Grandeur dérivée

Nom (symbole) de l’unité dérivée

Expression de l’unité en unités de base

charge électrique, quantité d’électricité (q, Q)

coulomb (C)

W/A = A·s

différence de potentiel électrique, force électromotrice, tension électrique (U)

volt (V)

W/A = kg·m2·s–3·A–1

résistance électrique, impédance (R, Z)

ohm (Ω)

V/A = kg·m2·s–3·A–2

conductance électrique (G)

siemens (S)

A/V = kg–1·m–2·s3·A2

capacité électrique (C)

farad (F)

C/V = kg–1·m–2·s4·A2

inductance (L)

henry (H)

Wb/A = kg·m2·s–2·A–2

induction magnétique (B)

tesla (T)

Wb/m2 = kg·s–2·A–1

flux d’induction magnétique (φ)

weber (Wb)

V·s = kg·m2·s–2·A–1

permittivité électrique (ε)

farad par mètre

F/m = kg–1·m–3·s4·A2

perméabilité magnétique (m)

henry par mètre

H/m = kg·m·s–2·A–2

28

Chapitre 3. Unités et grandeurs de mesure

Dans ce domaine, d’autres grandeurs non dérivées formellement de l’intensité de courant électrique sont néanmoins très utilisées (tableau 6).

Grandeur dérivée

Nom (symbole) de l’unité dérivée

Expression de l’unité en unités de base

énergie électrique (E)

joule (J)

N·m = kg·m2·s−2

puissance électrique (P)

watt (W)

J/s = kg·m2·s−3

puissance rayonnée (émetteur, antenne)

watt (W)

J/s = kg·m2·s−3

paramètre de dispersion (S)

rapport d’unités identiques

(sans dimension)

Tableau 6 :  Unités non dérivées de l’ampère mais très utilisées en électricité-magnétisme.

3. Recommandations du CIPM pour la mise en pratique Les propositions de « Mise en pratique » faites par le Comité consultatif pour l’électricité et le magnétisme (CCEM) du CIPM font l’objet de l’annexe 2 de la 9e édition de la brochure «  Le Système international d’unités  », édité par le BIPM. Les indications s’appuient sur les connaissances expérimentales et les moyens techniques du moment pour mettre en pratique les unités avec les meilleures incertitudes.

3.1. Ampère Pour mettre en pratique l’ampère selon sa définition, c’est-à-dire réaliser des étalons d’intensité de courant électrique, trois méthodes ou techniques sont suggérées : • appliquer la loi d’Ohm aux réalisations pratiques du volt et de l’ohm, fondées respectivement sur l’effet Josephson et l’effet Hall quantique ; • utiliser un dispositif de transport monoélectronique reposant sur l’effet tunnel (SET – Single-Electron Tunneling) ou autre, la relation A = C/s, la valeur de la charge élémentaire et une réalisation pratique de la seconde ; cette technique conduit encore en 2018 à des incertitudes de réalisation plus élevées que d’autres mais elle est la réalisation stricte de la définition ; • utiliser la relation liant l’intensité du courant Ι, la capacité électrique C, la tension électrique U et le temps ( Ι = C ⋅ dU /dt ), la relation entres les unités ( A = F ⋅ V / s) et les réalisations pratiques des unités volt, farad et seconde.

29

Le SI et la métrologie en France

3.2. Volt Le volt peut être mis en pratique en utilisant l’effet Josephson et la valeur de la constante de Josephson, K J, calculée avec 15 chiffres significatifs, soit K J = 483 597 848 416 984 GHz/V .

3.3. Ohm Deux techniques sont proposées pour réaliser l’ohm : • utiliser l’effet Hall quantique conformément au guide technique publié par le CCEM en 2003 et la valeur de la constante de von Klitzing, RK , calculée avec 15 chiffres significatifs, soit RK = 25 812,807 459 3045 Ω  ; • comparer une résistance inconnue à l’impédance d’une capacité connue à l’aide par exemple d’un pont de quadrature (un type de pont d’impédances) où la capacité a été déterminée à partir d’une capacité calculable et de la valeur de la permittivité élec1 2h trique du vide ε 0 telle que ε 0 = avec µ0 = α ⋅ 2 . µ0 ⋅c 2 ce

3.4. Farad Le farad peut être réalisé par deux méthodes : • comparer l’impédance d’une résistance connue, en utilisant l’effet Hall quantique et la valeur de RK , à l’impédance d’une capacité inconnue en utilisant par exemple un pont de quadrature ; • utiliser un condensateur calculable et la valeur de la permittivité du vide ε 0 .

30

Chapitre 3. Unités et grandeurs de mesure

IV. Unité de masse : le kilogramme (kg) 1.

Définition de l’unité de base du SI

Le kilogramme est une unité essentielle pour toute la mécanique, classique comme quantique.

Le kilogramme, symbole kg, est l’unité de masse du SI. Il est défini en prenant la valeur numérique fixée de la constante de Planck, h, égale à 6,626 070 15 × 10–34 lorsqu’elle est exprimée en J·s, unité égale à kg·m2·s–1, le mètre et la seconde étant définis en fonction de c et ∆νCs.

Depuis la première Conférence générale des poids et mesures (CGPM) de 1889, le kilogramme était précédemment défini au moyen d’un étalon matériel, le prototype international du kilogramme, désigné par le sigle IPK (International Prototype of the Kilogram). La définition fixait la valeur de sa masse comme étant égale à 1 kg exactement. Il s’agissait de la dernière unité encore définie au moyen d’un étalon matériel. La 26e CGPM de 2018 a entériné la définition du kilogramme à partir de la valeur numérique de la constante de Planck, du mètre et de la seconde. On parle de dématérialisation de la définition du kilogramme. La valeur de la masse du prototype international du kilogramme doit maintenant être mesurée pour être connue et se trouve désormais entachée d’une incertitude.

Kilogramme et constante de Planck Le choix de la constante à utiliser pour dématérialiser le kilogramme a fait l’objet de discussions pendant plusieurs années. C’est finalement la constante de Planck, notée h, qui a été retenue. La relation physique entre le kilogramme et la constante de Planck n’est pas immédiatement évidente. Pourtant le rapprochement entre cette constante et la grandeur masse peut être entrevu par une combinaison de deux équations bien connues de la physique qui traduisent la dualité onde-corpuscule. La première est issue de la théorie quantique de Planck et permet de calculer l’énergie E d’un photon, de fréquence ν, par la relation : E = h ⋅ν . La seconde est l’équation d’Einstein qui établit l’équivalence entre une masse (m) et une énergie (E) par la formule : E = m ⋅c2 avec c la vitesse de la lumière dans le vide. Le photon a une masse nulle dans le modèle standard, mais on peut lui associer une masse équivalente à son énergie en physique



31

Le SI et la métrologie en France



ondulatoire que l’on obtient en combinant les deux équations précédentes, ce qui conduit à exprimer une masse en fonction de la constante de Planck : m=

h ⋅ν . c2

Il a été décidé de définir le kilogramme en fixant la valeur numérique de la constante de Planck. Préalablement à cette nouvelle définition, la valeur de cette constante a été déterminée en utilisant l’ancienne définition du kilogramme basée sur le prototype international du kilogramme. De nombreuses dispositions ont été prises afin d’assurer la continuité des mesures des masses effectuées en appliquant l’actuelle définition du kilogramme avec celles effectuées en appliquant la définition précédente. Tout d’abord, les masses utilisées pour les déterminations de h ont été raccordées au prototype international du kilogramme (2014-2015), qui, à cette occasion, a été utilisé de manière extraordinaire en dehors du cycle des vérifications périodiques. Puis, une étude pilote (2015-2016) avec les différents dispositifs permettant de mesurer h a été réalisée. Enfin, plusieurs critères ont été définis pour décider si les différentes valeurs de h publiées par les laboratoires étaient éligibles pour déterminer la valeur numérique à attribuer à cette constante tout en assurant la continuité des mesures de masse qui allaient en découler. Ces critères imposaient : –

– –



qu’au moins trois expériences indépendantes, comprenant à la fois des expériences de la balance du watt et des expériences XRCD (X-ray-crystal-density, mesure de densité cristalline par rayon X), donnent pour la constante de Planck des valeurs cohérentes présentant des incertitudes types relatives qui n’excèdent pas 5 × 10 −8  ; qu’au moins l’un de ces résultats présente une incertitude type relative qui n’excède pas 2 × 10 −8  ; que les prototypes du Bureau international des poids et mesures (BIPM), l’ensemble de ses étalons de masse de référence, ainsi que les étalons de masse utilisés dans les expériences de la balance du watt et XRCD, aient été comparés le plus directement possible au prototype international du kilogramme ; que les procédures concernant la réalisation et la dissémination à venir du kilogramme, telles que décrites dans la mise en pratique, aient été validées en conformité avec les principes du CIPM MRA.

La métrologie française a participé aux travaux de recherche internationaux visant à fixer la valeur numérique de la constante de Planck en publiant trois déterminations effectuées dans l’air : Tableau 7 : Déterminations de h publiées par la métrologie française. Expérience

h × 1034 (m2·kg·s–1)

ur

LNE 1 (2014)

6,626 068 8

3,1 ×10–7

LNE 2 (2016)

6,626 071 33

1,4 × 10–7

LNE 3 (2017)

6,626 070 41

5,7 × 10–8

Les différentes déterminations de h, réalisées par le RNMF et les laboratoires internationaux, prises en compte par CODATA dans son ajustement exceptionnel de 2017 conduisirent à : h = 6,626 070 15 × 10–34 J·s. C’est cette valeur – exacte – qui a été retenue par la Conférence générale des poids et mesures de 2018 pour la révision du SI.

32

Chapitre 3. Unités et grandeurs de mesure

2. Mise en pratique de la définition Il existe actuellement deux méthodes primaires permettant de réaliser la définition du kilogramme avec une incertitude type relative de quelques 10–8 : la comparaison d’une puissance mécanique à une puissance électrique et la mesure de masse volumique de cristaux par rayons X.

2.1. Comparaison d’une puissance mécanique à une puissance électrique La première méthode consiste à déterminer la valeur de la masse à mesurer au moyen d’une balance électromécanique permettant de comparer une puissance mécanique et une puissance électrique. Des instruments de mesure appelés « balances du watt » permettent de mesurer une masse à partir de deux phases de mesures statique et dynamique. Leur principe a été proposé par Bryan Kibble au début des années 1970. En 2016, en reconnaissance de la contribution du Dr Kibble, décédé cette année-là, il a été décidé de renommer cet instrument « balance de Kibble ». Les deux phases, « phase statique » et « phase dynamique », sont schématisées sur la figure 6.

Tension

Intensité

A

B

FL

I1

Tension

mx

B

P

v2

U2

  Figure 6 :  Phases statique (à gauche) et dynamique (à droite) de la balance de Kibble. Source : LNE.

 Dans la phase statique, le poids P appliqué sur une masse mx , sou mise à l’accélération de la pesanteur g , est équilibré par une force de   Laplace FL engendrée par le courant électrique d’intensité  Ι1 circulant dans une bobine plongée dans un champ magnétique B. Si L est la longueur du bobinage pour un alignement parfait du système (champ magnétique, bobine), l’équilibre se traduit par la relation : mx ⋅ g = (B ⋅ L )stat ⋅ Ι 1.

 Dans la phase dynamique, la bobine est déplacée à la vitesse v 2 dans  le même champ magnétique B que pendant la phase statique. Pour un alignement du système identique à la phase précédente et une 33

Le SI et la métrologie en France

vitesse parfaitement verticale, la tension électrique induite U2 calculée par la loi de Faraday s’écrit : U2 = (B ⋅ L )dyn ⋅ v 2 . En supposant que les propriétés de la bobine et du champ magnétique ne varient pas et que les alignements sont conservés, alors le produit (B ⋅ L ) est le même dans les deux phases, ce qui conduit à l’équation : mx ⋅ g ⋅ v 2 = U 2 ⋅ Ι 1 . L’intérêt d’introduire une phase dynamique est de s’affranchir de la mesure du produit (B ⋅ L ) qu’il est difficile de connaître avec une incertitude suffisamment faible pour la mesure de masse visée. L’équation obtenue au terme des deux phases traduit la comparaison entre une puissance mécanique (membre de gauche) et une puissance électrique (membre de droite), d’où le nom initial de balance du watt. Cette comparaison est cependant virtuelle puisque les puissances n’apparaissent que dans l’équation finale qui résulte de deux phases. Le produit U2 ⋅ Ι 1 est déterminé à partir de deux effets quantiques : l’effet Josephson (prédit théoriquement par B.D. Josephson en 1962) – qui permet de mesurer une tension – et l’effet hall quantique (mis en évidence par K. von Klitzing en 1980) – qui permet de mesurer une résistance. Ces deux effets quantiques font apparaître la constante de Planck h dans l’équation donnant la masse mx qui est de la forme :  b ⋅ f1 ⋅ f2  1 mx = h ⋅  ⋅  4  g ⋅ v2 avec f1 et f2 des fréquences intervenant dans l’effet Josephson et b un produit de nombres entiers liés aux effets quantiques. Il est à noter qu’une balance de Kibble peut réaliser en principe, de manière absolue, toute valeur de masse mx sur un domaine continu, principalement limité par les incertitudes de mesure.

2.2. Mesure de la masse volumique de cristaux par rayons X La seconde méthode est basée sur la mesure de la constante d’Avogadro en déterminant le rapport du volume molaire sur le volume atomique d’un cristal. Elle permet d’appliquer la définition du kilogramme, la constante d’Avogadro étant une constante physicochimique universelle liée à la constante de Planck. La méthode consiste à comparer la masse à mesurer à un groupe d’atomes du même type, généralement de silicium, dont la masse individuelle est déduite de la connaissance de la valeur de la constante de Planck. La quantité d’atomes est connue grâce à la méthode de mesure XRCD. L’idée générale de cette approche est de déduire la masse d’un objet à partir de la somme des masses de ses constituants. Dans la pratique, le silicium est employé car il bénéficie d’une importante R&D menée dans l’industrie du semi-conducteur : il est possible de réaliser des échantillons de taille suffisamment importante avec une grande pureté chimique et ne présentant pas de dislocations (défaut du 34

Chapitre 3. Unités et grandeurs de mesure

cristal). Considérant une sphère de silicium ne contenant que l’isotope 28 Si (pour simplifier), la méthode XRCD consiste à mesurer la maille du réseau du cristal a0 par interférométrie à rayons X. Cette mesure est réalisée à partir d’échantillons de silicium issus du même lingot de fabrication que celui de la sphère. La maille étant cubique, son volume vaut a03. Le volume macroscopique de la sphère Vs peut être mesuré par interférométrie avec une bonne exactitude. Sachant qu’il y a 8 atomes de silicium par maille, le nombre d’atomes N dans la sphère vaut : N = 8×

Vs . a03

En posant m(28Si) la masse de l’atome 28Si, la masse de la sphère notée ms vaut : ms = N ⋅ m 28 Si .

(

)

28Si

La masse de l’atome est accessible via la mesure du rapport h /m 28 Si qui est mesuré par ailleurs (mesure de la vitesse de recul grâce à l’effet Doppler d’un atome absorbant un photon, ou mesure de la constante de Rydberg en utilisant la spectroscopie de l’hydrogène) avec un bon niveau d’incertitude et peut être considéré comme un invariant de la nature. Dans ces conditions l’équation précédente devient :  m 28 Si   ⋅ h. ms = N ⋅   h   

(

)

(

)

En conclusion la méthode XRCD détermine le nombre d’atomes d’un échantillon et sa masse est déduite du rapport h /m 28 Si et de la constante de Planck h.

(

)

En comparaison avec la méthode de la balance de Kibble, cette méthode XRCD ne permet de réaliser qu’une masse de valeur ponctuelle, ms , égale à la masse de la sphère de silicium utilisée.

3. Grandeurs et unités dérivées Il existe de nombreuses unités dérivées du kilogramme. Le tableau suivant présente quelques grandeurs dérivées de la masse exprimées au moyen d’unités dérivées entre autres du kilogramme. Grandeur dérivée

Nom de l’unité

Expression en unités de base SI

couple

newton mètre

kg·m2·s–2

débit massique

kilogramme par seconde

kg·s–1

force

newton (N)

kg·m·s–2

masse volumique

kilogramme par mètre cube

kg·m–3

pression

pascal (Pa)

kg·m–1·s–2

viscosité dynamique

pascal seconde

kg·m–1·s–1

Tableau 8 :  Exemples de grandeurs dérivées de la masse.

35

Le SI et la métrologie en France

V. Unité de température : le kelvin (K) 1.

Définition de l’unité de base du SI

La température thermodynamique, traditionnellement notée T, est la grandeur d’état qui caractérise l’état d’équilibre thermique d’un système. Elle traduit l’agitation des particules qui constituent la matière. Son origine, le zéro absolu correspond, en théorie, à l’état de la matière ou l’agitation serait nulle.

Le kelvin, symbole K, est l’unité de température thermodynamique du SI. Il est défini en prenant la valeur numérique fixée de la constante de Boltzmann, k, égale à 1,380 649 × 10–23 lorsqu’elle est exprimée en J·K–1, unité égale à kg·m2·s–2·K–1, le kilogramme, le mètre et la seconde étant définis en fonction de h, c et ∆νCs.

Le point de congélation de l’eau est à 0 °C (ou 273,15  K) à la pression atmosphérique normale tandis que le point triple de l’eau est à 0,01 °C (ou 273,16 K).

Pour des raisons historiques, il demeure courant d’exprimer une température par sa différence avec celle du point de congélation de l’eau (273,15 K). Une température exprimée de cette façon a pour unité le degré Celsius (symbole °C). Le symbole de cette grandeur est traditionnellement noté t ou θ. La correspondance avec la température thermodynamique est donc donnée par : t (°C) = T(K) – 273,15 K. Avant 2018, le kelvin était défini comme la fraction 1/273,16 de la température thermodynamique du point triple de l’eau. Ce point triple, dont la température est notée TTPW, correspond à l’état dans lequel l’eau coexiste à l’équilibre sous les formes solide, liquide et vapeur. Il a été utilisé depuis 1954 et a fourni une référence de température pratique et de bonne qualité : pour des conditions maîtrisées de composition isotopique de l’eau et de température, le point triple de l’eau se produit toujours à TTPW  =  273,16  K (i.e. 0,01 °C) avec une incertitude inférieure à 0,1  mK. Ceci étant, différentes cellules point triple de l’eau ont présenté différentes températures selon leur teneur en impuretés chimiques et leur composition isotopique. De plus, cette définition n’était pas pratique pour la mesure de températures éloignées de la valeur du point triple de l’eau. Ces constatations ont justifié le changement de définition au profit de la définition basée sur la valeur numérique fixée de la constante de Boltzmann. Une conséquence de cette modification de définition est que le point triple de l’eau n’étant plus la référence de température, sa température doit maintenant être mesurée selon la nouvelle définition et se trouve donc entachée d’une incertitude type valant 0,1 mK, qui correspond à l’incertitude de détermination de la valeur de la constante de Boltzmann avant que celle-ci ne soit fixée en 2018.

36

Chapitre 3. Unités et grandeurs de mesure

Kelvin et constante de Boltzmann La constante de Boltzmann établit une relation entre une énergie et une température. On la doit au physicien Ludwig Eduard Boltzmann qui a contribué au développement de la mécanique statistique, à la fin du XIXe siècle, une extension de la mécanique newtonienne à des grandes quantités d’objets dont on ne peut pas en prévoir l’évolution individuelle mais moyenne. Ainsi pour un gaz constitué de N molécules de masses m, la théorie cinétique des gaz exprime que l’énergie cinétique totale Ec en joules de ce gaz est : Ec =

3 ⋅N ⋅k ⋅T 2

avec T la température thermodynamique en kelvins et k la constante de Boltzmann en joules par kelvin. Dans cette formule, la température traduit l’agitation des particules dans le gaz, c’est-à-dire leur énergie cinétique moyenne. Il a été décidé de définir le kelvin en fixant la valeur numérique de la constante de Boltzmann. Au préalable, le Comité consultatif de thermométrie avait recommandé que deux conditions soient satisfaites pour que la valeur numérique de k calculée par CODATA soit retenue par la CGPM. La première est que l’incertitude type relative sur la valeur de k après ajustement devait être inférieure à 1 × 10–6. La seconde est que k devait être déterminée par au moins deux méthodes fondamentalement différentes et donc indépendantes, et que chacune devait fournir au moins une incertitude relative inférieure à 3 × 10–6 sur la valeur de k. La métrologie française a participé aux travaux de recherche internationaux visant à fixer la valeur numérique de la constante de Boltzmann en publiant quatre déterminations faites par méthode acoustique avec différents gaz et différents résonateurs : Tableau 9 : Déterminations de k publiées par la métrologie française. Expérience

Gaz

Résonateur

k × 1023 (J·K–1)

ur × 10–6

LNE 1 (2009)

He

BCU2V2

1,380 649 6

2,79

LNE 2 (2011)

Ar

BCU3

1,380 647 7

1,40

LNE 3 (2015)

He

BCU3

1,380 648 7

1,04

LNE 4 (2017)

He

BCU4

1,380 648 78

0,60

Les différentes déterminations des laboratoires prises en compte par CODATA dans son ajustement exceptionnel de 2017 conduisirent à : k = 1,380 649 × 10–23 J·K–1. C’est cette valeur, exacte, qui a été retenue par la Conférence générale des poids et mesures de 2018 pour la révision du SI.

37

Le SI et la métrologie en France

Principe d’une cellule point triple de l’eau Puit de mesure

Vapeur d’eau

Eau

Glace

Enveloppe quartz (ou verre)

La cellule point triple de l’eau est un cylindre en quartz, ou verre, scellé et partiellement rempli d’eau. Avant de sceller la cellule, la partie supérieure a été pompée de manière à ce qu’elle ne contienne que de la vapeur d’eau à une pression de 611,657 Pa à la température du point triple. La partie centrale de la cellule comporte un puits de mesure cylindrique ouvert à l’air extérieur sur sa partie supérieure. La cellule est refroidie en plaçant un matériau tel que de la glace sèche dans le puits de mesure. Cela a pour effet de créer un manchon de glace. La glace sèche est remplacée par un matériau à température ambiante, ce qui a pour effet de décrocher le manchon de glace. Ensuite la cellule est placée dans une enceinte proche de la température du point triple. Après quelques jours, les défauts et contraintes mécaniques éventuels du manchon de glace se seront résorbés et la cellule sera prête pour les mesures. Figure 7 : Cellule point triple de l’eau. Source : LNE.

2.

Mise en pratique de la définition

Il existe actuellement deux types de méthodes primaires reconnues par le CIPM pour réaliser la définition du kelvin  : la thermométrie primaire et les échelles de température. Les méthodes bénéficiant de cette reconnaissance ont été retenues en raison de leur facilité de mise en œuvre et de leur aptitude à fournir de faibles incertitudes.

2.1. La thermométrie primaire Le premier type de méthode, la thermométrie primaire, consiste à utiliser un thermomètre basé sur un système physique bien connu, pour lequel l’équation d’état décrivant la relation entre la température thermodynamique et d’autres grandeurs indépendantes, peut être exprimée explicitement sans constantes inconnues ou dépendantes significativement de la température. Le phénomène physique, ainsi que les hypothèses prises, doivent être bien maîtrisés de manière à pouvoir appliquer des corrections lorsque l’on s’éloigne de la formulation théorique décrivant le thermomètre (par exemple, il faut être capable de calculer l’incidence sur la température si l’on utilise un gaz qui ne vérifie pas exactement la loi des gaz parfaits si celle-ci est utilisée). Cette thermométrie primaire peut-être absolue ou relative. 38

Chapitre 3. Unités et grandeurs de mesure

Avec la thermométrie primaire absolue, la température thermodynamique est mesurée avec une équation d’état dont tous les paramètres sont connus ou mesurables, en respectant la définition du kelvin, c’est-à-dire la valeur numérique attribuée à la constante de Boltzmann. Cette thermométrie n’utilise aucun point fixe de température. La thermométrie primaire relative permet de mesurer la température thermodynamique avec une équation d’état dans laquelle des paramètres ont été déterminés à partir de points fixes de température dont les valeurs de températures thermodynamiques et les incertitudes sont connues (soit par la thermométrie primaire absolue ou la thermométrie primaire relative). Par exemple la thermométrie primaire relative appliquée au thermomètre acoustique à gaz consistera à déduire le rapport de deux températures thermodynamiques (dont une est connue), du rapport de deux vitesses du son dans un gaz. Cette méthode est beaucoup moins contraignante en particulier concernant les caractéristiques de la cavité dans laquelle on mesure la vitesse du son.

2.2. Les échelles de température Les échelles de température constituent le second type de méthode primaire reconnue par le CIPM pour réaliser la définition du kelvin. Elles sont basées sur des phénomènes physiques dont les températures sont hautement reproductibles tels que les points fixes de température. Les points fixes utilisent des transitions de phases de corps purs : point de congélation, point de fusion, point triple ou état d’équilibre liquide/vapeur. Une échelle de température est composée : • d’une liste de phénomènes physiques répétables auxquels des températures thermodynamiques ont été affectées (par thermométrie primaire) ; • d’une liste d’instruments d’interpolation ou d’extrapolation ; • d’un ensemble de formules d’interpolation ou d’extrapolation. Pour une formule donnée, l’échelle de température précise les instruments et les phénomènes physiques pouvant être utilisés. Chaque formule est définie pour une plage de température. L’association des éléments de l’échelle permet donc de définir des températures sur des plages précisées par l’échelle. Ces températures sont appelées des «  températures d’échelle  » et doivent, en toute rigueur, avoir une notation du type Txx (txx ou θxx s’il s’agit d’une température en °C), avec «  xx  » un code permettant d’identifier l’échelle employée. On dit généralement que la température est mesurée « selon l’échelle » considérée. Cette température n’est formellement pas la température thermodynamique, mais une bonne approximation de celle-ci. Elle a la même unité que la température thermodynamique : le kelvin.

39

Le SI et la métrologie en France

Les thermomètres primaires de la mise en pratique Le thermomètre acoustique à gaz Ce type de thermomètre utilise la relation donnant la vitesse du son u dans un gaz parfait :

γ ⋅k ⋅T m en fonction de la constante de Boltzmann k, de la température thermodynamique T, de la masse d’une particule m et du coefficient de Laplace γ . Pour un gaz parfait monoatomique, γ vaut exactement 5/3. u2 =

Le pyromètre Cet instrument de mesure utilise la loi de Planck qui exprime la luminance énergétique spectrale d’un corps noir idéal : Lb,λ =

2 ⋅h ⋅c2 1 ⋅ hc λ5 ( kT ) − 1 λ e

en fonction de la température thermodynamique T, de la constante de Boltzmann k, de la constante de Planck h, de la vitesse de la lumière dans le vide c et de la longueur d’onde dans le vide λ. En pratique, un pyromètre possède toujours une bande passante plus ou moins large et doit, pour être utilisé pour mesurer la température thermodynamique, avoir une sensibilité spectrale absolue connue et traçable au radiomètre cryogénique (cf. chapitre 4 sur les références primaires en photométrie-radiométrie). Le thermomètre a gaz à polarisation Ce type de thermomètre utilise l’équation de Clausius-Mossotti, combinée avec la loi des gaz parfaits : εr − 1 Aε ⋅ p = ε r + 2 NA ⋅ k ⋅ T qui met en relation la température thermodynamique T avec la permittivité diélectrique relative ε r , la polarisabilité molaire du gaz Aε , la pression statique du gaz p, la constante d’Avogadro N A , et la constante de Boltzmann k. La permittivité diélectrique relative ne pouvant pas être mesurée simplement, celle-ci est déduite, soit de mesures d’indices de réfraction dans le domaine micro-onde (résonnances d’ondes électromagnétiques dans un résonateur), soit de mesures de capacités électriques (valeurs de capacité à la pression p et à pression nulle). La première méthode est appelée « thermométrie à gaz par mesure de l’indice de réfraction » (RIGT, Refractive-Index Gas Thermometry) et la seconde « thermométrie à gaz par mesure de la constante diélectrique » (DCGT, Dielectric-Constant Gas Thermometry). Le thermomètre à bruit de Johnson La température thermodynamique est obtenue en mesurant le bruit aux bornes d’une résistance électrique. Dans un conducteur électrique, l’agitation thermique des électrons induit des fluctuations de tension à ses bornes. Ce bruit est exprimé par la relation de Nyquist : V 2 = 4 ⋅ k ⋅ T ⋅ R ⋅ ∆f dans laquelle V 2 est la variance de la tension aux bornes de la résistance, k la constante de Boltzmann, T la température thermodynamique, R la résistance électrique et ∆f =l’intervalle de fréquence dans lequel la tension est mesurée. 40

Chapitre 3. Unités et grandeurs de mesure

Diagramme des phases d’un corps pur p

liquide

fusion

point critique

congélation vaporisation

solide

sublimation

liquéfaction

Le diagramme montre les différentes phases que peut prendre un corps pur en fonction de la pression p et de la température T. Les trois courbes représentent les équilibres bi-phasiques. Au point triple, les trois phases existent simultanément et sont en équilibre thermodynamique.

point triple

condensation

gaz

T

Figure 8 : Diagramme des phases. Source : LNE.

Les échelles de température recommandées par le CCT et approuvées par le CIPM au moment de la révision du Système international d’unités en 2018 étaient l’Échelle internationale de température de 1990 (EIT-90) à partir de 0,65 K, ainsi que l’Échelle provisoire pour les basses températures de 2000 (EPBT-2000) entre 0,9 mK et 1 K. Au moment de la redéfinition du kelvin, la thermométrie primaire n’offrait de meilleures incertitudes par rapport aux échelles de température que sous 20 K et au-dessus de 1 300 K. La possibilité d’utiliser la thermométrie primaire pour réaliser la définition du kelvin a été ajoutée dans la mise en pratique de la définition, afin qu’elle puisse remplacer les échelles de température lorsque les progrès de la technique lui permettraient d’obtenir de meilleures incertitudes. Par ailleurs, aux températures supérieures à 1 300  K, l’usage des points fixes à haute température (principalement les eutectiques métal-carbone) comme références de température thermodynamique sera une possibilité supplémentaire pour la réalisation et la dissémination du kelvin sur le principe de la thermométrie primaire relative. Trois premiers points fixes à haute température ont d’ailleurs été identifiés pour servir de références de température thermodynamique : le Co-C (1 597,48(14) K), le Pt-C (2 011,50(22) K) et le Re-C (2 747,91(44) K) – les valeurs entre parenthèses étant les incertitudes élargies (k = 2).

2.2.1. L’échelle internationale de température de 1990 (EIT-90) L’EIT-90 définit 17 phénomènes physiques auxquels des températures thermodynamiques ont été affectées par thermométrie primaire. Elle comporte plusieurs plages de température correspondant à des techniques de mesures différentes. Il y a quatre grandes plages de températures. Ces plages de températures sont elles-mêmes découpées en sous plages de températures sur lesquelles les instruments et formules 41

Le SI et la métrologie en France

sont applicables, et y définissent une température notée T90. Il peut y avoir des différences entre les températures T90 dans les zones de recouvrements entre ces différentes définitions de T90, ce qui représente une des raisons de la non-unicité de l’échelle. Cependant, elles sont négligeables pour la plupart des utilisations. •







Entre 0,65  K et 5,0  K, la température est obtenue au moyen d’une relation qui donne T90 à partir de la pression de vapeur saturante de 3He ou de 4He. Entre 3,0 K et le point triple du néon (24,556 1 K), la température T90 est obtenue au moyen d’un thermomètre à gaz à volume constant à 3He ou 4He étalonné au moyen de deux points triples définis et d’une température mesurée entre 3,0 K et 5,0 K avec la méthode de la plage de température précédente. Les mesures sont effectuées en utilisant des formules d’interpolation définies. Entre le point triple de l’hydrogène à l’équilibre (13,803 3 K) et le point de congélation de l’argent (1 234,93 K), la température T90 est obtenue au moyen de thermomètres à résistance de platine étalonnés à des jeux de points fixes définis avec des formules d’interpolation définies. Au-dessus du point de congélation de l’argent (1 234,93 K), la température T90 est obtenue par extrapolation à partir d’un point fixe de température, au choix, le point de congélation de l’argent (1 234,93 K), de l’or (1 337,33 K) ou du cuivre (1 357,77 K), en utilisant la loi du rayonnement de Planck.

Exemple de mise en œuvre d’un point fixe : le point triple de l’argon

Thermomètre à étalonner

L’azote liquide permet d’abaisser la température et de solidifier une partie de l’argon gazeux. Il se produit ensuite une lente remontée en température jusqu’à l’apparition d’un palier stable qui dure plusieurs heures. Ce palier indique l’apparition de la phase liquide et la réalisation de l’équilibre thermodynamique entre les trois phases.

Isolation thermique

Gaz

Argon

Liquide Solide

Azote liquide

Figure 9 : Cellule de point triple pour l’argon. Source : LNE.

42

Chapitre 3. Unités et grandeurs de mesure

Points fixes de définition de l’EIT-90 Tableau 10 : Points fixes de définition de l’EIT-90 (extrait des procès-verbaux du Comité international des poids et mesures, 78e session, 1989). Température T90/K

Corps (a)

Type de point (b)

He

V

e-H2

T

t90/°C

de 3 à 5

de –270,15 à –268,15

13,803 3

–259,346 7

≈ 17

≈ –256,15

e-H2 (ou He)

V (ou G)

≈ 20,3

≈ –252,85

e-H2 (ou He)

V (ou G)

24,556 1

–248,593 9

Ne

T

54,358 4

–218,791 6

O2

T

83,805 8

–189,344 2

Ar

T

234,315 6

–38,834 4

Hg

T

0,01

H2O

T

273,16 302,914 6

29,764 6

Ga

F

429,748 5

156,598 5

In

C

505,078

231,928

Sn

C

692,677

419,527

Zn

C

933,473

660,323

Al

C

1 234,93

961,78

Ag

C

1 337,33

1 064,18

Au

C

1 357,77

1 084,62

Cu

C

(a) • composition isotopique naturelle, à l’exception de 3He ; • e-H2 : hydrogène à la composition d’équilibre des variétés moléculaires ortho et para.

(b) V : pression de vapeur saturante ; C : point de congélation ; T : point triple ; F : point de fusion ; G : thermomètre à gaz.

43

Le SI et la métrologie en France

2.2.2. L’Échelle provisoire pour les basses températures de 2000 (EPBT-2000) L’EPBT-2000 définit la température T2000 entre 0,9 mK et 1 K au moyen d’une équation entre la température T2000 et la pression le long de la courbe de fusion de l’hélium 3. L’instrument permettant de faire les mesures est le thermomètre à pression de fusion de l’hélium 3. Le principe de base de ce type de thermomètre est d’amener un échantillon d’hélium 3 pur solide et liquide à l’équilibre et de mesurer la pression absolue. L’EPBT-2000 a été adoptée initialement en 2000 par le CIPM afin d’étendre les possibilités de mesure sous la température de 0,65 K qui est la limite basse de l’EIT-90. Ceci étant, l’échelle présentant quelques incohérences, celle-ci a été explicitement présentée comme provisoire.

3. Grandeurs et unités dérivées Les mesures de température servent de base pour les mesures d’humidité et de propriétés thermophysiques des matériaux.

44

Chapitre 3. Unités et grandeurs de mesure

VI. Unité de quantité de matière : la mole (mol) 1.

Définition de l’unité de base du SI

L’unité «  la mole  » a été introduite lors de la 14e CGPM en 1971, unité relative à la grandeur utilisée par les chimistes pour spécifier la quantité d’éléments ou de composés chimiques, plus généralement appelée « quantité de matière ». La mole, symbole mol, est l’unité de quantité de matière du SI. Une mole contient exactement 6,022 140  76  ×  1023 entités élémentaires. Ce nombre, appelé « nombre d’Avogadro », correspond à la valeur numérique fixée de la constante d’Avogadro, NA, lorsqu’elle est exprimée en mol–1. La quantité de matière, symbole n, d’un système est une représentation du nombre d’entités élémentaires spécifiées. Une entité élémentaire peut être un atome, une molécule, un ion, un électron, ou toute autre particule ou groupement spécifié de particules.

Il en résulte que la mole est la quantité de substance d’un système qui contient exactement 6,022 140 76 × 1023 entités élémentaires spécifiées. La valeur du nombre d’Avogadro ayant été fixée une fois pour toute en 2018, le nombre d’Avogadro n’a plus aucune incertitude. Il en résulte également que la masse molaire de tout atome ou molécule n’est plus connue de manière exacte et doit être déterminée expérimentalement. Elle peut également être obtenue à partir de sa masse atomique relative, calculée en fonction du nombre de protons et de neutrons de chaque atome.

2.

Grandeurs et unités dérivées

Quelques unités avec des noms spéciaux dérivant de l’unité de quantité de matière sont répertoriées ci-dessous. Elles dérivent également d’autres unités telles que le mètre ou la seconde. Symbole

Expression en unités SI

concentration molaire mole par mètre cube

c

mol·m–3

activité catalytique

katal

kat

s–1·mol

concentration de l’activité catalytique

katal par mètre cube

kat·m–3

m–3·s–1·mol

Grandeur dérivée

Nom spécial de l’unité

Tableau 11 : Unités et grandeurs dérivées de la mole.

45

Le SI et la métrologie en France

Constante d’Avogadro Actuellement, la réalisation la plus exacte de la mole résulte d’une expérience qui a conduit à la détermination de la constante d’Avogadro : il s’agit de l’expérience dite d’Avogadro. Cette expérience a été réalisée dans le cadre de la coordination internationale Avogadro et a été fondamentale pour déterminer les meilleures valeurs expérimentales des constantes d’Avogadro et de Planck avant de fixer leurs valeurs. Une réalisation plus physique de la mole a également été développée. Il s’agit de l’expérience de la balance du watt (également dénommée balance de Kibble). Dans ce paragraphe, seule l’expérience d’Avogadro sera résumée, car l’expérience de la balance du watt, réalisée en France pour la mise en pratique du kilogramme, est détaillée dans le paragraphe traitant de la masse et des grandeurs apparentées (cf. paragraphe IV). Cette expérience, consiste à mesurer la valeur de la constante d’Avogadro NA en déterminant le rapport entre le volume molaire Vm et le volume atomique Va d’un monocristal V quasi-parfait de silicium (Si) : N A = m . Va Le volume molaire est le produit de la masse molaire MSi du silicium présent dans la sphère d’Avogadro (c’est-à-dire tenant compte du ratio entre les isotopes de silicium, sachant que l’isotope 28Si est celui très majoritairement présent) et du volume Vsphère du cristal, divisé Vsphère × MSi par la masse msphère de celui-ci : Vm = . msphère Le volume atomique est, dans un monocristal de silicium, le volume d’une maille a divisé a3 par le nombre d’atomes par maille, c’est-à-dire 8 : Va = . 8 Vsphère ⋅ MSi Ainsi, le nombre d’Avogadro se calcule par la relation : N A = . 3 msphère ⋅ a 8

( )

Photo 6 : Sphère de silicium du LNE. Source : photo LNE.

La maille du réseau du cristal de silicium (a) est mesurée par interférométrie à rayons X (X-Ray Cristal Density). Le volume macroscopique de la sphère est mesuré avec une bonne exactitude par interférométrie. L’utilisation d’un spectromètre à plasma à couplage inductif haute résolution permet d’accéder à la masse molaire du silicium dont est composée la sphère d’Avogadro. La masse de la sphère est quant à elle déterminée grâce à un comparateur de masse. La quantité de matière (soit le nombre d’atomes de silicium) de la sphère peut alors être aisément calculée. Lors de la détermination de la valeur de la constante d’Avogadro, les incertitudes relatives des expériences réalisées étaient de l’ordre de quelques 10–8.



46

Chapitre 3. Unités et grandeurs de mesure

… Atome de Silicium

Paramètre de maille a

Figure 10 : Illustration d’une maille de silicium. Source : LNE.

Les quatre déterminations des laboratoires prises en comptes par CODATA dans son ajustement exceptionnel de 2017 sont : Tableau 12 : Détermination des valeurs de la constante d’Avogadro. Expérience

NA × 10–23 (mol–1)

ur

International Avogadro Coordination (2015)

6,022 140 95

3,0 × 10–8

International Avogadro Coordination (2015)

6,022 140 70

2,0 × 10–8

International Avogadro Coordination (2017)

6,022 140 527

1,2 × 10–8

National Metrology Institute of Japan (2017)

6,022 140 78

2,4 × 10–8

Ces déterminations ont conduit à : NA = 6,022 140 76 × 1023 mol–1. C’est cette valeur qui a été prise en compte par la Conférence générale des poids et mesures de 2018 pour la révision du SI.

47

Le SI et la métrologie en France

3. Recommandations du CIPM pour la mise en pratique En métrologie en chimie, certaines méthodes analytiques sont considérées par le CCQM comme ayant le statut de méthodes primaires. Le CCQM examine régulièrement les méthodes ayant le potentiel de devenir méthodes primaires. La définition d’une méthode primaire, telle que donnée par le CCQM (1995) : « Une méthode de mesure primaire est une méthode présentant les plus hautes qualités métrologiques, dont la mise en œuvre peut être entièrement décrite par une équation reliant la quantité mesurée à la quantité de matière, pour laquelle une incertitude exprimée en unités SI peut être entièrement évaluée, en particulier en ce qui concerne les contributions éventuelles dépendant d’autres espèces ou de la matrice contenant la substance et dont les résultats sont par conséquent obtenus sans référence à un étalon de la substance en question ». Les cinq méthodes analytiques principales considérées comme méthodes primaires sont : Tableau 13 :  Méthodes analytiques primaires dans le domaine quantité de matière.

48

Gravimétrie

L’analyte à quantifier est séparé de l’échantillon sous une forme pouvant être pesée.

Titrimétrie

Proche de la gravimétrie, cette méthode nécessite la mesure du volume équivalent d’une solution titrante de concentration connue réagissant avec l’analyte à quantifier.

Coulométrie

La mesure du courant électrique et du temps d’application lors d’une réaction électrochimique permet de quantifier l’analyte.

Dilution isotopique associée à la spectrométrie de masse

La mesure du rapport entre deux isotopes stables de l’élément à doser, qui est modifié par l’ajout d’une quantité connue d’un étalon marqué de ce même élément dont la composition isotopique a été artificiellement modifiée, permet de déterminer directement sa concentration dans l’échantillon.

Cryoscopie

La mesure de l’abaissement cryoscopique grâce à l’utilisation d’étalons de masse et de température traçables aux unités correspondantes du SI.

Chapitre 3. Unités et grandeurs de mesure

VII. Unité d’intensité lumineuse : la candela (cd) 1.

Définition de l’unité de base du SI

La candela a été, depuis son intégration dans le SI, définie à partir d’une source lumineuse particulière. Bien que sa définition ait largement évolué depuis la notion de bougie nouvelle (unité d’intensité lumineuse avant 1946) puis son rattachement à un corps noir à la température de congélation du platine (1946 et 1968), sa réalisation pratique resta, malgré les efforts considérables de quelques laboratoires nationaux de métrologie, une entreprise difficile. Dans les années 1960, l’exactitude des techniques radiométriques s’améliore rapidement, autorisant la réalisation de la candela sans avoir à construire un corps noir. La définition adoptée en 1979 entérine cette pratique en fixant la valeur de 683 lumens par watt pour l’efficacité lumineuse spectrale d’une radiation de fréquence 540 x 1012 hertz. Cette définition permet de rattacher le flux lumineux, grandeur liée à la sensation visuelle humaine, au flux énergétique. L’efficacité lumineuse maximale de 683 lm·W–1, devenue une constante de définition du SI, est prise au point de sensibilité maximum de l’œil humain, soit 555 nm (dans le vert du spectre visible). La candela, symbole cd, est l’unité du SI d’intensité lumineuse dans une direction donnée. Elle est définie en prenant la valeur numérique fixée de l’efficacité lumineuse d’un rayonnement monochromatique de fréquence 540 × 1012 Hz, Kcd, égale à 683 lorsqu’elle est exprimée en lm·W–1, unité égale à cd·sr·W–1, ou cd·sr kg–1·m–2·s3, le kilogramme, le mètre et la seconde étant définis en fonction de h, c et ∆νCs. Les fondements de la définition de la candela n’ont pas changé lors de la révision de 2018. La formulation littérale de sa définition a été reprise afin qu’elle soit homogène avec les autres redéfinitions.

2.

Grandeurs et unités dérivées

Les unités utilisées en photométrie sont schématisées sur la figure 11. La lampe (source lumineuse) émet un flux lumineux total dans l’espace, en lumen. Ce flux est redirigé par le réflecteur vers une portion du sol. L’éclairement du sol est mesuré en lux (lumen par mètre carré). L’exposition est l’éclairement de la surface sur la durée donnée (par exemple, la durée de la prise de vue de cette scène en photographie). 49

Le SI et la métrologie en France

Le flux se propageant dans le cône, qui pointe sur la lampe et dont l’ouverture est la pupille de l’œil de la fillette, s’exprime en candela et représente l’intensité de la lampe. La lumière, reçue par le chien et renvoyée dans l’œil de la fillette, est la luminance, en candela par mètre carré. L’œil humain (détecteur) « voit » des luminances.

Figure 11 :  Schématisation des grandeurs en photométrie. Source : LNE.

Le tableau 14 récapitule des unités en photométrie qui dérivent de l’unité de l’intensité lumineuse. Celles-ci dérivent également du mètre. Tableau 14 :  Récapitulatif des grandeurs et unités essentielles dans le domaine de la photométrie.

Grandeur dérivée

Symbole associé

Symbole de l’unité

Nom spécifique de l’unité

Expression en unités SI

flux lumineux

φv

lm

lumen

cd·sr = m2·m–2·cd

luminance lumineuse

Lv

-

-

cd·m–2

éclairement lumineux

Ev

lx

lux

lm·m–2 = m–2·cd·sr

exposition

H

-

-

lx·s = m–2·cd·sr·s

3. Recommandations du CIPM pour la mise en pratique La candela est le plus souvent réalisée à l’aide d’une lampe étalon dont la conception physique est optimisée de façon à ce qu’elle puisse être considérée comme une source ponctuelle dans une 50

Chapitre 3. Unités et grandeurs de mesure

L’illuminant A est destiné à représenter un éclairage typique, à usage domestique, produit par un filament de tungstène. Sa répartition spectrale relative de puissance est celle d’un corps noir de Planck à une température de 2 856 K.

300

Sp pectre (unité és relattives)

direction spécifique. Il s’agit généralement d’une lampe à filament de tungstène dont les paramètres électriques de fonctionnement sont choisis pour que l’émission spectrale de la source s’approche de l’illuminant A normalisé de la CIE Commission internationale de l’éclairage (figure 12).

250 200 150 100 50 0 350

450

550

650

750

850

Longueur d'onde λ (nm)

Figure 12 :  Spectre de l’illuminant A normalisé défini par la Commission internationale de l’éclairage.

En fonction des voies de traçabilité choisies, la réalisation pratique de la candela s’effectue à l’aide de l’une des deux méthodes décrites par la suite. Dans les laboratoires nationaux de métrologie, deux méthodes sont utilisées : la méthode A des corps noirs et des sources à un photon (synchrotron) ; la méthode B des radiomètres cryogéniques et spectrophotomètres.

3.1. Méthode A (source) Elle repose sur l’utilisation d’une petite source polychromatique formant un champ de rayonnement presque isotrope dans la direction de mesure. La source est généralement une source incandescente dont la répartition spectrale relative d’énergie est proche de celle de l’illuminant A normalisé de la CIE. L’utilisation de cette source comme lampe de référence en intensité lumineuse impose d’en caractériser le spectre d’émission. L’intensité énergétique spectrale, Ιe(λ), dans une direction donnée est mesurée à une distance, r, suffisamment grande pour pouvoir considérer la source comme ponctuelle :

Pour ces mesures, il est nécessaire de connaître et de contrôler un ensemble de paramètres important : orientation de la lampe, direction de la mesure, courant de la lampe, distance r, surface du diaphragme. Ces valeurs peuvent ensuite être multipliées par V(λ), la fonction d’efficacité lumineuse spectrale relative de l’observateur de référence de la CIE en vision diurne (figure 13), et intégrées spectralement pour obtenir l’intensité lumineuse de la lampe.

1.2 1 0.8 0.6 0.4 0.2

350

400

450

500

550

600

650

700

Longueur d'onde λ ((nm)) '

750

800

0 850

51

Fonction V(λλ) (unittés relattives)

Figure 13 :  Sensibilité spectrale de l’œil humain V(λ), fonction d’efficacité lumineuse spectrale relative de l’observateur de référence de la CIE en vision diurne.

• en utilisant des radiomètres à filtre de référence, de sensibilité à l’éclairement énergétique connue, à quelques longueurs d’onde du domaine visible entre 360 nm et 830 nm ; • ou en utilisant un spectroradiomètre avec un dispositif optique d’entrée qui a été étalonné de manière absolue pour la sensibilité à l’éclairement énergétique.

Le SI et la métrologie en France

3.2. Méthode B (détecteur) Cette méthode repose sur un photomètre de référence. Le photomètre est un radiomètre à filtre dont la sensibilité spectrale relative est conçue pour être très proche de la fonction V(λ). Ce radiomètre à filtre, combiné avec un diaphragme de précision, est étalonné par rapport à un radiomètre absolu pour connaître sa sensibilité à l’éclairement (unité : A·lx−1). Dans la pratique, l’étalonnage permet de déterminer une sensibilité à l’éclairement énergétique spectral absolu (unité  : A·W−1·m2·nm−1) à des longueurs d’onde fixes. Ces valeurs spectrales sont ensuite converties en sensibilité à l’éclairement (pour une source spécifique) par intégration sur le domaine du visible. Le photomètre de référence ainsi étalonné est utilisé pour étalonner une lampe étalon en intensité lumineuse dans une direction donnée au moyen d’un banc photométrique. Ce banc permet de contrôler avec soin la distance r, entre la source et le photomètre ainsi que l’alignement de la lampe sur la direction de la mesure. Un étalonnage spectral de la source lumineuse peut aussi être nécessaire pour corriger une erreur spectrale entre le photomètre et la fonction d’efficacité lumineuse spectrale de l’observateur de référence.

52

Chapitre 4

Les références nationales

Le Système international d’unités, tel qu’établi par les instances internationales de métrologie, a pour objectif de mesurer une grandeur, dans différents endroits du monde, avec différents instruments, tout en garantissant la cohérence de l’ensemble des mesures. Ceci repose sur une notion fondamentale  : la traçabilité métrologique. Celle-ci peut se traduire par le schéma pyramidal de traçabilité (voir figure 14).

CGPM / CIPM

Unité SI

Incertitude de mesure

Étalon primaire

Laboratoire national de métrologie

Étalon national

Étalon 1

Service de métrologie accrédité (industrie)

Étalons n...

Étalon Instrument de mesure étalonné

Utilisateur final

Résultat de mesure final

Figure 14 :  Chaîne de traçabilité métrologique des mesures. Source : LNE.

La traçabilité métrologique qualifie un résultat de mesure lorsque ce dernier peut être relié, par une chaîne ininterrompue et documentée d’étalonnage (raccordements), à une référence. 53

Le SI et la métrologie en France

Ce chapitre  décrit donc les pierres angulaires qui, en France, permettent de passer de la définition des unités de base à la garantie de mesures fiables dans leurs pratiques opérationnelles. Le cœur du sujet est qualifié en métrologie de « mise en pratique » de la définition d’une unité. C’est la réalisation pratique d’une unité, via une instrumentation ou un étalon, reliant ce dernier avec la plus faible incertitude possible, à la définition de base. Viennent ensuite se raccorder, à ces premiers niveaux, des étalons, qualifiés de « transfert ». Dans un pays, l’ensemble des étalons réalisés au meilleur niveau d’exactitude constituent les « références nationales ». En France, ce sont les laboratoires du Réseau national de la métrologie française (RNMF) qui en sont responsables. Les activités des laboratoires du RNMF sont organisées en domaines métrologiques (temps-fréquence,  etc.), conformément à l’organisation internationale de la métrologie abordée au chapitre 2 : • • • • • • • •

temps – fréquence ; longueur ; masse et grandeurs apparentées (telles que : acoustique, force, couple…) ; électricité – magnétisme ; thermométrie… et propriétés thermiques des matériaux ; quantité de matière ; photométrie – radiométrie ; rayonnements Ionisants.

Le Réseau national de la métrologie française La métrologie française est un réseau de laboratoires, appelé Réseau national de la métrologie française (RNMF). L’ensemble des activités scientifiques compte plus de 200 métrologues et chercheurs. Le LNE, Laboratoire national de métrologie et d’essais, s’est vu confier par l’État (décret du 25 janvier 2005), la mission d’en assurer le pilotage, en remplacement du Bureau national de métrologie qui assurait cette fonction depuis 1969. Il représente la France dans les instances internationales de la Convention du mètre. Les 10 laboratoires du RNMF sont déclarés dans le cadre du CIPM MRA. Le LNE-LCM/LNE & CNAM, Laboratoire commun de métrologie, rassemblant des équipes du LNE et du Conservatoire national des arts et métiers (CNAM) : unités de base : K, kg, Cd, m ; domaines métrologiques  : longueur et grandeurs dimensionnelles, radiométrie-photométrie, température et grandeurs thermiques, masse et grandeurs apparentées (pression, force, couple, pression acoustique, accélération, viscosité, débit, masse volumique, volume). Le LNE, au sein de sa direction de la métrologie scientifique et industrielle : unités de base : A, mol ; domaines métrologiques  : électricité-magnétisme, quantité de matière, mathématiques et statistiques associées (en sus des activités propres au LCM). Le LNE-SYRTE/OP, Laboratoire systèmes de référence temps-espace à l’Observatoire de Paris : unités de base : s ; domaine métrologique : temps-fréquence. 54



Chapitre 4. Les références nationales



Le LNE-LNHB/CEA, Laboratoire national Henri Becquerel du Commissariat à l’énergie atomique : unités dérivées de la seconde… domaine métrologique : rayonnements ionisants (dosimétrie et radioactivité). Le LNE-IRSN, laboratoire de métrologie de la dose neutrons de l’Institut de radioprotection et de sûreté nucléaire : unités dérivées de la seconde… domaine métrologique : rayonnements ionisants (et spécifiquement la dosimétrie des neutrons). Le LNE-CETIAT, Centre technique des industries aérauliques et thermiques : unités dérivées du kilogramme, du kelvin… domaines métrologiques : masse et grandeurs apparentées (débitmétrie liquide (eau) et anémométrie), température et grandeurs thermiques (hygrométrie). Le LNE-LADG, Laboratoire associé de débitmétrie gazeuse : unités dérivées du kilogramme… domaine métrologique : masse et grandeurs apparentées (débitmétrie des gaz). Le LNE-LTFB, Laboratoire Temps Fréquence de Besançon : unités dérivées de la seconde…. domaine métrologique : temps-fréquence (stabilités de temps et de fréquence, bruit de phase). Le LNE-ENSAM, Laboratoire de l’École nationale supérieure d’arts et métiers de Paris : unités dérivées du kilogramme… domaine métrologique : masse et grandeurs apparentées (pression dynamique). Le LNE-TRAPIL, Laboratoire de la société Trapil : unités dérivées du kilogramme… domaine métrologique  : masse et grandeurs apparentées (débitmétrie liquide des hydrocarbures). Les nouveaux besoins en termes de grandeur mesurée ou d’exactitude des mesures, amènent les laboratoires du RNMF à améliorer, de façon continue, la réalisation pratique de l’ensemble des unités du SI. Cette préoccupation concerne aussi bien les références que les moyens d’étalonnage pour le transfert aux utilisateurs, pour répondre au mieux aux nouveaux besoins.

Dans le texte qui suit, une référence, un étalon ou une procédure, est qualifié de « primaire » lorsque le résultat de mesure obtenu avec cet instrument (au sens large) n’est pas relié à un étalon d’une grandeur de même nature. A contrario, une référence secondaire ou de transfert est établie par l’intermédiaire d’une autre référence d’une grandeur de même nature. Chacune de ces références correspond à une « ligne de CMC », i.e. aptitudes en matière de mesure et d’étalonnage. Une fois validées par les laboratoires pairs signataires du CIPM-MRA, elles sont répertoriées sur le site internet du BIPM : https://www.bipm.org. 55

Le SI et la métrologie en France

I.

Temps-fréquence

Le domaine métrologique «  temps-fréquence  » se rapporte aux activités de mesure et de réalisation d’étalons de temps et de fréquence, c’est-à-dire aux grandeurs intervalle ou écart de temps, fréquence d’un phénomène périodique, variation ou stabilité de la fréquence, variation ou écart de phase. La grandeur de base est le temps, et plus précisément l’intervalle de temps d’après la définition du SI. La seconde est une valeur particulière de cette grandeur. La matérialisation de l’unité seconde impose de disposer d’un signal périodique dont la fréquence est calée sur la transition hyperfine du césium. Les étalons primaires sont donc des étalons de fréquence qui délivrent un signal physique dont la fréquence est très stable et déterminée avec une très grande exactitude par rapport à cette transition du césium. Puis des intervalles de temps étalons sont élaborés à partir de ces signaux très stables et des systèmes électroniques de comptage (figure 15).

n

hf = ΔΕ

1/f

4 3 2 1

1/f

t

intervalle de temps

Transition atomique

Étalon de fréquence

Échelle de temps

Figure 15 : Étapes de réalisation d’intervalles de temps étalons. Source : LNE.

Pour la datation des événements, nous avons besoin de repères de temps ininterrompus qui soient disponibles et cohérents en tout lieu. Ces références, successions d’intervalles de temps, sont des échelles de temps, construites au niveau local, et rendues universelles par leur raccordement à une échelle unique pour le monde entier. L’évolution de l’électronique rapide et des technologies quantiques associées, des télécommunications à haute fréquence ou sur longue distance, l’exploration spatiale ou la recherche en physique fondamentale, stimulent la construction d’échelles de temps avec une précision toujours plus grande.

1.

Les références de fréquence

Les fréquences des étalons sont choisies parmi les fréquences de transition recommandées par le CIPM. Elles sont uniques et très reproductibles. Leurs valeurs ne dépendent que de la nature de 56

Chapitre 4. Les références nationales

l’atome (∆ν Cs pour le césium) et les incertitudes de réalisation de l’étalon résultent uniquement des conditions de mise en œuvre de la transition atomique par spectroscopie. Le modèle de la physique atomique prévoit que chaque atome a une structure propre de répartition de son énergie interne avec trois niveaux de sous-structures possibles  : fine, hyperfine et magnétique. Les électrons sont répartis en couches et en niveaux discrets d’énergie. L’interaction hyperfine résulte de l’interaction entre les moments magnétiques des électrons et du noyau. La différence d’énergie (∆E )=entre deux niveaux énergétiques de transition est proportionnelle à une fréquence ν dont la valeur est prédictible selon la relation de Planck : hν = ∆E . Lorsque l’énergie apportée par une onde électromagnétique de fréquence ν correspondant à une transition autorisée entre un niveau inférieur et un niveau supérieur d’énergie, un atome voit son énergie interne modifiée. Réciproquement, si l’atome est dans un état d’énergie excité, il peut perdre de l’énergie et revenir à un état d’énergie plus stable en émettant de l’énergie sous la forme d’un rayonnement électromagnétique de fréquence ν . Le principe du changement de niveau d’énergie induit par une onde électromagnétique, dont la fréquence est choisie pour correspondre à une transition atomique particulière, constitue le fondement de la réalisation des étalons atomiques de fréquence. Il s’agit, en pratique de mettre les atomes dans les conditions où cette transition énergétique peut se produire et de maximiser le nombre d’atomes qui subissent cette transition pour considérer que le signal d’excitation a bien la fréquence recommandée. Les étalons de fréquence, proprement dits, sont des générateurs de signaux périodiques oscillant à ces fréquences et fonctionnant de manière continue, tout au moins le temps nécessaire à l’utilisation du signal pour effectuer des comparaisons (figure 16). Le signal doit Oscillateur macroscopique Fréquence ajustable Signal étalon de fréquence Fréquence stable

correction

interrogation

Atomes Fréquence correspondant à une transition atomique

Figure 16 : Réalisation d’un étalon de fréquence à partir d’une transition atomique. Source : LNE.

57

Le SI et la métrologie en France

être très stable et suffisamment intense pour être mesurable. Cela se fait en asservissant un oscillateur (laser ultrastable, quartz, cristal… en fonction de la fréquence recherchée) sur la fréquence d’un ou de plusieurs étalons atomiques. Le laboratoire chargé des références de temps et de fréquence construit et qualifie différents étalons de fréquence à partir de diverses espèces atomiques. Aujourd’hui deux familles d’étalons de fréquence coexistent : des étalons, primaires et secondaires, à fréquence micro-onde, réalisés selon le modèle de fontaine atomique, et des étalons secondaires à fréquence optique.

Caractéristiques d’un étalon de fréquence La stabilité d’un étalon traduit sa capacité à reproduire la même fréquence au cours du temps. Elle est exprimée en variation relative de la fréquence sur une durée d’intégration donnée, généralement d’une seconde pour les horloges atomiques. Elle est directement associée aux sources de bruit de l’horloge. Pour les horloges atomiques, elle dépend de la largeur du signal de résonance qui est inversement proportionnelle à la durée d’interrogation des atomes. Elle est souvent représentée par l’écart type d’Allan qui exprime les fluctuations de la moyenne entre deux échantillons successifs de durée τ. La valeur de cet écart type en fonction de τ permet de caractériser la stabilité à court, moyen et long terme des oscillateurs et des étalons. L’exactitude de fréquence représente l’incertitude sur la connaissance de la fréquence de l’étalon par rapport à la définition. L’écart est dû à un ensemble d’effets systématiques qui déplacent la valeur de fréquence de transition mesurée. En premier lieu, la réalisation stricte de la définition est difficile, voire impossible car, en pratique, les atomes ne sont pas rigoureusement isolés. Les nombreux effets de l’environnement ou des conditions pratiques de réalisation doivent être maîtrisés au mieux pour réduire l’inexactitude.

1.1. Étalons primaires et secondaires de fréquence micro-onde La fréquence de l’étalon primaire est la fréquence de transition entre les niveaux d’énergie hyperfins F = 3 et F = 4 de l’état fondamental 6S de l’atome de césium. Comme le césium n’a qu’un électron de valence, la structure fine et hyperfine de l’état fondamental se décompose en seulement deux niveaux d’énergie. Le modèle physique se rapproche alors de celui d’un système relativement simple à deux niveaux d’énergie stables. Depuis 1967, date de la définition « atomique » de la seconde, les techniques de mise en œuvre des étalons de fréquence ont sans cesse évolué pour améliorer leurs performances. Le premier étalon primaire réalisé en France a été construit sur le principe d’un jet thermique à pompage optique au césium. Cet étalon a permis d’atteindre une exactitude de 5 × 10 −15 et une stabilité de 3,5 × 10 −13 sur une seconde. Il n’est plus en fonctionnement depuis 2010.

58

Chapitre 4. Les références nationales

Principe de fonctionnement d’une fontaine atomique au césium La fontaine atomique est un dispositif où les atomes sont refroidis, propulsés verticalement à l’aide de faisceaux lasers et excités par un signal électromagnétique micro-onde avant de retomber librement par gravité (figure 17). La transition hyperfine (|F = 3〉 → |F = 4〉) de l’état fondamental 6S est sondée par un signal de fréquence micro-onde qui interagit avec l’échantillon d’atomes refroidis. La méthode de refroidissement et de piégeage des atomes par des faisceaux lasers a été développée par S. Chu, W. Phillips et C. Cohen-Tannoudji (lauréats du prix Nobel de physique en 1997).

Interrogation micro-onde

Source d’atomes : un jet d’atomes refroidis (contenant jusqu’à 1010 atomes par seconde) est généré par un piège magnéto-optique à deux dimensions (2D-MOT) pour alimenter une mélasse optique.

1

Détection

Source

Capture, refroidissement et lancement

Préparation et séléction

2 3 4

5 6

7

8

Figure 17 : Principe de réalisation d’une fontaine atomique. 1 = enveloppe de blindage magnétique, 2 = cavité de Ramsey d’excitation micro-onde des atomes, 3 = laser d’expulsion du reliquat d’atomes, 4 = cavité micro-onde de sélection de l’état d’origine, 5 = lasers de refroidissement et de lancement vertical des atomes, 6  =  mélasse optique de capture des atomes, 7  =  jet d’atomes issu du piège 2D-MOT, 8 = système de détection de l’état des atomes retombés. Source : LNE.



59

Le SI et la métrologie en France



Refroidissement des atomes : les atomes sont capturés à partir du jet et refroidis dans une mélasse optique par six faisceaux laser collimatés (trois paires). La raie à 852 nm (transition entre les niveaux 6S, F = 4 et 6P3/2, F = 5) est utilisée pour le refroidissement. Les polarisations des faisceaux contra-propageant sont orthogonales pour optimiser la température des atomes refroidis. Tous les faisceaux sont préparés à partir de diodes laser, sur une table optique adjacente à la fontaine, et sont dirigés dans l’enceinte à vide à l’aide de fibres optiques. Les atomes sont refroidis à environ 1 µK en quelques 100 ms et sont ensuite lancés verticalement à une vitesse de l’ordre de 4 m·s–1, à l’issue de quoi les faisceaux laser de refroidissement sont coupés. Préparation des atomes  : les atomes froids sont transférés de l’état  |F  =  4〉 au sousniveau  |F  =  3, mF  =  0〉 de la transition hyperfine par les impulsions micro-ondes injectées dans la cavité de préparation. Une impulsion laser, juste au-dessus, expulse les atomes restés dans l’état |F = 4〉, par pression de radiation. Cette phase permet d’obtenir un échantillon d’atomes qui sont tous dans l’état atomique souhaité. Interrogation des atomes : sous l’action de la gravité, les atomes passent deux fois, en montant et en descendant, dans la cavité de Ramsey où ils subissent une interaction avec l’onde micro-onde proche de la fréquence de transition. Le temps d’interaction est long (500 ms) car les atomes sont très froids. L’excitation des atomes, par ces deux impulsions successives, induit le passage des atomes de l’état fondamental vers l’état excité. Détection : le faisceau laser de détection, constitué de deux nappes espacées de 1 cm et situé en bas de la fontaine, détecte tous les atomes lorsqu’ils retombent après l’interrogation. Le nombre d’atomes de chaque état hyperfin est évalué ; ce qui permet de déterminer la proportion d’atomes qui ont changé d’état à l’issue de l’interrogation en s’affranchissant en grande partie des fluctuations du nombre d’atomes d’un cycle à l’autre (cycle = préparation + interrogation + détection = durée d’environ 1,5 s). La figure 18 montre la probabilité de transition (un point de mesure par cycle) en fonction de la fréquence d’interrogation (franges de Ramsey). La fréquence est proche de la définition (∆ν Cs ) lorsque la probabilité de transition est maximale (écart de fréquence nul). La figure 18 illustre l’excellent rapport signal à bruit obtenu avec une des fontaines du laboratoire pour environ 10 7 atomes détectés. Environnement de mesure : le dispositif de fontaine est entouré de plusieurs blindages magnétiques pour limiter les perturbations environnantes. De même, pour éviter de perdre des atomes froids par collision avec des atomes thermiques résiduels, un vide poussé (environ 10–8 Pa) est réalisé dans l’enceinte de la fontaine. 1.0

0.8

0.6

0.4

0.2

0.0

-100

-50

0

50

100

Figure 18 : Franges de Ramsey obtenues avec la fontaine au césium FO2 au LNE-SYRTE. Source : Observatoire de Paris/SYRTE.

60

Chapitre 4. Les références nationales

Depuis 1990, les étalons primaires de fréquence développés l’ont été sur le modèle de fontaine atomique pour réaliser la transition hyperfine du césium spécifiée dans la définition de la seconde. Le laboratoire français a été pionnier pour la mise en œuvre de ce modèle. Pour la plus grande stabilité en fréquence, le laboratoire utilise un oscillateur cryogénique à résonateur de saphir (oscillateur à modes de galerie) pour générer le signal d’excitation des atomes dans les fontaines. Cet oscillateur refroidi à la température de l’hélium liquide est ultrastable (stabilité de quelques 10 −16 sur une durée d’intégration d’une seconde). En 2019, trois étalons primaires de fréquence sont en fonctionnement quasi-permanent dans le laboratoire national de métrologie. Ils permettent de réaliser la seconde du SI et contribuent régulièrement à l’étalonnage du TAI, temps atomique international, et à l’élaboration de l’UTC(OP), temps universel coordonné (observatoire de Paris). L’un de ces étalons, fondé sur une fontaine double avec des atomes de césium et de rubidium, est simultanément un étalon primaire et secondaire et participe doublement aux étalonnages. Les fréquences micro-ondes de ces étalons sont générées avec une exactitude de 2 × 10 −16 et une stabilité de quelques 10 −14 sur une durée de 1 s.

1.2. Étalons secondaires de fréquence optique En France, les fontaines atomiques ont atteint leur niveau de performance maximal qui est actuellement aux limites fondamentales de fonctionnement. C’est pourquoi le laboratoire explore d’autres voies pour réaliser des étalons atomiques de fréquence, et en premier lieu exploite d’autres fréquences de transition atomique. En augmentant la fréquence de transition vers le domaine optique, et même visible, du spectre électromagnétique, il est permis d’espérer améliorer l’exactitude relative des étalons de fréquence jusqu’à 10 −19 . D’ailleurs, les dernières fréquences recommandées pour les réalisations secondaires d’étalons sont toutes dans le domaine optique. Le laboratoire a commencé les recherches dans ce domaine par les étalons de fréquence au strontium et au mercure. Depuis 2000, deux étalons de fréquence à réseau optique utilisant des atomes de strontium sont en développement dans le laboratoire. Le principe de base est de piéger les atomes froids dans un réseau optique et de les interroger avec un laser ultrastable. L’étalon de fréquence optique au strontium a déjà dépassé les performances des étalons réalisés sur le principe des fontaines atomiques. En 2019, il atteint déjà une stabilité de 7 × 10 −17 sur une durée d’intégration d’une seconde et une exactitude proche de 10 −17 . Les résultats de ces premiers étalons à fréquence optique encouragent les recherches dans ce domaine et une révision de la définition de la seconde selon des fréquences optiques est même envisagée par le CCTF. 61

Le SI et la métrologie en France

Principe d’un étalon de fréquence à réseau optique au strontium Atome et transition atomique  : l’isotope utilisé est le strontium 87Sr. La transition atomique du strontium recherchée est 1S0 → 3 P0 dont la fréquence correspond à la longueur d’onde de 698 nm, dans le domaine optique (figure 19). S1

3

λ = 707 nm

P1

λ = 679 nm

1

λ = 688 nm

P2

3 3

PMO

P0

3

λ = 461 nm

Transition atomique

λ = 698 nm (429 THz)

S0

1

P1

λ = 689 nm

Figure 19 : Niveaux d’énergie de l’atome de strontium (87Sr) impliqués dans la réalisation de l’étalon de fréquence optique (transition atomique). Source : LNE.

Capture : après ralentissement des atomes par un dispositif Zeeman, les atomes du jet sont capturés et refroidis par un piège magnéto-optique (PMO) à 3 mK (à l’aide d’un laser intense à 461  nm). Pour s’affranchir des déplacements de fréquence dus aux mouvements des atomes, les atomes sont confinés dans un réseau optique de puits de potentiel lumineux, pour lequel le mouvement des atomes est décrit de façon quantique et donc est très bien contrôlé (figure 19). Ce piège optique dipolaire est formé par une onde optique stationnaire dans une cavité verticale placée dans l’enceinte sous vide. Ce piégeage optique induisant un déplacement de fréquence de l’étalon atomique, il est nécessaire d’utiliser une longueur d’onde laser supplémentaire particulière à 813 nm, dite « magique », pour annuler cet effet. Préparation des atomes : les atomes piégés sont pompés vers deux états métastables (3P0 et 3P2) à l’aide de deux lasers et d’un champ magnétique de 10 −4  T. Le refroidissement optique se poursuit jusqu’à quelques microkelvins, à la fin du processus. Interrogation et détection : les atomes interagissent avec un faisceau laser à 698 nm pendant environ 200 ms. La détection des probabilités de transition s’effectue ensuite par une caméra optique qui capte la fluorescence des atomes restés à l’état fondamental et soumis à un rayonnement optique de 461 nm (figure 20).

(a) (b) Figure 20 : Piège a réseau optique (a) et photographie de la fluorescence dans la cavité de capture des atomes de strontium (b). Source : LNE et photo Observatoire de Paris/SYRTE.

62

Chapitre 4. Les références nationales

1.3. Comparaisons de références de fréquence En 2019, sept étalons de fréquence à atomes froids fonctionnent dans le Laboratoire national de métrologie : • 4 étalons de fréquences micro-ondes (2 césium et 1 double césium/rubidium) ; • 3 étalons de fréquences optiques (2 strontium et 1 mercure). Ils sont au meilleur niveau mondial et ceux fondés sur le Cs, Rb et Sr sont utilisés pour réaliser l’unité seconde du SI et pour l’étalonnage du TAI et de l’UTC. Au laboratoire, de nombreuses mesures sont pratiquées pour évaluer et améliorer les performances de ces étalons. Des comparaisons avec d’autres étalons sont indispensables pour évaluer leur exactitude et leur stabilité à court et long termes et garantir la cohérence de l’ensemble des références de fréquence. Des comparaisons sont régulièrement effectuées à deux niveaux : international pour comparer des références nationales de fréquence (étalons primaires ou secondaires de fréquence) et au niveau national pour assurer le raccordement aux étalons nationaux (étalon primaire de césium) des références secondaires et pratiques utilisées dans le laboratoire ou des oscillateurs de référence des utilisateurs externes.

1.3.1. Comparaisons d’étalons distants de fréquence (comparaisons internationales) Pour comparer des étalons distants (en France ou à l’étranger), des systèmes de comparaison par satellites sont mis en œuvre de manière quasi-continue. Ces systèmes sont raccordés aux oscillateurs (masers) qui portent les échelles de temps, UTC(OP), afin de permettre la comparaison à distance de ces oscillateurs et de ces échelles de temps. Les résultats de ces comparaisons, ainsi que les mesures de fréquence des oscillateurs par les étalons primaires, sont ensuite transmis au BIPM pour l’étalonnage du TAI et le calcul de UTC. Dans la perspective de la généralisation des étalons de fréquences optiques, des réseaux fibrés sont en construction en France et en Europe pour assurer des liaisons dédiées aux comparaisons d’horloges entre instituts nationaux de métrologie. Par exemple, en 2018, l’étalon de fréquence au strontium a été comparé directement à deux autres étalons nationaux (Allemagne et Royaume-Uni), à quelques 10 −17 près, par l’intermédiaire de liens fibrés dédiés entre les trois instituts. De même, en France, un réseau fibré spécifique aux échanges de données métrologiques de temps et de fréquence est en phase de déploiement. Il peut être utilisé pour étalonner les références des laboratoires de recherche et de métrologie nécessitant des références de fréquence au meilleur niveau métrologique.

63

Le SI et la métrologie en France

1.3.2. Comparaisons locales de références de fréquence (étalonnages) Le laboratoire dispose d’un réseau interne fibré stabilisé, auquel toutes les références de fréquences de laboratoire sont connectées, pour assurer les transmissions des signaux de fréquence à comparer. L’avènement des peignes de fréquence (voir partie sur les références de longueur) a considérablement simplifié et révolutionné les comparaisons de fréquences dans le domaine optique. Pour le raccordement en fréquence, il s’agit en effet de pouvoir comparer des fréquences qui peuvent être très éloignées sur le spectre électromagnétique : de quelques gigahertz (étalons au césium ou masers à hydrogène) à quelques 102  THz (étalons de fréquence optiques). Les incertitudes de raccordement des mesures de fréquence ont de fait diminué et cela a ouvert la voie au développement des étalons de fréquence dans le domaine optique. Le laboratoire a mis en place un système de mesure de fréquences optiques sur un large domaine spectral. Il est constitué de deux peignes de fréquence fondés sur un laser titane-saphir (de 500 nm à 1 µm) et un laser à fibre optique dopée à l’erbium (de 1 µm à 2 µm). Par des extensions, la gamme spectrale accessible au peigne erbium peut être augmentée. L’utilisation du peigne titane-saphir tend à disparaitre au profit du peigne erbium beaucoup plus fiable et facile à mettre en œuvre. Pour les comparaisons, le peigne de fréquence est utilisé comme un diviseur : un battement en fréquence est effectué entre le système à étalonner et le peigne, puis entre le peigne et l’étalon de fréquence. Les caractéristiques principales exigées pour le peigne sont une excellente reproductibilité (des fréquences) et sa grande stabilité. Ce dispositif de comparaison est une véritable «  règle graduée  » dans l’espace des fréquences pour les mesures de fréquence. Les six étalons de fréquence atomiques, de quatre espèces différentes (césium, rubidium, strontium et mercure) sont connectés en permanence à ce dispositif de comparaison. Il en est de même pour la source laser à 1 542 nm qui alimente les réseaux fibrés internes et externes au laboratoire.

2. Les références de temps 2.1. Les échelles internationales, nationales et le temps légal En métrologie du temps, pour des besoins de cohérence, des repères de temps sont élaborés à l’échelle planétaire. Le BIPM a un rôle central depuis 1988 puisqu’il calcule et diffuse les échelles de temps internationales (TAI et UTC) à partir des données transmises par des laboratoires nationaux de métrologie. Ces laboratoires analysent en retour les écarts entre leurs horloges et l’échelle internationale, formant ainsi un repère stable et universel. 64

Chapitre 4. Les références nationales

2.1.1. Le temps universel (UT1) UT1 est une échelle de temps fondée sur des observations astronomiques, notamment la rotation de la Terre. Elle est calculée par le Service international de la rotation de la Terre (IERS – International Earth Rotation and Reference Systems Service). UT1 sert pour l’astronomie et la navigation spatiale.

2.1.2. L’échelle atomique libre (EAL) C’est une échelle calculée à partir de données de comparaisons d’horloges commerciales transmises par des laboratoires répartis dans le monde entier (environ 450 horloges) par méthodes satellitaires. Le BIPM calcule une moyenne pondérée des données de ces horloges.

2.1.3. Le temps atomique international (TAI) Le TAI résulte du pilotage en fréquence de l’EAL par les meilleurs étalons primaires de fréquence des laboratoires nationaux de métrologie. Seules participent au TAI les horloges les plus stables et capables de fournir des données une fois par mois. Ces participations sont approuvées par le CCTF en fonction notamment des résultats de comparaisons d’horloges. En 2019, moins de dix laboratoires peuvent contribuer au TAI. Le TAI, étalonné par rapport aux réalisations de la seconde, est l’échelle dont la marche est très proche de la seconde du SI et est mesurée avec une grande exactitude. Sa stabilité est actuellement de l’ordre de quelques 10 −16 sur des durées de un mois. Elle est réalisée actuellement avec une incertitude type de l’ordre de quelques 10 −16 également. Les étalons français, fontaines atomiques construites pour la réalisation de la seconde (au césium) incluant l’étalon au rubidium (représentation secondaire de la seconde) de la fontaine double, participent depuis une dizaine d’années à hauteur d’au moins 40 % aux étalonnages du TAI. Depuis 2015, l’étalon de fréquence à réseau optique de strontium contribue à l’étalonnage du TAI et la France a été le premier pays à fournir des données d’étalonnage du TAI avec une fréquence optique.

2.1.4. Le temps universel coordonné (UTC) UTC est égal à TAI auquel est ajouté ou soustrait un nombre entier de secondes de manière à ce que UTC soit maintenu à moins de 0,9 s de UT1. Ces secondes intercalaires sont introduites de temps à autre (28 fois depuis 1972) pour prendre en compte les fluctuations de la rotation de la Terre. En 2019, UTC = TAI − 37 s . L’échelle de temps UTC est conçue pour être partagée dans le monde entier pour être un repère universel de temps, tout en restant cohérente avec le temps lié à la rotation de la Terre.

65

Le SI et la métrologie en France

La réalisation physique locale dans un pays « k » ou la prédiction en temps réel du temps UTC est nommée UTC (k ). Pour la France, c’est UTC(OP). C’est donc une échelle physique construite à partir des signaux d’horloges industrielles. L’objectif est que cette échelle soit le proche possible de UTC. Pour cela, elle est comparée tous les mois à UTC par l’intermédiaire de la Circulaire T diffusée par le BIPM qui donne tous les écarts UTC − UTC (k ) calculés tous les 5 jours à partir des données d’horloges d’environ 80 pays, reçus durant le mois écoulé. Le fonctionnement d’UTC(OP) repose sur un maser à hydrogène dont le signal de sortie est piloté quotidiennement en fréquence par des étalonnages avec les quatre fontaines à atomes froids (3 césium et 1 rubidium). Un pilotage fin sur UTC à 10 –16 est en plus ajouté chaque début de mois, lors de la publication par le BIPM de la Circulaire T. En 2018, UTC(OP) a été maintenu à quelques nanosecondes d’UTC. En pratique, la chaîne opérationnelle est constituée de quatre échelles de temps physiques réalisées à partir de quatre masers pour disposer de redondance et effectuer des tests. Cette échelle est très stable et ses performances sont limitées uniquement par celles des moyens de transfert de temps.

2.1.5. Le temps atomique français, TA(F) En plus de sa participation active au calcul du TAI, le laboratoire national français réalise le TA(F). C’est une échelle de temps atomique calculée à partir de différentes horloges de laboratoires ou industriels répartis sur le territoire national. Les données transmises sont établies à partir des signaux GPS en vues simultanées. Cette échelle est pilotée en fréquence par rapport à la moyenne pondérée des fontaines disponibles au laboratoire. Elle a été comparée au TAI et a montré une stabilité relative de l’ordre de 10 −15 sur un mois. Une douzaine d’utilisateurs français sont ainsi raccordés directement au meilleur niveau d’exactitude car le laboratoire national publie tous les mois dans le Bulletin H les écarts de ces horloges avec le TA(F).

2.1.6. Le temps légal (ou heure légale) Dans chaque pays, il est généralement pris en référence à l’UTC(k). Des accords internationaux prévoient d’adopter un écart à UTC qui soit égal à un nombre entier d’heures. Pour cela, le globe a été divisé en 24 zones pour former des « fuseaux horaires ». Chaque pays se rattache au fuseau qui lui convient et définit ainsi son heure légale. En France, le décret n°  2017-292 du 6  mars 2017 définit le temps légal par rapport à UTC dont la réalisation pratique est UTC(OP). En France métropolitaine, le temps légal est UTC(OP) + 1 heure en hiver et UTC(OP) + 2 heures en été. En 2019, un débat est en cours au sein de la Commission européenne pour éventuellement cesser le changement d’heure saisonnier, en vigueur pour tous les États membres de l’Union européenne, les mêmes jours, depuis 2001. 66

Chapitre 4. Les références nationales

3. Comparaison des échelles de temps et diffusion des références Un service, unique en France situé dans le Laboratoire national de métrologie, est chargé de générer la référence de temps primaire et le temps légal français, et de les mettre à disposition sur tout le territoire métropolitain, pour des applications industrielles, scientifiques, spatiales, militaires et/ou grand public. La mise à disposition d’UTC(OP) par le Laboratoire national de métrologie s’effectue en exploitant deux chaînes redondantes de comparaison de références de fréquence. Un deuxième laboratoire de métrologie français, situé à Besançon, est raccordé directement à UTC(OP) et complète le laboratoire national pour les activités de raccordement dans le domaine tempsfréquence. Il étalonne des instruments pour les mesures de fréquence, d’intervalle de temps, de stabilité de fréquence, à court terme (temps d’intégration de 0,1 s à 100 s) et à long terme (temps d’intégration supérieur à 1  heure), et pour la mesure de bruit de phase. Le réseau de fibres optiques en cours de déploiement, permettra très prochainement de disposer d’un lien fibré dédié entre les deux laboratoires. Différents moyens de mise à disposition des références nationales de temps (UTC(OP), TA(F) et temps légal) pour les utilisateurs sont mis en œuvre pour répondre aux différents besoins d’exactitude de références de temps.

3.1. Transmissions satellitaires Les signaux émis par des systèmes de positionnement par satellites de radionavigation (GNSS pour Global Navigation Satellite System : GPS-américain, GLONASS-russe, BEIDOU-chinois, Galileo-européen) sont comparés et analysés en vues simultanées en référence aux échelles de temps locales (figure  21). Cette méthode est utilisée pour les comparaisons distantes des horloges et établir les échelles TAI et TA(F). Le laboratoire national de métrologie français dispose d’une demi-douzaine de récepteurs de type GPS (Global Positioning System) et de multi-GNSS. Ces méthodes permettent de comparer les échelles de temps avec une exactitude au mieux égale à 1 ns. Par ailleurs, des équipements du laboratoire contribuent au GNSS  : deux récepteurs GNSS sont également des stations de l’IGS (International GNSS Service, Service international de géolocalisation), le temps du système européen EGNOS (European Geostationary Navigation Overlay Service) utilisé notamment pour le transport aérien est raccordé à UTC via UTC(OP) en hébergeant une station du système. Une autre technique de comparaison par satellites géostationnaires de télécommunications (deux voies, ou TWSTFT Two Way Satellite Time and Frequency Transfer), est utilisée pour effectuer des comparaisons d’échelles de temps, par liaison directe, deux à deux (figure 21). 67

Le SI et la métrologie en France

Satellite de télécommunications

TAI & UTC

Circulaire T

BIPM

Satellites de navigation GNSS

vues simultanées

secondes intercalaires UT1 IERS

UTC (k1) labo.k1

TWSTFT

UTC (k2) labo.k2

UTC (OP) LNE-SYRTE

Figure 21 : Méthodes de comparaison des références de temps par satellites. Source : LNE.

Le  satellite sert de relais des signaux micro-ondes échangés entre les deux laboratoires. Les écarts UTC-UTC(OP) sont ainsi établis avec une incertitude inférieure à 2  ns. Deux stations TWSTFT permettent d’émettre et de recevoir en temps réel des signaux micro-ondes. Une dizaine de laboratoires français sont raccordés quotidiennement à UTC(OP), dont la plupart contribuent au TA(F) par ces techniques de vues communes avec une exactitude de quelques ns. La majeure partie des données d’horloges collectées sont transmises au BIPM et constituent la contribution française aux échelles TAI et UTC.

3.2. Liaisons par réseaux fibrés Des réseaux fibrés dédiés à la métrologie temps-fréquence sont en construction en France et en Europe pour permettre la comparaison des signaux de fréquences optiques avec une exactitude bien meilleure qu’avec les liaisons satellitaires. Ils ont déjà permis de comparer des étalons de fréquence avec une incertitude de 10 −17 . L’avènement des étalons de fréquences optiques et la perspective d’un changement de la définition de la seconde au profit d’une fréquence dans le domaine optique associés à ces liens optiques spécifiques concourent à la perspective de progrès dans les comparaisons de références de fréquence et de temps. 68

Chapitre 4. Les références nationales

3.3. Diffusion d’un signal radiofréquence Les deux laboratoires français chargés des références et de leur diffusion surveillent le temps codé et la fréquence de la porteuse (à 162 kHz) du signal radiofréquence émis par l’émetteur d’Allouis (près de Bourges) à partir d’une horloge atomique du commerce. Le Bulletin H comporte des informations résultant de cette surveillance. La position géographique centrale en France de l’émetteur d’Allouis permet de diffuser sur tout le territoire métropolitain des références nationales de temps sous la forme d’informations codées : l’année, le mois, le jour dans le mois, le jour dans la semaine, l’heure, la minute et la seconde. Cet émetteur pilote environ 200 000 horloges en France, utilisées dans des secteurs industriels qui exigent une fiabilité de synchronisation, tels la gestion de la distribution d’électricité, la gestion et la sécurisation des transports aériens, ferroviaires ou routiers, ou encore la gestion de l’éclairage public… L’exactitude en temps de ce signal est de quelques millisecondes ; l’exactitude de fréquence est de 10 −12 .

3.4. Mise à disposition de UTC(OP) et du temps légal pour le grand public Les références de temps sont mises à disposition en continu par le réseau internet en utilisant des serveurs informatiques et le protocole de communication NTP (Network Time Protocol). L’exactitude du temps peut être de quelques 10 ms mais elle peut être très dégradée, selon l’état de fonctionnement du réseau Internet. L’Observatoire de Paris a développé dès 1933 la première horloge parlante au monde. Modernisée, totalement électronique, elle donne l’heure et aussi la date. Le numéro d’appel téléphonique est le 3699. L’exactitude est de l’ordre de 50 ms avec une ligne fixe en France métropolitaine.

4. Autre référence : gravimétrie Depuis 2002, le laboratoire national de métrologie en temps-fréquence a développé un gravimètre étalon et un site de référence de gravimétrie, initialement pour les besoins de mesure de la constante de Planck par l’expérience de la Balance de Kibble (voir chapitre 4 sur la réalisation du kilogramme). L’étalon développé, un gravimètre à atomes froids parvenu au meilleur niveau international avec une incertitude de 20 nm ⋅ s−2 , soit 2 × 10 −9 ⋅ g, repose sur l’utilisation de techniques d’interférométrie atomique avec des atomes froids ; techniques qui ont de nombreux points communs avec les méthodes développées pour les étalons de fréquence atomiques.

69

Le SI et la métrologie en France

II. Longueur Ce domaine concerne les activités relatives à la définition du mètre et à sa mise en pratique. Sont également traitées toutes les mesures dimensionnelles, ainsi que celle des angles.

1. Références primaires Un laser femtoseconde, permettant la mise en pratique de la définition du mètre, est mis en œuvre. Il permet d’obtenir un peigne de fréquence pour étalonner la fréquence de lasers de référence qui sont utilisés au laboratoire pour réaliser des mesures dimensionnelles (objets matériels comme des cales, bagues, cylindres, etc.). Ces lasers de référence participent à des comparaisons internationales pour assurer l’équivalence des étalons au niveau international. La France dispose aussi d’un parc de lasers HeNe asservis sur une transition moléculaire.

2. Références secondaires et moyens de comparaison Divers appareillages permettent de réaliser des mesures de longueur au plus haut niveau d’exactitude ou de développer des étalons pour l’industrie et les laboratoires. Ces appareillages sont raccordés à la mise en pratique de la définition du mètre en France. Les paragraphes suivants présentent certaines techniques et bancs de mesure et les diverses utilisations qui en sont faites.

2.1. Interférométrie

Photo 7 :  Franges d’interférence sur une cale étalon, obtenues avec un interféromètre de Michelson. Source : photo LNE.

70

L’interférométrie est basée sur le phénomène des interférences (voir photo 7) pouvant apparaître lors de la superposition de deux faisceaux lumineux de longueur d’onde λ provenant d’une même source. La très courte longueur d’onde de la lumière visible (entre 400 nm et 700 nm) permet de détecter de faibles variations des différences entre les chemins optiques (distances parcourues) des deux faisceaux monochromatiques. Cette technique permet de mesurer des déplacements très faibles, inférieurs au nanomètre). L’utilisation des interférences lumineuses pour réaliser des mesures de longueur a été menée pour la première fois par Albert A. Michelson en 1881. Celui-ci a développé un interféromètre, dit

Chapitre 4. Les références nationales

Figure 22 :  Principe d’un interféromètre. Source : LNE.

de Michelson (figure  22), constitué d’un séparateur de faisceau (miroir semi-réfléchissant, fixe) et de deux miroirs (l’un fixe, l’autre mobile). Quand la lumière traverse le séparateur de faisceau, la moitié du faisceau initial est réfléchi et l’autre moitié traverse la surface semi-réfléchissante. La portion réfléchie est divisée en deux faisceaux ayant différents chemins optiques (l’un vers le premier miroir, l’autre vers le second). Les faisceaux réfléchis par les miroirs se recombinent au niveau du séparateur de faisceau avant d’arriver au détecteur. Sur le détecteur, ces faisceaux interfèrent entre eux de deux manières : constructive ou destructive. Une interférence constructive consiste en l’addition des amplitudes des deux faisceaux, lorsque ceux-ci arrivent en phase sur le détecteur. Il en résulte une frange lumineuse. Au contraire, une interférence destructive se matérialise par une frange sombre, résultat de l’addition de la crête de l’un des faisceaux, avec le creux du second faisceau, en raison du déphasage des deux faisceaux. Une mesure de longueur peut être réalisée en bougeant le miroir mobile : les franges se déplacent alors sur l’écran car le déphasage change. En comptant le nombre de franges qui défilent et connaissant la longueur d’onde du laser, il est possible de déterminer la distance à laquelle le miroir mobile a bougé.

71

Le SI et la métrologie en France

Un laser dont la longueur d’onde a été déterminée à l’aide d’un peigne de fréquence ou dont la fréquence est asservie sur une transition recommandée peut ensuite être utilisé dans un interféromètre.

2.2. Cales étalons Les cales étalons sont utilisées comme étalons de longueur de référence dans le domaine de la recherche, mais aussi comme l’étalon le plus précis dans l’industrie. Ainsi, la cale étalon est l’un des étalons de longueur les plus utilisés au monde en métrologie dimensionnelle. Les deux méthodes les plus répandues de mesure de cales étalons sont : • l’étalonnage de cales étalon par interférométrie directe. Cette méthode d’étalonnage permet d’atteindre les incertitudes de mesure les plus faibles à ce jour. Elle est utilisée en France. La qualification de « directe » vient du fait que la longueur de l’étalon est directement fonction de la longueur d’onde de la source laser dont on connaît la fréquence ; • l’étalonnage par comparaison. Le principe de mesure d’une cale étalon par comparaison consiste à comparer la cale à mesurer à une autre cale dont la longueur est connue. Deux méthodes comparatives sont utilisées  : un simple capteur qui détermine l’écart entre deux cales, ou bien la mise en œuvre d’une machine et des moyens pour déterminer l’écart (comparaison mécanique, comparaison interférométrique avec ou sans contact, etc.).

2.3. Banc de mesure de rectitude Une rectitude est une ligne continue nominalement rectiligne dont on cherche à évaluer la forme et le défaut de forme. L’évaluation de la rectitude d’un objet passe par la mesure de la distance séparant les deux droites parallèles à la ligne moyenne du profil qui délimitent ce profil (figure 23). La ligne moyenne est déterminée par la méthode des moindres carrés. Ligne dont la rectitude est évaluée

Ligne moyenne du profil Droites parallèles délimitant le profil

Figure 23 :  Principe de l’évaluation d’une rectitude. Source : LNE.

72

Chapitre 4. Les références nationales

L’appareil utilisé au laboratoire permet de mesurer la rugosité d’une surface en déplaçant le long d’une ligne un palpeur suivant une direction parallèle à la surface moyenne à tester. Deux capteurs sont utilisés : • un capteur de déplacement suivant x ; • un capteur de faible amplitude et de grande sensibilité mesurant les déplacements suivant z. La surface étudiée doit être parallèle à la translation du palpeur.

2.4. Télémétrie dans l’air Un télémètre laser est un instrument optique permettant de mesurer la distance d’un objet de manière absolue. L’une des techniques utilisées en télémétrie est la mesure du temps de vol de la lumière entre les deux points dont on souhaite connaitre la distance. Il s’agit de mesurer le temps mis par la lumière pour parcourir la distance aller-retour entre l’émetteur et une cible. Pour cela, il est nécessaire de connaître la vitesse de propagation de l’impulsion optique dans le milieu.

Photo 8 :  Prototype de télémètre développé par le LNE-LCM et installé sur le toit du bâtiment de la rue Gaston Boissier. Source : photo LNE/ Guillaume GRANDIN.

Le laboratoire a mis en place une ligne de mesure (photo 8) entre le toit du bâtiment du LNE (rue Gaston Boissier, Paris 15e) et la tour solaire de l’Observatoire de Meudon. Un pilier en béton a été construit sur le toit et un coin de cube a été installé en haut de la tour, située à 5,6 km du bâtiment du LNE Paris. L’installation est utilisée pour la caractérisation de prototypes à compensation d’indice qui sont développés au laboratoire. Ainsi, un télémètre à deux longueurs d’onde permet de compenser les variations d’indice de l’air (dues à la température, l’hygrométrie, etc.) dans les mesures de grande distance (5 à 10 km), pour obtenir une incertitude finale sur la mesure de distance meilleure que 1 mm.

73

Le SI et la métrologie en France

Plateforme de nano-métrologie Une plateforme est développée en France. Elle a pour but de devenir la référence métrologique nationale pour la caractérisation des nanomatériaux. La plateforme est pensée comme un moyen de raccordement métrologique aux unités du SI, fournissant des protocoles de mesure (aérosols, milieux biologiques, produits de consommation, environnement) et de préparation d’échantillons validés de manière métrologique. Après dix années de développement, l’instrument de référence national pour les mesures dimensionnelles à l’échelle du nanomètre, l’AFM (microscope à force atomique) métrologique, est opérationnel et permet d’établir la traçabilité des mesures de taille de nano-objets aux unités SI. Les instruments nécessaires pour caractériser les nanoparticules sont disponibles, en salle blanche et en milieu contrôlé (température, hygrométrie, vibration…). Ces instruments sont, entre autres : microscope à force atomique (AFM), microscope électronique à balayage combiné à un spectroscope à rayons X à dispersion d’énergie (MEB-EDS), diffusion dynamique de la lumière (DLS), zettamètre, méthode Brunauer, Emmett et Teller (BET), diffraction des rayons X (DRX), Scanning Mobility Particles Sizer (SMPS), Single Particle - Induced Coupled Plasma-Mass Spectroscopy (SP-ICP-MS), couplage flux-force – réfractomètre différentiel – ultraviolet – détecteur multi-angulaire à diffusion de la lumière (A4F-DRI-UV-MALS)… Ces instruments permettent de définir les principaux paramètres d’identification d’un nanoobjet selon la norme ISO/TR 13014 : taille, forme, polydispersité (distribution de taille d’une population de particules), composition chimique, structure cristallographique, état d’agrégation/agglomération, charge en surface, surface spécifique, solubilité/dispersibilité.

74

Chapitre 4. Les références nationales

III. Masse et grandeurs apparentées Un certain nombre des grandeurs dérivées de la masse sont regroupées et constituent le domaine de la masse et des grandeurs apparentées (MGA). Il n’existe pas de classification universelle listant les grandeurs de ce domaine. Certaines ne sont pas exprimées au moyen du kilogramme et sont traditionnellement incluses dans ce domaine notamment car elles peuvent être mesurées en utilisant des grandeurs liées à la masse. C’est par exemple le cas des volumes (exprimés en m3) qui sont souvent mesurés en utilisant la masse volumique d’un fluide. Ainsi dans l’organisation de la métrologie française, les activités suivantes sont rattachées au domaine de la masse et des grandeurs apparentées : • • • • • • • • • • •

la mesure des masses, l’accélérométrie, l’anémométrie, la mesure des forces, la mesure des couples, la débitmétrie, la mesure des masses volumiques, la mesure des pressions, l’acoustique, la viscosimétrie, la mesure des volumes.

1. Réalisation de la définition du kilogramme En France, la réalisation de la définition du kilogramme est effectuée au moyen d’une balance de Kibble (photo 9). La balance mise en œuvre utilise un fléau à suspensions flexibles conçu spécifiquement. À l’une de ses extrémités se trouve une suspension avec une masse de 250 g servant de tare. À l’autre extrémité se trouvent deux suspensions alignées verticalement : une avec la masse à mesurer aux alentours de 500 g et une avec la bobine électrique engendrant la force magnétique nécessaire pour compenser les déséquilibres de masse avec et sans la masse à étalonner. L’ensemble de la balance (fléau et suspensions associées) est déplacé lors de la phase dynamique. Cela évite d’avoir à générer le mouvement au moyen du fléau ou de désolidariser la bobine. Le déplacement est effectué au moyen d’un système de guidage de haute précision utilisant des éléments flexibles actionné par un moteur sans balais. Les mesures de masse sont effectuées sous vide.

Photo 9 :  Balance de Kibble du LNE. Source : photo LNE/Philippe STROPPA.

75

Le SI et la métrologie en France

Dans le cadre des travaux préparatoires à la redéfinition du SI de 2018, la métrologie française a élaboré un schéma de dissémination comprenant trois options pour l’application de la définition du kilogramme, avec des masses réalisées : en alliage de platine (90 %) et d’iridium (10 %), en iridium pur, et en superalliage à base de nickel, Udimet 720. Les deux derniers matériaux ont été sélectionnés pour réaliser les références françaises compatibles avec la balance de Kibble. Le choix des matériaux a été étudié sur plusieurs années notamment au travers de projets internationaux. Plusieurs paramètres ont été pris en compte : dureté, susceptibilité magnétique, comportement lors des passages air-vide, masse volumique, stabilité dans l’air et sous vide ou encore sous gaz neutre… Le schéma de traçabilité français comprend également un groupe de kilogrammes étalons qui permet de vérifier la cohérence des mesures, de disposer d’une référence de masse à tout moment et d’assurer la liaison avec l’ensemble des étalons de masse de référence du BIPM (ERMS, Ensemble of Reference Mass Standards). Outre un kilogramme en iridium pur, ce groupe est composé des prototypes en platine iridié n° 35, 13 et 17 – qui sont des copies du prototype international du kilogramme allouées à la France en 1889. Ceux-ci disposent d’un historique métrologique important qui permet de prévoir leurs évolutions, en particulier le n° 35 qui était la référence nationale française en masse et a participé aux trois vérifications périodiques réalisées par le BIPM.

Photo 10 :  Gravimètre atomique CAG du LNE-SYRTE. Au premier plan, le gravimètre dans ses blindages ; au second plan, le banc optique et l’électronique de contrôle. Les dimensions sont indiquées en cm. Source : photo Observatoire de Paris/SYRTE/ Sébastien MERLET.

130

La réalisation de l’unité de masse au moyen d’une balance de Kibble fait intervenir l’accélération de la pesanteur. Ainsi dès le début du développement de sa balance, la métrologie française a développé une activité en gravimétrie. Le choix ambitieux a été fait de développer un gravimètre « atomique », le CAG (Cold Atom Gravimeter, photo 10), basé sur l’utilisation de techniques d’interférométrie atomique, pour mesurer l’accélération de la pesanteur. Cette technique, très prometteuse, permettait déjà au moment de la redéfinition du kilogramme d’avoir une incertitude sur l’accélération de la pesanteur qui rendait sa contribution négligeable dans le budget d’incertitude total de la balance de Kibble française.

14

0

14

0 70

76

Chapitre 4. Les références nationales

Correction de la poussée de l’air La poussée de l’air s’exerçant sur un corps correspond au poids du volume d’air déplacé. Elle est déterminée à partir de la masse volumique de ce corps et de celle de l’air, en prenant en compte les conditions expérimentales. Par exemple, la correction de poussée de l’air représente 0,15 g pour une masse de 1 kg ayant une masse volumique de 8 000 kg/m3 lorsqu’elle est pesée dans un air dont la masse volumique vaut 1,2 kg/m3. Pour évaluer la poussée de l’air intervenant lors d’une pesée, il est nécessaire de déterminer les masses volumiques de l’objet à peser et des masses de référence, ainsi que celle de l’air. Les masses volumiques de l’objet à peser et des masses de référence peuvent être déterminées par la méthode de la pesée hydrostatique. Dans cette méthode, la masse de l’échantillon et son volume sont mesurés en déterminant la poussée produite sur l’échantillon immergé dans un vase d’eau distillée dont on connaît la masse volumique par une modélisation. Pour obtenir une meilleure incertitude, la plupart des laboratoires de métrologie nationaux utilisent à présent des sphères de silicium comme référence de volume et de masse volumique à la place de l’eau distillée. En effet, les recherches concernant la mesure de la constante d’Avogadro ont conduit au développement et à la caractérisation de sphères de silicium dont la masse volumique est connue avec une très faible incertitude. Le principe de la mesure repose généralement sur deux phases : une pesée de la sphère de référence dans un liquide d’immersion, suivie d’une pesée du solide dont le volume est à déterminer. La masse volumique de l’air peut être calculée soit à partir de la formule dite du CIPM donnée à partir de la pression atmosphérique, la température, l’humidité et la composition de l’air. Cette formule conduit à une incertitude sur la masse volumique de l’air compatible avec la plupart des besoins en métrologie des masses. Pour obtenir une meilleure incertitude, il existe une autre méthode basée sur le pesage de deux artefacts (photo 11) réalisés de sorte à présenter une masse et une superficie très voisines, tout en ayant des volumes très différents. En effectuant une pesée dans l’air et une pesée sous vide de ces deux étalons, il est possible de déduire la masse volumique de l’air.

Photo 11 : Artefacts pour la détermination de la masse volumique de l’air (à gauche : cylindre creux, à droite : tube). Source : photo LNE/Florian BEAUDOUX.

77

Le SI et la métrologie en France

Afin de garantir la traçabilité des mesures découlant des différentes applications de la définition du kilogramme, aux étalons nationaux, le BIPM organise depuis 2019 une comparaison permanente. Dans cette comparaison, les étalons primaires – mesurés par l’application de la définition du kilogramme – des participants sont comparés à des étalons de l’ensemble des étalons de masse de référence du BIPM selon une périodicité définie par le comité consultatif pour la masse et les grandeurs apparentées du CIPM (CCM). Ensuite, partant du kilogramme obtenu par l’application de sa définition, les multiples et sous multiples du kilogramme sont raccordés par la méthode des séries fermées. La méthode consiste à combiner plusieurs masses entre elles et à comparer les groupes obtenus de même valeur nominale, ce qui conduit à un système d’équations linéaires surabondant qui dans la pratique n’est pas compatible et doit être résolu par une technique des moindres carrés. Ce travail qui nécessite beaucoup de comparaisons de masses est aujourd’hui plus facilement réalisable avec des comparateurs de masses entièrement automatisés. La définition est généralement appliquée sous vide – afin de minimiser l’incertitude – à un étalon de masse de référence. Ensuite une chaîne de masses de transfert, raccordées par comparaisons successives à l’étalon de référence, est utilisée. Ces masses de transfert vont de l’étalon de masse de référence aux masses d’usage courant. La comparaison de deux masses est effectuée par double pesée, par substitution dans une balance à bras égaux ou de type mono-plateau. Passé l’étape de l’application de la définition du kilogramme, les pesées, même les plus précises, se font dans l’air et les masses sont soumises à la poussée de l’air (poussée d’Archimède). La masse mesurée lors de la pesée n’est qu’une masse apparente, et il y a lieu de faire une correction (voir encadré).

2. Références pour les grandeurs dérivées de la masse Il existe de nombreuses grandeurs dérivées de la masse. La métrologie française met en œuvre des références pour la plupart d’entreelles afin d’assurer la traçabilité aux utilisateurs. Les lignes qui suivent présentent quelques-unes de ces références.

2.1. Références de forces L’unité de force est le newton (N). La méthode la plus exacte pour réaliser une force fait appel à l’accélération de la pesanteur g s’exerçant sur une masse m, en appliquant la correction de la poussée de l’air, fonction de la masse volumique de l’air a et de celle de la masse r :  a F = m ⋅ g ⋅  1−  .  r 78

Chapitre 4. Les références nationales

Dans une machine de force de référence, la force est engendrée au moyen de masses librement suspendues dans le champ de la pesanteur (figure 24). La force ainsi réalisée est verticale mais, dans la pratique, des forces latérales et des moments de flexion ou de torsion peuvent apparaître. La conception de la machine et sa réalisation s’attachent à minimiser ces efforts parasites.

Figure 24 :  Schématisation de l’étalonnage d’un dynamomètre. En traction Ⓐ ou en compression Ⓑ à partir d’une machine de force de référence. Source : LNE.

Les valeurs des différentes masses m destinées à être suspendues à la machine sont déterminées par étalonnage et toutes les précautions sont prises pour éviter les phénomènes d’usure, d’oxydation ou de pollution de ces masses. L’accélération due à la pesanteur g est mesurée à l’emplacement de la machine de force. La connaissance de m, g et des conditions de poussée de l’air, permet d’accéder à celle de F. Cette force connue appliquée à un dynamomètre (instrument de mesure des forces utilisant la déformation d’un corps d’épreuve) permet son étalonnage. La métrologie française met en œuvre trois bancs de référence de force à masses suspendues de 5 kN, 50 kN et 500 kN qui permettent le raccordement au SI des étalons de référence des laboratoires de métrologie et des industriels. Pour mesurer les forces de valeurs les plus élevées (typiquement au-dessus de 1 MN), des bancs de mesure à pyramide de capteurs (photo 12) ont été développés. Ces bancs composés de trois capteurs assemblés en parallèle utilisent le caractère extensif de la grandeur force qui rend possible l’addition de forces. Généralement, les capteurs sont étalonnés individuellement avec des machines étalons de mesure de force à masses suspendues. La métrologie française met en œuvre un banc à pyramides de références jusqu’à 9 MN.

Photo 12 :  Banc de référence de force à pyramide de capteurs du LNE. Source : photo BNM.

79

Le SI et la métrologie en France

2.2. Références de pression L’unité de pression est le pascal (Pa). Dans les laboratoires nationaux de métrologie, il existe essentiellement deux types d’instruments primaires pour mesurer des pressions statiques : les manomètres à colonne de liquide et les balances de pression à piston tournant. Les manomètres à colonne de liquide fonctionnent d’après le principe de l’hydrostatique. La pression p à mesurer est équilibrée au moyen d’une colonne de liquide de hauteur h et de masse volumique ρ. L’équilibre s’exprime par : p = ρ ⋅ g ⋅h, avec g l’accélération de la pesanteur.

masse

piston

Figure 25 :  Le piston se déplace avec un jeu très faible dans le cylindre et il est animé d’un mouvement de rotation uniforme afin d’éliminer les forces de frottement. Source : LNE.

cylindre

Les balances de pression à piston tournant (figure  25) sont des instruments à équilibre de force. La pression à mesurer appliquée sur une surface définie par un ensemble piston-cylindre, engendre une force verticale ascendante qui est équilibrée par la force de pesanteur exercée par une masse, appliquée sur la tête du piston et soumise à l’accélération de la pesanteur. La pression est déterminée par :  ρ  m ⋅ g ⋅  1− a  ρm   p= , S0 ⋅ 1 + α p + α c ⋅ (t − 20 ) ⋅ (1 + λ ⋅ p )

( (

)

)

avec ρa la masse volumique de l’air (considérée comme nulle en pression absolue), ρm la masse volumique de la masse appliquée sur le piston, S0 la section efficace de l’ensemble piston cylindre à une température de 20  °C et à pression nulle, λ le coefficient de déformation de l’ensemble piston cylindre, α p et α c les coefficients 80

Chapitre 4. Les références nationales

de dilatation linéaires des matériaux du piston et du cylindre, et t la température de l’ensemble piston-cylindre. Cette relation contient des termes correctifs liés au fait que la masse est soumise à la poussée de l’air, et que l’ensemble piston-cylindre se déforme en fonction de la température et de la pression. Afin de réduire les incertitudes avec les références actuelles, il existe un important effort de recherche pour développer de nouveaux types d’étalons de pression basés sur des invariants de la nature. Par exemple au moyen de l’équation de Lorentz et Lorenz en mesurant par réfractométrie l’indice de réfraction d’un gaz tel que l’hélium dont plusieurs propriétés peuvent être calculées ab initio. En France au premier niveau de la chaîne d’étalonnage en pression, les références sont des balances de pression. Les ensembles pistons-cylindres sont connus grâce à des mesures dimensionnelles. Un important travail de recherche a été effectué pour maîtriser les déformations des ensembles pistons-cylindres dont les sections effectives sont modifiées sous l’influence de la pression. À partir de balances de pression, le domaine de mesure couvre actuellement des pressions de 10–8 Pa à 1 GPa. Pour atteindre les faibles valeurs de pressions, en particulier celles proches du vide, des méthodes spécifiques, telles que l’expansion continue, sont mises en œuvre.

Principe de l’expansion continue Pompe à vide

Flux gazeux Incident (q)

P1 Volume 1

(C)

P2 Volume 2

Figure 26 : Principe de mesure par expansion continue. Source : LNE.

La méthode de l’expansion continue consiste à établir un flux gazeux constant entre deux volumes d’une chambre à vide séparés par un orifice caractérisé par sa conductance (figure  26). Cette configuration a pour effet de générer un rapport de pressions Rp = P1 / P2 . La pression de référence P2 est déterminée à partir d’un flux gazeux incident noté q (exprimé en Pa·m3·s–1), de la conductance entre les deux volumes notée C (exprimée en m3·s–1) et du rapport de pressions Rp : q 1 P2 = ⋅ . Rp − 1 C Le flux gazeux est mesuré à l’aide d’un fluxmètre de référence. La conductance et le rapport de pressions peuvent être calculés si l’orifice utilisé est de géométrie simple, tel qu’un diaphragme circulaire.

81

Le SI et la métrologie en France

La méthode de l’expansion continue est utilisée par les laboratoires nationaux de métrologie pour la mesure des pressions absolues inférieures à 10–3 Pa. Dans l’installation permettant la mise en œuvre de la méthode de l’expansion continue en France, la mesure du flux gazeux q est réalisée à l’aide d’un fluxmètre gazeux à pression constante de référence (photo  13), développé spécialement pour ce banc. La conductance est ajustable, sa valeur est déterminée par des mesures, tout comme celle du rapport de pressions.

Photo 13 : Mise en œuvre du principe de l’expansion continue, à l’aide du fluxmètre gazeux à pression constante de référence du LNE. Source : photo LNE/Philippe STROPPA.

De nombreux processus techniques engendrent des pressions variables dans le temps, appelées pressions en régime dynamique. Il est souvent souhaitable mais difficile d’assurer la traçabilité dans ces régimes. En France au premier niveau de la chaîne d’étalonnage se trouve un capteur de pression avec sa chaîne d’acquisition étalonné en régime dynamique. Plusieurs systèmes de génération d’échelons de pression (passage rapide d’un niveau de basse pression à un niveau de haute pression) ont été conçus pour solliciter la réponse dynamique des capteurs en gaz. Il s’agit de « tubes à chocs » et de «  dispositifs à ouverture rapide  ». Ils constituent la base des références nationales dans ce domaine.

Principe du tube à choc Le tube à choc est constitué d’un long tube séparé en deux chambres par une membrane étanche. Les chambres sont portées à des pressions différentes. À l’éclatement de la membrane, une onde de choc prend rapidement naissance et se propage dans la chambre basse pression. L’échelon s’écarte de l’échelon parfait prévu par le modèle théorique de Rankine-Hugoniot par le fait de défauts géométriques et structurels, de différents phénomènes de réflexion d’ondes de choc et de dissipation visqueuses. Membrane

Capteur

Tube basse pression

Tube haute pression

))) Figure 27 : Tube à choc. Source : LNE.

Par principe, le tube à choc est destiné à couvrir les hautes fréquences et le dispositif à ouverture rapide les basses fréquences. Pour assurer la liaison entre ces deux types d’instrumentations, un tube à choc de 23  m qui permet d’atteindre la plage des basses 82

Chapitre 4. Les références nationales

fréquences est mis en œuvre (photo  14). En couvrant le domaine des basses fréquences, le dispositif à ouverture rapide permet d’assurer la traçabilité aux mesures de pression en régime quasi-statique par comparaison avec un manomètre étalonné. Les générateurs de références sont conçus et opérés selon des procédures pour générer des échelons de pression les plus proches de l’échelon parfait. En régime dynamique, l’échelon parfait est pris comme base du calcul de la fonction de transfert du capteur de référence. L’écart au mesurande idéal (échelon parfait) est considéré comme une source d’incertitude dans le bilan d’incertitudes de l’étalonnage complet du capteur de référence.

Photo 14 :  Tube à choc de référence de 23 m du LNE-ENSAM. Source : photo ENSAM.

3. Références de débit Les références de débit mesurent la quantité de fluide qui transite par unité de temps. On définit deux types de débits : le débit massique (en kg/s) et le débit volumique (en m3/s). Il est possible de passer de l’un à l’autre en utilisant la masse volumique du fluide considéré. Selon les fluides et les plages de mesure, au sommet de la chaîne de traçabilité, les laboratoires de la métrologie française mettent en œuvre deux types de méthodes de mesure : la méthode gravimétrique et la méthode volumétrique. La méthode gravimétrique consiste à peser la masse de fluide qui s’est écoulée pendant une durée mesurée. Par principe cette méthode mesure un débit massique. Elle est utilisée par le RNMF pour la mesure de faibles débits de gaz et la mesure de débits d’eau (photo 17). La méthode volumétrique est utilisée de deux façons par le laboratoire. La première consiste à mesurer le temps de transit entre deux positions d’une sphère légèrement surdimensionnée entraînée par le courant d’un fluide dans un tube étalon de volume connu. Elle est utilisée pour la mesure de débits d’hydrocarbures (photo 18). La seconde est la méthode dite PVTt pour la détermination du coefficient de décharge CD de tuyères soniques qui sont utilisées comme étalons de transfert. Ces tuyères sont étalonnées avec de l’air au premier niveau de la chaîne de traçabilité et fournissent la traçabilité pour les mesures de débits de gaz naturel. 83

Le SI et la métrologie en France

La méthode PVTt et les tuyères soniques En France la chaîne de traçabilité de débitmétrie du gaz naturel repose sur l’utilisation de Venturi-tuyères, organes dont l’intérêt est le fonctionnement en régime critique, obtenu lorsque le rapport entre les pressions en amont et en aval est supérieur à une certaine valeur. Tant que ce régime est assuré, la vitesse du gaz au col de la tuyère atteint la vitesse du son et s’y maintient indépendamment des pertes de charges des équipements en aval : le débit est alors uniquement dépendant des pressions et températures en amont du col, et des propriétés physiques du gaz et géométriques de la tuyère. Le banc «  M6  », doté d’une capacité de 2  m3, est l’étalon national permettant l’étalonnage en débit pour des fluides sous pression jusqu’à 60  bar (6  MPa) de ces Venturi-Tuyère, avec une incertitude de l’ordre de 0,1 %. La méthode est dite PVTt car elle repose sur des mesures de pression, volume, température et temps. Une fois ces Venturi-tuyères étalonnées, elles sont utilisables comme étalon de transfert sur des bancs secondaires pour l’étalonnage de tout débitmètre, compteur de gaz.

Photo 15 : Vue en coupe d’une tuyère. Source : photo LADG.

Photo 16 : Banc M6 du LNELADG. Source : photo LADG.

Photo 17 : Références de débit d’eau par méthode gravimétrique du LNE-CETIAT. Source : photo CETIAT.

Photo 18 : Bancs d’étalonnage de débits d’hydrocarbures de la station d’essais du LNE-TRAPIL. Source : photo TRAPIL.

84

Chapitre 4. Les références nationales

IV. Électricité-magnétisme Les grandeurs qui relèvent du domaine « électricité-magnétisme » décrivent les phénomènes électromagnétiques appliqués aux électrons dont les charges électriques qui se déplacent produisent un courant électrique et/ou un rayonnement électromagnétique. Ces  grandeurs caractérisent les moyens de produire l’électricité (champ électrique, champ magnétique, générateur), la manière dont l’énergie électrique est transportée (conduction ou rayonnement, quantité, mobilité, vitesse et direction de déplacement des charges…), le milieu dans lequel les électrons interagissent et sont transportés (conducteurs, semi-conducteurs, isolants…) et les moyens ou milieu de stockage de cette énergie électrique (condensateur, batterie…). Les références nationales, ou étalons électriques, consistent à réaliser l’unité de base, l’ampère, et les nombreuses unités dérivées présentées dans le chapitre  précédent. Aucune indication technique n’est inscrite dans la définition de l’ampère, ce qui laisse aux laboratoires nationaux de métrologie une liberté de choix pour la réalisation de l’unité, leur permettant d’exploiter de futurs développements technologiques.

1. Étalons primaires En France, les étalons primaires pour les mesures électriques sont principalement les mises en pratique de l’ampère, du volt, de l’ohm et du farad. La plupart des grandeurs électriques peuvent en effet être définies à partir de la tension, de la résistance, en ajoutant la capacité pour les impédances. Une traçabilité supplémentaire des mesures à la seconde est nécessaire pour exprimer les caractéristiques temporelles de grandeurs électriques (fréquence et phase du courant, puissance…). Les relations qui permettent de réaliser les étalons proviennent des modélisations des phénomènes physiques mis en jeu. La plus connue est la loi d’Ohm utilisée pour les courants continus ou alternatifs. D’une manière plus générale, les méthodes de réalisation reposent sur les relations de Maxwell, du nom du physicien écossais J.C. Maxwell (1831–1879), qui décrivent les interactions entre les charges électriques ou les dipôles magnétiques et les champs électromagnétiques environnants.

1.1. Réalisation de l’ampère Le laboratoire a travaillé sur la mise en œuvre d’un générateur de courant fondé sur des pompes à électrons en exploitant l’effet tunnel monoélectronique. Cela n’a pas permis de réduire l’incertitude 85

Le SI et la métrologie en France

de réalisation de l’ampère en deçà de 10–6 en relatif. C’est pourquoi, la solution adoptée en France pour construire un étalon primaire d’intensité de courant est l’application de la loi d’Ohm aux étalons primaires de tension et de résistance. En 2016, le laboratoire a réalisé un étalon de courant quantique fondé sur un générateur quantique de courant programmable (PQCG) en appliquant « parfaitement » la loi d’Ohm aux étalons quantiques de tension et de résistance (figure 28) : la tension délivrée par un étalon quantique de tension Josephson programmable, irradié par une onde électromagnétique de fréquence f J, est appliquée aux bornes d’un étalon quantique de résistance de Hall.

et

EJ

EHQ

qu

nti

ua

ll q

Ha

I (A)

Eff

PQCG

Q)

EH

e(

Figure 28 :  Principe de la réalisation d’un générateur étalon quantique de courant (PQCG) au LNE. Source : LNE.

mo Eff no et t éle un ctr nel on iqu e

fJ

f (s-1)

U (V) I = nefJ

Effet Josephson (EJ)

Le courant étalon délivré est alors détecté puis amplifié d’un gain programmable avec une incertitude type relative de l’ordre de 10–8. Ainsi réalisé, l’étalon primaire de l’intensité de courant ne dépend que de e et f J, donc de la charge élémentaire et de la seconde. L’ampère est donc réalisé directement comme exprimé dans la définition :  h   2e f J   = e ⋅f . Ι = J  h   2e2   

1.2. Réalisation du volt En France, la réalisation du volt se fait par la mise en œuvre de l’effet Josephson. La tension délivrée (Un ) par une jonction Josephson est directement proportionnelle à fréquence f J du signal d’irradiation du dispositif quantique, par l’intermédiaire de la charge élémentaire e et de la constante de Planck h : h Un = n ⋅ f J ⋅ . 2e 86

Chapitre 4. Les références nationales

Les jonctions Josephson simples permettant d’atteindre des valeurs de tension limitées, de quelques 100  μV à quelques 1mV , des réseaux de plusieurs milliers de jonctions, assemblées en série sous la forme d’un circuit intégré (photo 19), sont utilisés pour réaliser les étalons de tension électrique. Les étalons de tension Josephson (JVS – Josephson Voltage Standards) utilisés pour la traçabilité sont formés d’environ 14 000 jonctions Josephson SIS (Supraconducteur-Isolant-Supraconducteur) et permettent d’atteindre 10  V.  De plus, des étalons de tension Josephson programmables (PJVS – Programmable Josephson Voltage Standards), constitués de jonctions SNS (Supraconducteurmétal Normal-Supraconducteur), sont utilisés pour automatiser les opérations de raccordement.

Photo 19 : Étalon de tension Josephson programmable, au LNE. Source : photo LNE/ Guillaume GRANDIN.

Effet Josephson Prédit par B.D.  Josephson en 1962 (prix Nobel de physique en 1973) et mesuré par S.  Shapiro en 1963, l’effet Josephson apparaît dans une jonction (figure  29) constituée de deux supraconducteurs (S), c’est-à-dire des conducteurs de résistance nulle, séparés par une couche mince (quelques dizaines de nanomètres) de matériau isolant (I) ou métal normal non supraconducteur (N). Une telle jonction est appelée « jonction Josephson ».

SS IDC + IAC(t)

I

S

matériau supraconducteur

I

matériau isolant

S

U

Figure 29 : Schéma d’une jonction Josephson de type SIS. Source : LNE.

Effet Josephson continu Lorsqu’une jonction Josephson est placée à une température inférieure à la température critique de supraconductivité du matériau, un courant supraconducteur peut traverser la jonction. Ce courant est porté par les électrons groupés alors en paires de Cooper qui traversent l’isolant par effet tunnel. Sous l’effet d’une tension continue U, ce courant supraconducteur (ou supercourant) oscille à la fréquence f0 qui est fonction de la valeur de la tension appliquée U selon la relation : 2e f0 = U × , où e est la charge élémentaire et h est la constante de Planck. h



87

Le SI et la métrologie en France



Effet Josephson alternatif Si la même jonction Josephson est soumise à un rayonnement électromagnétique de fréquence f J (micro-onde), le courant supraconducteur oscillant qui apparaît dans la jonction, se synchronise sur cette fréquence f J et des marches de tension continue apparaissent alors aux bornes de la jonction. Ce sont les marches de Shapiro, visibles sur la caractéristique courant-tension de la jonction (figure 30).

I

hf 2e

hf 2e

0

hf 2e

U1

U2

U3

U

Figure 30 : Caractéristique courant-tension d’une jonction lorsqu’elle est soumise à un rayonnement électromagnétique micro-onde. Source : LNE.

Les valeurs Un de ces marches de tension sont quantifiées selon un nombre entier (n) de h quantum de flux ( ), inverse de la constante de Josephson KJ : 2e n ⋅ fJ 2e Un = avec K J = . h KJ La jonction agit alors comme un convertisseur fréquence-tension. Depuis les années 1980, les tensions générées par des jonctions constituées de divers matériaux ont été mesurées. L’universalité de l’effet Josephson a ainsi été démontrée avec une incertitude relative de l’ordre de 10 −16 . C’est pourquoi l’effet Josephson alternatif est exploité en métrologie pour générer des tensions fixes, stables et très reproductibles, et pour la mise en pratique du volt.

Les conditions d’obtention de l’effet Josephson nécessitent de placer les jonctions dans un cryostat à la température de l’hélium liquide, soit au-dessous de la température critique des matériaux

88

Chapitre 4. Les références nationales

supraconducteurs utilisés. Les jonctions sont à la fois polarisées par un courant continu et soumises à un rayonnement micro-onde (70 GHz). La fréquence de ce rayonnement est stabilisée sur le signal d’une horloge au rubidium (10 MHz) raccordé à la référence nationale de fréquence. Par définition, la stabilité de l’étalon de tension dépend uniquement de celle de la fréquence micro-onde d’irradiation, qui est très inférieure à 10 −12 . Ce type d’étalon de tension était jusqu’au 20 mai 2019 une représentation du volt car il était lié à la valeur conventionnelle de 1990 de la constante de Josephson K J . Depuis cette date, ces étalons sont conformes à la mise en pratique recommandée par le CCEM en 2018 et réalisent directement la définition du volt. Ils sont donc de véritables étalons primaires de tension. L’incertitude de réalisation du volt avec les réseaux de jonctions Josephson est de l’ordre de 10 −9 en valeur relative et les comparaisons internationales d’étalons de 10  V ont conduit à un accord entre les laboratoires nationaux de métrologie de l’ordre de 10 −10 en valeur relative.

1.3. Réalisation de l’ohm Comme pour la réalisation du volt, à partir du 20 mai 2019, les étalons quantiques de résistance, précédemment utilisés pour représenter l’ohm et effectuer les étalonnages de résistance, sont véritablement devenus les étalons primaires. En accord avec une des méthodes proposées par le CCEM en 2018, le laboratoire français exploite l’effet Hall quantique (EHQ) pour mettre en pratique l’ohm. Les étalons quantiques de résistance sont réalisés avec une incertitude de 10 −9 en valeur relative. Ces étalons quantiques sont constitués de barres de Hall fabriquées à partir d’hétérostructures GaAs/AlGaAs. Pour créer l’effet Hall quantique, les barres de Hall sont insérées dans un système cryomagnétique (photo 20), permettant d’atteindre une température très basse (inférieure à 1,5 K) et de créer une forte induction magnétique (jusqu’à 14  T avec une bobine supraconductrice à 4,2  K). Seule la R valeur de la résistance de Hall (RH ) du plateau K , à environ 13 kΩ, 2 est parfaitement quantifiée avec une incertitude relative de 10 −9 . À l’instar des réseaux de jonctions Josephson, des réseaux de Hall quantiques (QHARS – Quantum Hall Array Resistance Standards) ont été étudiés dans les années 2000 pour augmenter le nombre de valeurs de résistance disponibles dans une gamme s’étendant de 100 Ω à 1,29 MΩ. Ces nouveaux étalons sont prometteurs car ils ont démontré des états de quantification parfaite avec une incertitude de quelques 10 –9 en valeur relative, et ont l’intérêt de pouvoir raccourcir la chaîne de comparaison des références de résistance et ainsi d’améliorer les incertitudes d’étalonnage.

Photo 20 :  Étalon quantique de résistance (barre de Hall) en position de mesure, au LNE. Source : photo LNE/ Guillaume GRANDIN.

89

Le SI et la métrologie en France

Effet Hall quantique De façon analogue à l’effet Hall classique, lorsqu’un courant Ι traverse un conducteur soumis perpendiculairement à une induction magnétique (B), il apparaît une tension transverse UH sur le conducteur (figure 31). Mais, lorsqu’un conducteur bidimensionnel est soumis à un fort champ magnétique et à très basse température, un phénomène de quantification de la résistance de Hall se produit. Le rapport entre UH et Ι définit cette résistance de Hall h quantifiée dont la valeur est dans un rapport entier du quantum de résistance ( 2 ) alors e que la tension longitudinale (U xx ) s’annule : RH =

1 h × (où n est un entier). n e2

Des gaz d’électrons bidimensionnels peuvent être réalisés sous forme de barres de Hall avec des matériaux semi-conducteurs : MOSFET au silicium ou hétérostructure de matériaux III-V ou II-VIII (ex. GaAs/AlGaAs).

UH

m

B

40



1000 µm

I

Uxx

Figure 31 : Schéma d’une barre de Hall. Source : LNE.

Le phénomène de quantification de la résistance, s’observe en faisant varier l’induction magnétique B appliquée et dépend de la nature du matériau (figure 32). Il a été découvert par l’allemand Klaus von Klitzing en 1980 (prix Nobel de physique de 1985 pour cette découverte) et le quantum de résistance a été dénommé « constante de von Klitzing », symbole RK . Dans les années qui ont suivi, les laboratoires nationaux de métrologie ont mesuré RK et ont évalué la reproductibilité de l’effet. L’universalité (même valeur pour différents matériaux conducteurs) et la reproductibilité de l’effet ont pu être vérifiées avec des incertitudes relatives inférieures à 10 −10 . RK I2

RH(Ω)

Rxx(Ω)

RKI3 RK I4

R xx