253 80 7MB
Italian Pages 256/257 [257] Year 2013
Il tempo è atomico
Davide Calonico Riccardo Oldani
Il tempo è atomico Breve storia della misura del tempo
EDITORE ULRICO HOEPLI MILANO
Copyright © Ulrico Hoepli Editore S.p.A. 2013 via Hoepli 5, 20121 Milano (Italy) tel. +39 02 864871 – fax +39 02 8052886 e-mail [email protected]
www.hoepli.it Tutti i diritti sono riservati a norma di legge e a norma delle convenzioni internazionali Le fotocopie per uso personale del lettore possono essere effettuate nei limiti del 15% di ciascun volume/fascicolo di periodico dietro pagamento alla SIAE del compenso previsto dall’art. 68, commi 4 e 5, della legge 22 aprile 1941 n. 633. Le fotocopie effettuate per finalità di carattere professionale, economico o commerciale o comunque per uso diverso da quello personale possono essere effettuate a seguito di specifica autorizzazione rilasciata da CLEARedi, Centro Licenze e Autorizzazioni per le Riproduzioni Editoriali, Corso di Porta Romana 108, 20122 Milano, e-mail [email protected] e sito web www.clearedi.org.
ISBN 978-88-203-7573-7
Progetto editoriale e realizzazione: Maurizio Vedovati – Servizi editoriali ([email protected]) Redazione: Antonio Zoppetti Impaginazione e copertina: Sara Taglialegne
Sommario
Introduzione
1
Capitolo 1 I calendari
13
Capitolo 2 Gli orologi
73
Capitolo 3 La disseminazione
129
Capitolo 4 Orologi per la scienza
189
Gli autori
241
Indice analitico
243
Ad Anna e Teresa che danno senso al tempo senza misurarlo
Introduzione
La misura del tempo ha un ruolo fondamentale nel mondo contemporaneo e ha implicazioni di ampia portata in ambito civile, scientifico e tecnologico-produttivo. La decisione di scrivere un libro sul tema risponde allo scopo di descrivere lo stato dell’arte di una disciplina antichissima, ma sempre viva e in evoluzione, spesso rivoluzionaria. Al tempo stesso, il libro intende valorizzare il ruolo degli orologi atomici oggi. L’idea è di unire un quadro contestualizzato nella storia dei progressi della ricerca nell’ambito della misura del tempo a contenuti ben documentati dal punto di vista tecnico-scientifico e alle applicazioni pratiche e tecnologiche della scienza in questo ambito. Rispetto a quanto già pubblicato in passato e disponibile oggi per gli interessati alla materia, un nuovo libro sulla misura del tempo ha due ragioni fondamentali. Innanzitutto, abbiamo voluto descrivere le molte novità che animano oggi questa disciplina, come gli orologi ottici, i pettini ottici, il raffreddamento laser, il sistema di navigazione satellitare europeo Galileo alternativo al GPS, gli studi sulla
Il tempo è atomico
velocità dei neutrini, o sui fondamenti della relatività e sulla stabilità delle costanti fondamentali, la radioastronomia. La seconda ragione riguarda il fatto che la maggior parte dei testi disponibili tratta soprattutto le implicazioni “filosofiche” della misura del tempo e i grandi temi scientifici legati al tempo (due su tutti: l’origine del tempo e la Relatività Generale di Einstein). Pochi invece hanno un’ispirazione più tecnologico-scientifica (a qualsiasi livello, da quello divulgativo a quello specialistico), che descriva per esempio gli orologi atomici, le applicazioni contemporanee, oppure i test sperimentali delle teorie fisiche fondamentali realizzati con orologi. Con questo spirito abbiamo scritto il libro, cercando il giusto equilibrio tra una divulgazione ampia di concetti su cui si basa una parte importante del nostro mondo contemporaneo e il desiderio di descrivere in modo semplice, ma non banale, qualche aspetto tecnico e scientifico della misura del tempo. Fin dalla notte dei tempi l’uomo ha cercato nella natura il ritmo adatto per misurare lo scorrere del tempo. È un’esigenza istintiva, il nostro stesso organismo funziona secondo un ciclo circadiano, cioè di 24 ore, in cui i momenti di attività più intensi coincidono con le ore del giorno, mentre quelli di riposo corrispondono alla notte. Misurare il tempo è un’esigenza connaturata nel nostro stesso modo di essere e non c’è da stupirsi, quindi, che sia divenuta una scienza complessa, trattata in un’infinità di libri. La maggior parte dei testi che affrontano il tema lo fanno da un punto di vista tecnico, con descrizioni minuziose di come funzionano gli strumenti di misurazione. Oppure hanno l’impostazione di saggi – più spesso filosofici o psicologici – in cui sulla descrizione tecnica prevalgono gli aspetti soggettivi della nostra percezione personale del tempo.
2
Introduzione
Quasi nessuno finora si è cimentato in un impegno diverso: quello di analizzare con un taglio divulgativo come siano cambiate la scienza e la tecnologia della misura del tempo nelle varie epoche storiche e di valutare quale impatto abbiano avuto (e abbiano tuttora) sulla società e sul vivere quotidiano di milioni, anzi di miliardi di persone. Questo è quanto ci proponiamo di fare, in forma sintetica e divulgativa. Si tratta di una prospettiva ricca di risvolti inaspettati e interessanti. Come si arrivò, per esempio, all’introduzione del calendario giuliano nel 45 a.C.? E quali cambiamenti determinò questa innovazione, non solo per il computo del tempo, ma anche per la vita di tutti quanti? E che cosa si può dire dell’adozione del calendario gregoriano, quello che usiamo tutt’oggi, entrato in uso nel 1582 nei Paesi cattolici e poi, a poco a poco, in tutto il mondo, in un processo completatosi in Europa soltanto nel 1923 con l’adesione della Grecia? Oggi siamo abituati a vivere in un mondo in cui la data del giorno è uguale per tutti, ma cosa significava orientarsi nel tempo e nella storia in un’epoca in cui ogni città aveva il suo calendario? In altre parole: in che modo l’introduzione di un calendario, avvenuta ormai 430 anni fa, si ripercuote ancora oggi sul nostro vivere quotidiano? La scienza e la tecnologia richiedono continui miglioramenti, correzioni di rotta, introduzioni di nuove tecniche, ricerca di sempre maggiore precisione che, poi, finiscono per determinare anche una trasformazione del nostro stile di vita. È in quel momento, quando il nostro mondo cambia grazie a una particolare innovazione, che il progresso si manifesta, come se la scoperta fosse arrivata di colpo, anche se in realtà è stata il frutto di un processo lungo, continuo e silenzioso. Per esempio, gli antichi Romani, e per lungo tempo tutto il mondo cristiano, non indicarono, come facciamo noi, i giorni con una data (il primo marzo oppure il 25 dicembre): per loro i
3
Il tempo è atomico
punti di riferimento in un mese erano il primo giorno, cioè le calende (da cui il termine calendario), il quinto o il settimo giorno, cioè le none, e il tredicesimo o quindicesimo giorno, cioè le idi. Il 25 settembre, per fare un solo esempio, non è mai esistito per i Romani; era invece il “settimo giorno prima delle calende di ottobre”. L’abitudine di segnare la data sul calendario comparve soltanto secoli dopo. Oggi non sapremmo nemmeno come indicare un appuntamento senza avere a disposizione il nostro sistema di datazione. Eppure è una conquista relativamente recente: per millenni l’umanità è progredita orientandosi nel presente e nella storia con un sistema completamente diverso da quello che usiamo noi oggi. Ripercorrere le grandi conquiste e le innovazioni della misurazione del tempo risponde a un’esigenza simile a quella affermata, agli inizi del XX secolo in ambito storiografico, dall’École des Annales francese. Questa corrente di studi, fondata da studiosi come Marc Bloch e Lucien Febvre, si concentrò soprattutto sul Medioevo, epoca vista fino ad allora dalla storiografia classica come un profondo buco nero, povero di fatti e di eventi. La reinterpretazione di quel periodo proposta dagli studiosi de Les Annales, basata su documenti di vita quotidiana come i libri contabili dei conventi, gli stati di nascita e gli atti di compravendita, rivelò una realtà ben diversa: una società bloccata ma dinamica, in cui i servi della gleba vivevano sì una vita prigioniera dei campi e dei loro signori, ma dalla quale comunque cercavano con tutti gli sforzi di sottrarsi e nella quale cercavano in tutti i modi di sopravvivere, sfuggendo a guerre, malattie o carestie e tentando, per quanto fosse loro possibile, di rendere più sopportabili le loro condizioni. Anche le tecniche di misurazione del tempo possono essere descritte secondo una nuova prospettiva, che tenga conto
4
Introduzione
dell’impatto che le innovazioni ebbero sulla vita dei contemporanei, e che continuano ad avere ancora oggi. Un intento che nel libro si sviluppa in quattro capitoli, tutti connessi tra loro da un rigoroso filo logico e cronologico. L’evoluzione di questa scienza è andata di pari passo con le necessità dettate dalla tecnologia, da un lato, e dalla società dall’altro. Inizialmente, il calcolo del tempo seguiva i ritmi biologici: gli individui avevano bisogno di orientarsi per sommi capi durante la giornata, soprattutto per evitare di essere sorpresi dall’oscurità in luoghi poco sicuri. Con l’affermarsi dell’agricoltura diventò importante comprendere e anticipare il susseguirsi delle stagioni e presero così forma i primi calendari, basati sulle fasi solari o su quelle lunari. E i calendari, come abbiamo visto, richiesero un lungo sforzo, niente affatto semplice, per essere definiti con precisione e condivisi in tutto il mondo. Tutto questo è spiegato nella prima parte del libro. Per millenni all’uomo bastò conoscere i ritmi lenti da cui dipendevano i tempi della semina e dei raccolti, senza una necessità particolare di scandire la giornata in ore, minuti e secondi. Il bisogno di una suddivisione “minuta” del tempo si fece più pressante con la comparsa dell’industria, con l’organizzazione sempre più meticolosa del lavoro e anche con l’affermarsi del metodo scientifico, che reclamava un calcolo preciso del tempo per rendere replicabili gli esperimenti e per fissare in modo inequivocabile le osservazioni astronomiche e naturalistiche. Arrivare al calcolo preciso delle ore e dei secondi fu ancor più fondamentale con l’evolversi dei sistemi di trasporto veloci, come carrozze, treni e navi. Chi viaggiava non si accontentava più di un computo locale del tempo, limitato alla città dove risiedeva o alla campagna dove coltivava i campi. Doveva sapere quando partire da un luogo e quando sarebbe arrivato in un altro.
5
Il tempo è atomico
Ecco quindi che diventò sempre più incalzante la necessità di strumenti in grado di definire con precisione i minuti e poi i secondi. Di questi argomenti si parla nella seconda parte del libro. L’avvento dell’era delle telecomunicazioni, dal telefono alla televisione, dalla distribuzione dell’energia elettrica a Internet, richiese poi un passo ulteriore. Non bastava più misurare il tempo con la precisione dei decimi, dei centesimi e dei millesimi di secondo, ma serviva anche la sincronizzazione. Il mondo doveva essere disseminato di strumenti di misurazione in grado di funzionare tutti con la stessa precisione e in totale simultaneità. Oggi, la sfida è ottenere questa disseminazione sfruttando i satelliti e cercando negli atomi di determinati elementi un ritmo naturale, regolare e infallibile. Gli orologi al cesio sono capaci di una precisione mai vista, con un errore di un secondo ogni 60 milioni di anni. Della disseminazione e delle tecnologie collegate si parla nella terza parte del libro. Senza il progresso nella sincronizzazione del tempo, oggi non potremmo avere comunicazioni digitali efficienti. La trasmissione di sequenze binarie di “1” e “0”, con velocità di gigabit al secondo, significa sincronizzare i dispositivi che trasmettono e ricevono come minimo al nanosecondo. Ma si può pensare anche ai nostri calcolatori: per sfruttare memorie che si possono scrivere e leggere in pochi nanosecondi, occorre che i milioni di operazioni che un computer compie siano sincronizzati da un “clock” che li organizzi almeno a livello del nanosecondo in ogni bus o chip. Il libro non si limita a una mera elencazione di metodi tecnici, di volta in volta scoperti e affinati dall’uomo. La scienza ha acquisito una sempre maggiore precisione nel calcolo del tempo, ma parallelamente, il controllo del tempo è diventato anche un fatto politico.
6
Introduzione
Un esempio tipico di questo fatto è la già accennata introduzione del calendario giuliano. L’anno dei Romani era di 10 mesi e di 355 giorni e non coincideva perfettamente con l’anno solare. Per far quadrare i conti si prese l’abitudine di inserire di tanto in tanto un mese “intercalare”. Erano i pontefici a stabilire in quale anno e in quale modo introdurre questo mese supplementare e ben presto cominciarono ad approfittare di questa loro prerogativa per fini ben diversi dalla misurazione precisa del tempo. Si sceglieva l’anno che avrebbe avuto il mese intercalare in base ai consoli che in quel momento reggevano Roma: se erano graditi ai pontefici si prolungava il loro periodo di governo, se invece erano sgraditi, il mese intercalare non veniva applicato. Fu Giulio Cesare a correggere il calendario romano, portandolo a 365 giorni, con un anno bisestile di 366 giorni ogni quattro anni. Per introdurlo, emendando tutti gli errori e gli sfasamenti precedenti, fu necessario un anno iniziale di ben 445 giorni, il 46 a.C., detto anche “l’anno della confusione”. Cesare allora deteneva contemporaneamente le cariche di dittatore e di console, e la sua intenzione era, molto probabilmente, di trasformare la dittatura perpetua in una monarchia, ponendo fine alla secolare tradizione repubblicana di Roma. Un anno interminabile, più lungo di 80 giorni rispetto agli altri, aveva quindi, senza alcun dubbio, anche un significato politico: quello di trasmettere al popolo l’abitudine al governo di Cesare e anche l’idea che il dittatore poteva disporre a suo piacimento del tempo, come fosse una sua proprietà. Secoli dopo, il passaggio al calendario gregoriano, nel 1582, introdusse un’ulteriore innovazione, con altre conseguenze politiche. L’Inghilterra, per esempio, Paese scismatico, lo adottò solo nel 1752, quando la sua entrata in vigore richiese la cancellazione di ben 11 giorni, con un salto diretto da mercoledì 2 settembre a giovedì 14 settembre. In Svezia, dove si procedette a
7
Il tempo è atomico
una simile riforma agli inizi del Settecento, si pensò di recuperare i giorni in eccesso nel calendario eliminando un certo numero di anni bisestili. Ma poi ci si dimenticò di farlo, generando un tale pasticcio che si rese necessaria la reintroduzione del calendario giuliano. Questi stravolgimenti, in un’epoca dove un giorno in più o uno in meno non voleva dire un granché, visti i ritmi lenti del lavoro e degli affari, non produssero un grande contraccolpo sulla società dell’epoca. Ma pensate alle conseguenze che avrebbero oggi, in un periodo storico in cui anche il solo passaggio dal 1999 al 2000 ha gettato il mondo in allarme, con lo spettro del “millennium bug” che avrebbe potuto mandare in tilt il sistema informatico mondiale. Di esempi simili a quelli appena fatti, legati alle innovazioni nel calcolo del tempo, se ne possono citare tantissimi. Li introdurremo per accompagnare la descrizione dei progressi scientifici. Per rendere un’ulteriore idea della complessità della materia, basti pensare che anche oggi si adottano periodi intercalari per aggiustare i calendari all’effettivo fluire del tempo. Non si tratta più di mesi, ma di secondi, che servono ad adeguare il cosiddetto tempo coordinato universale (UTC), il tempo civile su cui si basano tutte le attività del pianeta, al tempo atomico internazionale (TAI), che è invece una media ponderata dei segnali di numerosi orologi atomici disseminati per il mondo. Poiché l’UTC è in costante ritardo rispetto al TAI, si è deciso di mantenere lo scarto tra i due tempi nei limiti di un secondo. Per questo motivo è necessario applicare di tanto in tanto un secondo intercalare. Questo ci spiega come ancora oggi il governo “politico” del tempo non corrisponda con il suo esatto fluire astronomico. La scienza ha ormai sviluppato tecniche di misurazione di gran lunga più precise rispetto alle convenzioni adottate a livello globale
8
Introduzione
per definire che ora sia in ogni singolo punto del pianeta. Eppure, ancora non abbandoniamo il vecchio sistema per affidarci completamente al rigore asettico degli orologi atomici. La politica, anche oggi, vuole mantenere il primato sul controllo di una misura che non è soltanto un valore fisico, ma ha un profondo significato simbolico per l’umanità. Oggi, nulla potrebbe più funzionare senza una precisa, rigorosa e disseminata tecnologia della misurazione del tempo. Da questa scienza derivano applicazioni e strumenti che condizionano ogni momento della nostra vita, in un modo così pervasivo che non potremmo più farne a meno. Il funzionamento di computer o di GPS, delle telecomunicazioni o della distribuzione dell’elettricità dipende intimamente da una corretta misurazione, senza la quale il nostro attuale stile di vita sarebbe impossibile. Per fare un esempio, gli orologi atomici sono il cuore del sistema di navigazione satellitare GPS. I ricevitori GPS offrono a noi tutti la possibilità di una precisa localizzazione geografica a terra: per ottenerla, elaborano misure sincronizzate del segnale di tempo diffuso dagli orologi atomici al cesio a bordo dei satelliti GPS. Solo l’uso di orologi atomici permette una corretta localizzazione geografica: nessun altro orologio permetterebbe questa applicazione, oggi così diffusa. Nella terza parte del volume si trova un’ampia descrizione dei sistemi di navigazione satellitare, sicuramente oggi l’applicazione più interessante degli orologi atomici. Infine, uno sguardo al futuro. Il progresso di domani dipende strettamente dalle scoperte o dalle conferme scientifiche che riusciamo a realizzare oggi. Ma tutto il lavoro di verifica scientifica degli ultimi secoli è basato su una corretta misura del tempo. Il metodo scientifico ha potuto affermarsi sulla base del principio della riproducibilità degli esperimenti, che è intimamente legata alle tecniche di misurazione del tempo.
9
Il tempo è atomico
La teoria della relatività di Einstein e la sua concezione dello spazio-tempo hanno avuto conferme indirette soprattutto grazie al miglioramento della precisione degli orologi atomici, grazie ai quali si è potuto perfino dimostrare come, riducendosi la forza di gravità, il tempo scorra più lentamente. Tra i primi esperimenti troviamo la verifica di come, allontanandoci dalla Terra e dal suo campo gravitazionale, il tempo segnato da un orologio appare dilatato. Alla fine degli anni Settanta, gli orologi atomici avevano già una precisione sufficiente per mostrare la dilatazione dei tempi per coppie di orologi che si trovassero uno a Terra e uno in alta atmosfera. Oggi, possiamo misurare questa differenza per dislivelli di poche decine di centimetri. Gli orologi atomici, così, sono diventati anche ottimi strumenti per misure di geodesia terrestre, da affiancare alle misure dei satelliti, che individuano le anomalie gravimetriche del nostro pianeta. Il ruolo degli orologi non si ferma a questo: sottopongono la Relatività Generale a test che ne verificano le fondamenta stesse, non solo gli effetti. Ne è un esempio la verifica se il campo di gravità terrestre agisca allo stesso modo sul tempo misurato con orologi che funzionano con atomi diversi. Un postulato fondamentale della teoria afferma che la gravità è uguale per ogni corpo, sia esso una piuma o un missile, un atomo di cesio o uno di mercurio. Finora, test con una decina di specie atomiche diverse hanno dato ragione alla relatività con una precisione sempre più stringente. E ancora, gli orologi atomici sono oggi l’unico esperimento di laboratorio diverso dai grandi acceleratori di particelle in grado di verificare le teorie oltre il modello standard delle particelle, proposto per unificare la meccanica quantistica e la Relatività Generale, come le teorie di stringa o di supersimmetria. Gli esperimenti con gli orologi cercano di rispondere a una domanda ben preci-
10
Introduzione
sa: le costanti fondamentali della natura, sono davvero costanti? Il modello standard si fonda su questa stabilità, mentre le teorie di grande unificazione postulano quasi tutte una violazione. Grazie alla precisione attuale, gli orologi atomici hanno misurato la stabilità nel tempo di alcune costanti fondamentali, il che ha permesso di precisare meglio quali siano le teorie candidate a descrivere in modo più preciso l’unificazione delle interazioni. Altre grandi risposte che la scienza attende, non ultima l’effettiva misurazione della velocità dei neutrini, dipendono dalla precisione degli orologi atomici. La scienza della misurazione del tempo continua quindi a progredire, a proporre nuove soluzioni e a tracciare la rotta per novità tecnologiche che potrebbero in un futuro, prossimo o lontano, rivoluzionare ancora una volta il nostro modo di vivere. È questo l’argomento tracciato nella quarta e ultima parte del libro.
11
1.
I calendari
This thing all things devours: Birds, beasts, trees, flowers; Gnaws iron, bites steel; Grinds hard stones to meal; Slays king, ruins town, And beats high mountain down. The answer is: “time”. Questa cosa ogni cosa divora, ciò che ha vita, la fauna, la flora; i re abbatte e così le città, rode il ferro, la calce già dura; e dei monti farà pianura. La risposta è: il tempo. da Lo Hobbit, di J.R.R. Tolkien
Il tempo è atomico
Le “scandalose” elezioni dell’Oxfordshire Il tempo è qualcosa che sfugge. Da sempre l’uomo cerca di controllarlo, senza tuttavia riuscirci. L’unica cosa che finora è stato in grado di fare è di misurarlo con estrema precisione. Ma non è mai riuscito a modificarne il corso, né mai ci riuscirà. Eppure il controllo del tempo è così importante che sempre, nella storia, chi ha posseduto le tecniche e le conoscenze per calcolarlo è stato depositario di un grande potere. Tanto nell’antichità più remota – quando solo gli astronomi conoscevano i segreti per prevedere il susseguirsi delle stagioni e dei fenomeni celesti – quanto in epoche più recenti. Lo dimostra, tra i tanti, il curioso episodio delle elezioni inglesi dell’Oxfordshire, nel 1754, in un periodo storico in cui la precisione dei calendari adottati era già molto buona, così come quella degli orologi, e non si pensava che la computazione del tempo potesse riservare spazio per ulteriori scoperte e sorprese. Le campagne elettorali sono da sempre un’arena in cui ogni parte in gioco tira fuori il peggio di sé. Quelle dell’Oxfordshire, però, superarono ogni limite, almeno per la sensibilità britannica (in Italia ci siamo abituati a ben di peggio). In quell’anno, la contea inglese, che era anche un importante collegio elettorale, fu teatro di una fondamentale tornata nell’ambito delle più ampie votazioni generali per il rinnovo del Parlamento britannico. Dal confronto dovevano uscire due rappresentanti alla Camera dei Comuni. La posta in gioco era importante e vide la discesa in campo di tutti i potenti dell’epoca. L’agone proponeva da un lato il partito dei Whig, al governo già da molti decenni, sulla scia della politica di pace avviata da Sir Thomas Walpole, considerato il primo Prime Minister della storia britannica. L’altro schieramento era quello dei Tory, che si autodefinivano i portatori dei nuovi interessi dell’Oxfordshire, legati alla rampante borghesia dei commerci e della nascente industria.
14
I calendari
Le elezioni furono l’occasione per tutte le peggiori manifestazioni che si possano immaginare in un confronto politico: slealtà, corruzione, spese fuori controllo e nessuna esclusione di colpi nel tentativo di mettere in cattiva luce la parte avversa. Per fare un esempio, i Tory sperperarono oltre 20.000 sterline dell’epoca, pari a circa due milioni e mezzo di sterline attuali (oltre 3 milioni di euro, una cifra esorbitante),1 in parte ricavati da una sottoscrizione pubblica. I Whig, invece, poterono contare su un finanziamento di 7.000 sterline promesso direttamente dal re Giorgio II.2 Ma ciò che fece scalpore, all’epoca, ancor più del denaro investito, fu la ferocia del confronto, senza esclusione di colpi. Uscirono vincitori due esponenti Whig, il visconte Thomas Parker e Sir Edward Turner, che però avevano avuto meno voti degli avversari Tory, il visconte Philip Wenman e Sir James Dashwood. L’ufficiale che sovrintendeva alla conta dei suffragi (che in totale furono 7.856 su una popolazione di circa 100.000 persone) non se la sentì di dichiarare un vincitore: rimandò la decisione alla Camera dei Comuni che, dopo oltre 6 mesi di valutazioni, assegnò la vittoria ai due Whig. Esito non sorprendente, visto che la maggior parte dei 40 parlamentari chiamati a esprimere un giudizio erano della stessa parte politica dei vincitori. Uno degli argomenti più utilizzati dai Tory per attaccare i loro avversari fu il cambiamento del calendario. Nel 1750 i Whig erano infatti stati i promotori del “Calendar Act”, la legge che sancì la definitiva adozione nel Regno Unito del calendario gregoriano, già in vigore da quasi due secoli nella maggioranza de1. Valutazioni fornite dallo studio: Patsy Richards, Inflation: the value of the pound 1750-2001, Economic Policy & Statistic Section, House of Common Library, 11 luglio 2002. In base alle cifre riportate, nel 1754 la sterlina aveva un potere d’acquisto 120 volte superiore rispetto al valore della moneta nel 2001. 2. Le cifre dei finanziamenti a Tory e Whig sono riportate sul sito ufficiale della storia del Parlamento britannico, alla pagina www.historyofparliamentonline.org/volume/1754-1790/ constituencies/oxfordshire.
15
Il tempo è atomico
gli stati europei. Tra i promotori di quella norma figurava anche il padre di uno dei candidati Whig, il visconte Parker. Il pittore inglese William Hogarth, che con i suoi quadri ritrasse con crudezza i difetti della società britannica nella prima metà del XVIII secolo, dedicò alle elezioni dell’Oxfordshire un ciclo di tre dipinti, intitolati “The Humours of an Election” (gli umori di un’elezione). Nel primo della serie, “An Election Entertainment” (un ricevimento elettorale), del 1755, appare una citazione della polemica sul calendario. La scena ritrae una caotica riunione, in cui i due candidati Whig si confondono con il popolino e, pur di recuperare voti, si lasciano andare ad atteggiamenti discutibili. Nell’angolo in basso a destra dell’opera, a terra, si vede un cartello, presumibilmente sottratto ai Tory, in cui appare lo slogan: “Ridateci i nostri 11 giorni” (Give us our Eleven days). Il passaggio al calendario gregoriano, infatti, comportò un salto diretto dal 2 al 14 settembre del 1452, che fu quindi un anno di 355 giorni. Precedentemente, nel Regno Unito si usava ancora il calendario giuliano, introdotto da Giulio Cesare, che però era impreciso: il suo computo non corrispondeva esattamente alla durata dell’anno solare, per cui ogni 128 anni circa restava indietro di un giorno. Un difetto che, a lungo andare, dopo secoli di applicazione, aveva portato a uno sfasamento tra il conteggio dei giorni e il reale susseguirsi delle stagioni, segnato da eventi astronomici osservabili come i solstizi e gli equinozi. Tanto per rendere l’idea, nel Settecento, nel Regno Unito, il passaggio alla primavera, cioè l’equinozio, si verificava nei giorni tra il 10 e l’11 marzo, con un anticipo di 11 giorni rispetto alla data tradizionalmente attribuita all’inizio della stagione e fissata come immutabile dal Concilio di Nicea del 325 d.C. Lo sfasamento era un problema, perché il calendario non era più attendibile né per fissare il giusto momento delle attività agricole, dalla semina al raccolto, né per garantire una stabilità nelle date delle celebra-
16
I calendari
zioni religiose. In più, il Calendar Act aveva anche cambiato la data di inizio dell’anno. Fino ad allora, infatti, in Inghilterra il nuovo anno cominciava il 25 marzo, il cosiddetto Lady Day, il giorno dell’Annunciazione. La legge del 1750 anticipò l’inizio dell’anno al primo gennaio, a partire dal 1752. Questo fece sì che anche il 1751 venisse accorciato ad appena 282 giorni. Il 25 marzo rimase comunque a segnare l’inizio dell’anno fiscale nel Regno Unito, data che, nel 1752, per effetto dello slittamento di 11 giorni del calendario, divenne il 6 aprile. E così è ancora oggi. In un mondo ripetitivo e difficilmente mutabile come quello del XVIII secolo, la novità di due anni consecutivi più corti del normale non fu di secondaria importanza e comportò più di un’incomprensione, soprattutto per quanto riguardava la durata dei contratti e la definizione dei giorni di paga. Ma principalmente, ciò che appariva intollerabile all’establishment britannico era il fatto di adottare un calendario voluto dal Papa. Il calendario gregoriano, infatti, entrato in vigore nel 1582, in Italia, Francia, Spagna e in altri Paesi europei, era stato introdotto per iniziativa di papa Gregorio XIII. Per una nazione che aveva orgogliosamente legato la fede alle sorti della Corona, separandosi dalla Chiesa romana, si trattava di un fatto inaccettabile. Ecco perché nel Calendar Act, che per inciso è la più antica legge in vigore nel Regno Unito, si fissa un sistema di calcolo della data della Pasqua diverso da quello adottato per il calendario gregoriano. Questa formalità, che a livello sostanziale non comporta alcuna differenza di date tra la Pasqua anglicana e quella cattolica, serviva comunque per assicurare al Parlamento britannico che nulla del nuovo calendario adottato aveva a che fare con quello concepito dalla Chiesa cattolica.3 3. Tutto il dibattito sull’adozione del nuovo calendario da parte del Parlamento britannico è ampiamente descritto in: Robert Poole, Time’s Alteration: Calendar Reform In Early Modern England, Ucl Press, 1998, Cap. 8.
17
Il tempo è atomico
Dai calendari lunari a quelli solari Questo spicchio di storia d’Oltremanica indica come il controllo del tempo attraverso il calendario fosse allora, com’è ancora oggi, un aspetto fondamentale del potere politico e religioso. E non in un popolo di creduloni, ma nell’opulenta Gran Bretagna, la nazione politicamente e socialmente più avanzata dell’epoca. La scienza della misurazione del tempo è una delle pochissime attività umane, forse l’unica, in cui si realizza la perfetta unione tra sapere e potere: chi detiene il sistema di calcolo del tempo più preciso e più condiviso afferma anche il proprio controllo sulle attività umane. Molto più, per fare un solo confronto, di quanto riescano a fare l’economia e la finanza, e quindi il denaro, i cui meccanismi particolari sfuggono regolarmente agli esperti e ai politici. Questa identificazione tra potere e calcolo del tempo emerge chiaramente fin dagli inizi della storia dell’uomo, come dimostra la fantastica storia della nascita e dello sviluppo dei calendari.
Segnali dalla notte dei tempi Non è un caso, per esempio, che tra i reperti che dimostrano il tentativo dell’uomo di sviluppare una scrittura figurano anche oggetti che, per alcuni studiosi, sono antichi calendari lunari. Il più antico manufatto in cui si pensa di riscontrare una traccia o un abbozzo di calendario proviene dalla Francia e risale a circa 30.000 anni fa. È una tavoletta di osso, larga quanto il palmo di una mano, rinvenuta nel 1912 nella grotta di Blanchard, in Dordogna. Secondo lo studioso statunitense Alexander Marshack, che studiò a fondo il reperto 50 anni dopo il suo ritrovamento, i 69 segni incisi sulla tavola, realizzati con una punta, ricostruiscono una sequenza di fasi lunari corrispondente alla durata di due mesi e un quarto. Marshack, analizzando attentamente al microscopio le piccole incisioni puntiformi, disposte lungo uno
18
I calendari
strano percorso curvilineo, individuò dei segni che, a suo giudizio, riproducono perfettamente la successione delle fasi lunari. Riconobbe anche una sequenza ripetuta di 29 segni, pari ai giorni di un mese lunare.4 Se la ricostruzione di Marshack fosse corretta dimostrerebbe che, già molto tempo prima di dedicarsi all’agricoltura, cosa che avvenne 20.000 anni dopo che la tavola d’osso fu incisa, l’uomo si preoccupava di tenere conto della successione dei mesi. Lo scopo era, evidentemente, non di stabilire la data della semina, ma piuttosto di prevedere e anticipare il verificarsi di determinate situazioni, come per esempio l’avvicinarsi dell’inverno o del disgelo, che influiscono sul regime di fiumi e torrenti, oppure l’approssimarsi delle giornate più lunghe dell’anno o, ancora, delle stagioni migratorie degli uccelli. Possedere un calendario poteva essere utile anche per calcolare il tempo di gestazione di nove mesi di una donna gravida. Applicando lo schema di Marshack ad altri manufatti, ritrovati sempre in Francia, nella grotta di Laussel (Dordogna), e in Ungheria, nel sito di Bodrogkeresztúr-Henye, altri studiosi hanno infatti creduto di individuare la funzione di alcuni strani strumenti in osso, che sarebbero serviti per calcolare con le fasi lunari il procedere di una gravidanza.5 Ma c’è chi obietta a questo tipo di ricostruzione, e ipotizza che chi ha visto l’abbozzo di un calendario in questi oggetti incisi sia stato vittima della suggestione, e abbia interpretato forzatamente in una serie di segni casuali impressi su un osso la corrispondenza con i cicli lunari. È comunque una coincidenza curiosa che molti reperti protostorici riportino delle incisioni 4. Lo studio compiuto da Alexander Marshack sulla tavoletta dell’Abri di Blanchard è illustrato nel suo libro The roots of Civilization, McGraw-Hill, 1971. 5. È quanto riporta Emília Pasztor, non senza avanzare qualche dubbio sulla correttezza delle interpretazioni dei paleontologi, nell’articolo “Prehistoric Astronomers? Ancient knowledge created by modern myth”, Journal of Cosmology, 2011, Vol. 14, http://journalofcosmology. com.
19
Il tempo è atomico
che, a un attento esame, paiono avere un’attinenza con le posizioni della luna nel cielo. Può darsi davvero che siano casuali, ma può darsi anche che avessero una funzione precisa, per un uomo primitivo che cercava di capire il meccanismo del mondo. Seguire il fluire del tempo, per quel nostro antico progenitore, significava riconoscere, nella posizione della luna di notte e del sole di giorno, i segnali in grado di indicargli in quale periodo dell’anno si trovasse, al di là della variabilità delle condizioni climatiche. Insomma, probabilmente già fin dai primordi, soprattutto nelle zone temperate, l’uomo aveva necessità di capire se un periodo di giorni freddi fosse davvero il preludio dell’inverno o soltanto un casuale e temporaneo abbassamento della temperatura. I volubili capricci del clima non potevano costituire un sistema di riferimento certo nemmeno per i nostri antenati. Un calendario lunare poteva essere ben più ricco di informazioni.
Il calendario babilonese L’esigenza di un riscontro preciso del fluire del tempo si fece ancor più pressante quando l’uomo cominciò ad abbandonare la vita nomade del cacciatore-raccoglitore per diventare agricoltore. Questo passo avvenne in Mesopotamia, intorno al V millennio a.C., e non è un caso se dobbiamo a Sumeri e Babilonesi, che abitarono la Mezzaluna fertile, molte conoscenze importanti per il calcolo del tempo. Per esempio è merito dei Babilonesi “l’invenzione” della settimana, in cui ogni giorno era dedicato ai corpi celesti allora conosciuti, che erano appunto sette, e cioè Luna, Marte, Mercurio, Giove, Venere, Saturno e Sole. Ogni giorno subiva l’influsso di un astro dominante sugli altri, secondo una sequenza calcolata sulla distanza che separava dalla Terra i vari corpi celesti, seguendo le nozioni dell’epoca. La Luna, i cui movimenti nel cielo sono i più irregolari, era considerata la più prossima al nostro pianeta, segui-
20
I calendari
ta da Marte, Mercurio e Venere, che appaiono nel cielo sempre prossimi al Sole, al tramonto o all’alba. Giove e Saturno, con i loro lunghi periodi orbitali, rispettivamente di 12 e 26 anni, erano visibili nel cielo notturno secondo schemi più regolari degli altri pianeti, e per questo erano considerati i più lontani. Il giorno dedicato al Sole segnava l’inizio della settimana. In seguito gli antichi Greci ereditarono quello schema e lo trasmisero ai Romani, e così è giunto fino ai giorni nostri. Ma anche in India i giorni della settimana sono dedicati ai medesimi sette astri.6 La comparsa della scrittura cuneiforme dei Sumeri è anch’essa legata alla necessità, sempre più pressante per l’uomo sedentario e agricolo, di stimare le quantità dei prodotti raccolti, probabilmente anche a beneficio dell’erario, per calcolare le tasse e per fissare il fluire del tempo in un calendario ben preciso. Dapprima si usarono piccoli oggetti di terracotta, che simboleggiavano gli oggetti di cui si voleva tenere l’inventario, poi si passò a un sistema più agile, composto da segni che venivano incisi su tavole di terracotta. Era nata la scrittura cuneiforme, ampiamente utilizzata anche per indicare date e periodi storici. Furono soprattutto i Babilonesi, che ereditarono la scrittura dai Sumeri, ad assegnare ai nomi dei 12 mesi del loro calendario i simboli dei primi 12 numeri. I Babilonesi erano anche abili matematici, oltre che astronomi molto competenti, ed erano in grado di eseguire conti complessi. Furono i primi, per esempio, a far quadrare in modo matematico il numero di giorni del mese lunare (29,5306) con il numero di giorni dell’anno solare (365,2422). Per la precisione si resero conto che dovevano trascorrere almeno 19 anni solari per contenere un numero intero di mesi lunari (cioè 235).7 Avevano in pratica calcolato il cosiddetto ciclo metonico, cioè 6. Bryan E. Penprase, The Power of Stars, Springer, 2011. 7. Ivi.
21
Il tempo è atomico
una successione di 6.940 giorni che segna l’intervallo di tempo dopo il quale il calendario lunare si riallinea con la successione degli anni solari. I Babilonesi non avevano strumenti per calcolare con precisione l’esatta durata dell’anno solare, che detta il susseguirsi delle stagioni in base all’alternanza di solstizi ed equinozi. Questo ritmo astronomico, determinato dal movimento della Terra intorno al Sole, governa tutti gli eventi naturali e quindi anche i tempi dell’agricoltura. Un corretto computo del tempo dovrebbe essere perciò in grado di replicarlo. L’anno lunare, troppo corto, non era adatto per questo scopo: ogni anno le stagioni iniziavano in una data differente. Però, i Babilonesi si accorsero che dopo 19 anni lunari il ciclo si compiva e le rispettive posizioni di Sole e Luna si riallineavano come al punto di partenza. Il ciclo metonico, chiamato così dal nome del matematico greco Metone, ma già noto ai Babilonesi, prevedeva 12 anni di 12 mesi lunari e 7 anni di 13 mesi lunari, che sommati davano la cifra di 235 mesi lunari in 19 anni. Rispetto ai moti celesti, il sistema ha uno scarto di soltanto 2 ore perché, per l’esattezza, i 235 mesi del ciclo metonico corrispondono a 19 anni solari, 2 ore e 5 secondi. Questo vuol dire che ogni 12 cicli circa, cioè ogni 228 anni, si aveva uno scarto di un giorno. Decisamente inferiore rispetto a quello dell’anno Giuliano, adottato in seguito dai Romani, che invece “perdeva” un giorno ogni 124 anni circa. Un aspetto interessante del calendario babilonese, che poi si ritrova in altri sistemi del computo del tempo fino ai giorni nostri, era quindi l’inserimento di un periodo “intercalare”, a intervalli definiti, per far quadrare il conteggio empirico dei giorni con il loro effettivo fluire naturale. In particolare, per formare gli anni “lunghi” del loro calendario, quelli con 13 mesi, i Babilonesi inserivano un mese intercalare nell’anno di 12 mesi. Questa operazione veniva generalmente fatta dopo il sesto mese, chia-
22
I calendari
mato Ululu, o dopo il dodicesimo, denominato Addaru. Il mese aggiuntivo non prendeva un nome proprio, ma veniva quindi definito “secondo Ululu” o “secondo Addaru”, in base alle situazioni. I nomi dei mesi erano quindi 12, di una lunghezza tale da “contenere” almeno 4 settimane, secondo uno schema sopravvissuto fino ai nostri tempi. Ma l’eredità che ci hanno lasciato i Babilonesi nel computo del tempo non si ferma qui. Il loro sistema numerico era esadecimale: cioè, anziché essere in base 10 era in base 60. Oggi questo modo di contare si è quasi completamente perduto, tranne che per la misurazione degli angoli, delle coordinate geografiche e, guarda caso, delle ore, che sono suddivise in 60 minuti a loro volta composti da 60 secondi.
Stonehenge, il grande osservatorio di pietra Più o meno all’epoca in cui fioriva la prima dinastia babilonese, in Inghilterra, in una vasta piana non distante dall’attuale cittadina di Salisbury, 140 km a sud-ovest di Londra, un’antica civiltà britannica del tardo Neolitico costruì Stonehenge. Questo straordinario sito, simbolo dell’umanità, aveva probabilmente diverse funzioni e, tra queste, quasi sicuramente anche quella di calendario. Chi si trova nella vasta piana senz’alberi, tra monoliti alti come palazzi di tre piani che ci guardano da oltre 5.000 anni, non può che sentire un brivido di profondo stupore e sentirsi immerso quasi in una sensazione mistica al cospetto di una struttura che pone mille interrogativi fin dal tempo dei Romani. I quali avevano una venerazione per gli antichi monoliti, rinvenuti in molte regioni dell’impero e considerati una manifestazione concreta della presenza e della forza divina. Anche Stonehenge fu oggetto di particolari attenzioni da parte dei Romani, come dimostrano le vestigia di un campo fortificato vicino alla cittadina di Amesbury, a meno di due miglia.
23
Il tempo è atomico
Figura 1.1 Il sito di Stonehenge, un complesso calendario solare? (www.ac-ilsestante.it).
Il monumento si presenta come una vasta area circolare, come si vede in Figura 1.1, delimitata da un fossato del diametro di 1,3 km. Al suo interno si innalzano due serie concentriche di “triliti”, strutture realizzate con tre enormi pietre, due verticali e una, sovrapposta, orizzontale, a formare come un gigantesco architrave. I triliti più esterni formano un cerchio perfetto, quelli interni sono disposti a ferro di cavallo, con l’apertura rivolta verso est. Secondo la teoria più accreditata, elaborata dagli studiosi di cinque università britanniche che lavorano allo Stonehenge Riverside Project, avviato nel 2003,8 la costruzione iniziò intorno al 3.000 a.C. e si protrasse, in fasi e modifiche successive, per quasi 2.000 anni, fino al 1.100 a.C. circa. Furono utilizzate pietre di due varietà: il cerchio esterno e il ferro di cavallo sono realizzati con i monoliti più grandi, in pietra di Sarsen, proveniente dalla cava di Marlborough Downs, a 30 km di distanza; tra questi due cerchi concentrici se ne ergeva un terzo, di monoliti denominati “bluestone”, quasi tutti 8. Per dettagli sullo Stonehenge Riverside Project, cfr. www.bournemouth.ac.uk/caah/ stonehenge-riverside-project.
24
I calendari
crollati. Le “bluestone” sono una particolare roccia basaltica, la dolerite. Il sito più vicino a Stonehenge dove si trova questa roccia è quello delle Preseli Hills, in Galles, a circa 240 km di distanza. I costruttori dovettero quindi spostare questi massi di diverse tonnellate lungo tutta questa distanza, senza nemmeno avere a disposizione la ruota, che non avevano neanche inventato. Una recente teoria ipotizza che massi erratici di dolerite fossero disponibili anche in siti più vicini a Stonehenge, trasportati anticamente, durante l’ultima glaciazione, dal Ghiacciaio del Mar d’Irlanda: ciononostante, i costruttori dovettero compiere uno sforzo notevole per portare questi massi a destinazione. Si ipotizza che all’opera abbiano lavorato migliaia di persone, probabilmente appartenenti a tribù diverse. Tanto che, secondo gli esperti del Riverside Project, questa monumentale opera ebbe anche lo scopo simbolico di unificare le popolazioni britanniche dell’epoca in un’unica cultura, estesa dall’Inghilterra alla Scozia. Ma perché uno sforzo così immane? Evidentemente, la piana di Stonehenge aveva caratteristiche uniche e irripetibili, che la rendevano il luogo ideale su cui edificare l’immane monumento. I continui lavori di modifica apportati alla struttura attestano poi come questa sia stata utilizzata per un tempo lunghissimo, almeno due millenni: poche opere realizzate dall’uomo sono rimaste funzionali per un periodo così esteso. Ancora oggi, però, non è stata fatta piena certezza sullo scopo di questi monoliti. L’ipotesi più accreditata è che il complesso avesse una doppia funzione di osservatorio astronomico e di luogo di culto, dove si potevano misurare i percorsi del Sole e della Luna nel cielo, trarne auspici e indicazioni precise sul periodo dell’anno e sulle attività da svolgere: in altre parole, Stonehenge era un calendario, grazie al quale gli antichi abitanti del luogo non solo fissavano l’arrivo di festività o celebrazioni rituali, ma sapevano anche capire quando seminare ed effettuare il raccolto.
25
Il tempo è atomico
Per capire come il meccanismo funzionasse, bisogna considerare il sito nella sua interezza. A colpire l’attenzione sono soprattutto i megaliti della parte centrale, che però costituiscono solo una parte del complesso. La serie più interna di megaliti non forma un cerchio chiuso, ma un ferro di cavallo, con l’apertura a est, perfettamente allineata a un lungo viale, noto come Stonehenge Avenue. A poche decine di metri dall’inizio di questo percorso, interpretato dagli archeologi come un viale trionfale in cui si svolgevano processioni sacre, si erge un monolito solitario, alto quasi 5 metri, chiamato la “pietra del tallone” (o del calcagno, in inglese “Heel Stone”). A pochi metri, sepolta nel terreno, è stata trovata un’altra pietra simile che presumibilmente si ergeva al suo fianco. La “Heel Stone” è distante 77,4 m dal centro di Stonehenge. Secondo quanto ipotizzato dall’astronomo americano Gerald Stanley Hawkins, che studiò a lungo il sito e pubblicò le sue conclusioni nel 1965, nel libro Stonehenge Decoded,9 e in accordo con quanto prima ancora di lui sosteneva l’astronomo britannico Sir J. Norman Lockyer,10 la “pietra del tallone” era un punto di riferimento per individuare ogni anno il giorno di mezza estate, cioè quello in cui si verifica il solstizio d’estate. La scoperta del macigno compagno della “pietra del tallone” ha fatto in seguito pensare a una sorta di mirino, creato dai due massi, al centro del quale il sole nascente nel giorno del solstizio si sarebbe mostrato perfettamente di fronte a un osservatore posto al centro dei cerchi monolitici di Stonehenge. Questo punto di osservazione, secondo la ricostruzione degli archeologi che hanno trovato diversi massi colonnari caduti a terra, ospitava molto probabilmente un monolito centrale, chiamato la “pietra dell’altare”. 9. Gerald S. Hawkins, Stonehenge Decoded, Doubleday, prima edizione giugno 1965. 10. J.N. Lockyer, F.C. Penrose, “An attempt to ascertain the date of the original construction of Stonehenge”, Proceedings of the Royal Society of London, 69, 1901, pp. 137-147.
26
I calendari
Chi provasse oggi a ripetere l’esperimento nel giorno del solstizio d’estate, il 20 o il 21 giugno, non potrebbe vedere perfettamente quell’allineamento, perché il Sole, nel giorno di mezza estate sorge in una posizione leggermente spostata sulla destra della “pietra del tallone”. Ma secondo i calcoli degli astronomi, nel periodo in cui Stonehenge è stato utilizzato il Sole sorgeva proprio al centro delle due pietre di riferimento. Lo spostamento rispetto a quell’epoca del punto di levata del Sole è dovuto al fatto che l’inclinazione dell’asse di rotazione terrestre è oggi diversa rispetto a 5.000 anni fa. La Terra, infatti, ruota su un asse che non è perfettamente perpendicolare al suo piano orbitale intorno al Sole, ma è inclinato secondo un angolo che varia tra 21,1° e 24,5° in un periodo di 41.000 anni. Oggi la sua inclinazione è di 23,44° ed è in diminuzione; all’inizio della costruzione di Stonehenge era invece di 23,98°. Questa differenza determina il fatto che oggi, nel giorno del solstizio estivo, il Sole sorga in un punto spostato rispetto a quello in cui sorgeva 5.000 anni fa sull’orizzonte di Stonehenge. La conformazione assolutamente pianeggiante e libera da alberi o altri ostacoli della piana si prestava in modo perfetto per osservare il punto esatto del sorgere del Sole in tutti i giorni dell’anno. La presenza di alture o di ostacoli sull’orizzonte avrebbe falsato le osservazione ed è per questo che si pensa che i costruttori di Stonehenge vollero a tutti i costi scegliere questo punto, e non un altro, per edificare il loro monumento-calendario. In un luogo del genere è possibile, durante ogni giorno dell’anno, seguire con precisione lo spostamento del punto in cui sorge il Sole, finché non viene raggiunto un punto estremo, in estate, oltre il quale il Sole non si spingerà mai. Questo punto, in cui “il Sole si ferma”, è detto di solstizio, dall’unione delle due parole latine sol, Sole, e sistere, arrestarsi. Si tratta del punto più a nord raggiunto dal Sole sull’orizzonte, nel momento in cui sor-
27
Il tempo è atomico
ge, quando lo si osserva dal nostro emisfero. Nel giorno successivo al solstizio d’estate, il Sole inizia un immaginario percorso a ritroso, verso sud, per arrivare sei mesi dopo a toccare il punto del solstizio d’inverno. I giorni in cui si verificano i solstizi nell’emisfero settentrionale sono il 20 o il 21 giugno in estate, e il 21 o 22 dicembre in inverno. La variazione è in funzione dell’anno: in quelli bisestili i solstizi avvengono un giorno dopo. L’orientamento di Stonehenge mostra come i suoi costruttori di 5.000 anni fa fossero a perfetta conoscenza dei movimenti apparenti del Sole nel cielo e come il giorno del solstizio estivo avesse per loro un valore particolare, tanto da suggerire la costruzione di uno strumento monumentale per poterlo individuare ogni anno in modo preciso. Le analisi hanno dimostrato che la struttura consentiva di individuare anche il giorno del solstizio invernale. Ma gli allineamenti dei solstizi non sono gli unici registrati da Stonehenge. Analizzando attentamente il luogo, Gerald Hawkins individuò altri allineamenti particolari, per esempio nei giorni del lunistizio estremo superiore (cioè il punto più settentrionale sull’orizzonte in cui sorge la Luna) e inferiore, che il nostro satellite raggiunge una volta ogni 18,6 anni.11 L’astronomo statunitense non si limitò a questo. Nella sua analisi arrivò a individuare oltre 100 allineamenti particolari con il Sole e con la Luna che si potevano osservare e prevedere dal punto centrale di Stonehenge, eclissi comprese. Nell’idea di Hawkins, quello della piana di Salisbury non era soltanto un luogo religioso e sacro, ma un vero e proprio regolo astronomico, un computer di pietra che aiutava gli antichi progenitori dei Britanni a fissare i momenti importanti dell’anno e a prevedere i fenomeni celesti. 11. L’ultima volta che il lunistizio estremo superiore si è verificato nel nostro emisfero è stato il 15 settembre 2006, come segnala Adriano Gaspani, dell’Istituto nazionale di Astrofisica, Osservatorio Astronomico di Brera (Milano) nel suo articolo “Elementi di Archeoastronomia – Seconda parte”, www.duepassinelmistero.com/elementiarcheoastro2.htm.
28
I calendari
Sotto questo aspetto, le opinioni di Hawkins sono state aspramente criticate da molti archeologi e molti dubbi esistono sul fatto che Stonehenge potesse davvero assolvere a una tale funzione. È però curioso ricostruire il meccanismo con cui il sistema avrebbe potuto prevedere anche le eclissi, perché se corrispondesse davvero alle conoscenze astronomiche dell’epoca attesterebbe l’esistenza di una civiltà straordinariamente avanzata, per quanto ancora non avesse sviluppato un sistema di scrittura. La chiave per il meccanismo di previsione delle eclissi sono 56 buchi, disposti in un grande cerchio compreso tra il fossato perimetrale e la prima serie di monoliti di pietra. Portano il nome di Buchi di Aubrey (Aubrey Holes), dal loro primo scopritore, John Aubrey, un antiquario che individuò una di queste cavità nel 1666. I buchi, man mano portati alla luce nei secoli successivi, secondo le supposizioni di alcuni studiosi, soprattutto archeoastronomi, erano utilizzati per conficcarvi all’interno dei pali con lo scopo di segnare la posizione della Luna e del Sole durante ogni giorno dell’anno. A questa conclusione gli studiosi giungono perché il numero degli Aubrey Holes, 56, non sembra scelto a caso: è un multiplo di 28, cioè i giorni di un mese lunare; inoltre, i 56 buchi, percorsi per 6 volte e mezza, danno un totale di 364, cioè il numero dei giorni dell’anno solare; infine, 56 è un numero molto vicino al ciclo di 54 anni e 34 giorni in base al quale, in una stessa zona geografica, si ripetono le stesse eclissi solari e lunari. Questo conteggio si effettua sulla base dei cosiddetti cicli di Saros, della durata di 18 anni, 11 giorni e 8 ore, che governano la periodicità e la ricorrenza delle eclissi. Solo dopo 3 interi cicli di Saros questi fenomeni astronomici tornano a essere visibili alle stesse latitudini.12 12. Una dettagliata spiegazione del meccanismo dei cicli di Saros, e della periodicità di oltre 54 anni che riporta le eclissi di uno stesso ciclo sulle stesse coordinate geografiche, è riportata nella pagina web della Nasa dedicata alle eclissi di Luna e di Sole: http://eclipse. gsfc.nasa.gov/SEsaros/SEsaros.html.
29
Il tempo è atomico
Secondo una teoria, tutta da verificare, sviluppata dall’astronomo britannico Fred Hoyle,13 i buchi avrebbero potuto essere utilizzati per inserirvi dei paletti, che poi di giorno in giorno sarebbero stati spostati dai sacerdoti di Stonehenge per seguire la posizione del Sole e della Luna. Il meccanismo immaginato da Hoyle prevedeva che i marcatori della posizione del Sole venissero spostati di 2 buchi in senso antiorario ogni 13 giorni, compiendo quindi un’intera rivoluzione ogni 364 giorni; il marcatore lunare sarebbe invece stato spostato di due buchi ogni giorno, sempre nella stessa direzione, in modo da segnare il fluire di un mese lunare al termine di un’intera rivoluzione. Infine, ci sarebbero stati un terzo e un quarto marcatore o paletto, per segnare i punti di intersezione delle orbite lunare e solare, i cosiddetti punti nodali, cioè i punti di intersezione delle ore che sarebbero stati spostati di soli 3 buchi nell’arco di un anno in senso orario. Seguendo queste prescrizioni, i marcatori solare e lunare avrebbero finito per trovarsi nello stesso buco occupato da un marcatore dei nodi nell’imminenza di un’eclissi.14 In realtà, il sistema di funzionamento dei Buchi di Aubrey immaginato da Hoyle è alquanto macchinoso e gli archeologi che studiano Stonehenge sono molto dubbiosi sul fatto che sia stato realmente messo in pratica. Anche perché gli scavi sembrano indicare che queste cavità fossero dei luoghi sepolcrali e che, in alcune di esse, fossero collocati dei monoliti. Inoltre, i buchi sarebbero stati utilizzati nella prima fase di Stonehenge, quella più antica, in cui si presume che le conoscenze astronomiche dei costruttori fossero meno raffinate. 13. Hoyle illustrò i risultati dei suoi studi su Stonehenge, compreso il meccanismo che aveva immaginato nell’utilizzo dei Buchi di Aubrey, in Fred Hoyle, On Stonehenge, W.H. Freeman & Co, prima edizione marzo 1978. 14. Una ricostruzione del sistema dei Buchi di Aubrey è proposta in: Vojko Bratina, “Stonehenge e la sua funzione astronomico calendariale”, L’Astronomia n. 249, gennaio 2004, Edizioni Quanta, pp. 42-47.
30
I calendari
È però significativo il fatto che si possano trovare tante corrispondenze astronomiche e calendariali nella disposizione dei monoliti e dell’intero complesso. Del resto, sono numerosissimi, e non soltanto sulle isole britanniche, i siti che rispondono a un preciso orientamento rispetto al sole e alla luna. Nel 2011, per esempio, in Germania, nella Foresta Nera, alcuni ricercatori del Römisch-Germanisches Zentralmuseum di Mainz hanno individuato intorno al sepolcro di un re celtico di Magdalenenberg, risalente al 618 a.C., un calendario lunare di oltre 100 metri di diametro, che individua con precisione i punti di lunistizio raggiunti dal nostro satellite, come abbiamo visto, ogni 18,6 anni. I Celti si basavano sui cicli lunari per definire il loro calendario, e quella di Magdalenenberg è finora la più antica e completa testimonianza di questo uso.15 Le strutture del sito sono anche in relazione con il sorgere di stelle e costellazioni durante tutto l’arco dell’anno e consentivano agli antichi abitanti del luogo di rendersi conto in ogni momento del periodo dell’anno in cui si trovavano.16 Giulio Cesare, nei suoi commentari di guerra, fece riferimento ai calendari lunari dei Celti, che con l’introduzione del calendario solare romano finirono per essere completamente dimenticati fino ai giorni nostri. Ma anche in Italia esistono siti con funzioni simili a quelle di Stonehenge. Come il sito megalitico Madonna di Loreto del XVIII sec. a.C., nelle vicinanze di Trinitapoli, in provincia di Foggia, studiato dagli esperti della Società Italiana di Archeoastronomia. Al suo interno si trovano un migliaio di buche cir15. La scoperta del calendario celtico di Magdalenenberg è descritta in: A.W. Mees, Der Sternenhimmel von Magdalenenberg. Das Fürstengrab bei Villingen-Schwenningen – ein Kalenderwerk der Hallstattzeit. Jahrbuch Römisch-Germanisches Zentralmuseum 54, Mainz 2007 (pubblicato nel 2011), pp. 217-264. 16. Allar Mees, “Die Kelten un der Mond”, in Antike Welt – Zeitschrift für Archäeologie und Kulturgeschichte, n. 6/2012, Philipp von Zabern editore, pp. 47-54.
31
Il tempo è atomico
colari, scavate nella roccia, disposte in 45 filari lunghi 25 metri ciascuno, allineati secondo tre direttrici principali: una segue il percorso giornaliero del Sole, ed è orientata verso sud; una fissa il solstizio d’estate e la terza il punto di lunistizio maggiore.17 Un uguale orientamento è stato riscontrato nella necropoli megalitica di Saint Martin de Corléans, ad Aosta.18
Il calendario egizio Contemporanea alla civiltà di Stonehenge, quella egizia, capace di lasciare ai posteri una quantità di indizi e documenti del suo passato incomparabilmente superiore, sincronizzò le proprie attività a un calendario straordinariamente semplice, composto da 360 giorni, raggruppati in 12 mesi da 30 giorni, cui si aggiungevano ogni anno altri 5 giorni dedicati alle divinità principali del loro pantheon: Osiride, Iside, Seth, Nepthys e Horus. Anche altri calendari, come quello Maya, per esempio, adottarono lo stesso sistema di concentrare una serie di giorni sacri alla fine dell’anno. Una tendenza di cui troviamo traccia anche nel nostro, che concentra nella settimana finale, tra Natale e il 31 dicembre, le festività considerate più importanti. Gli Egizi suddividevano inoltre l’anno in tre stagioni da 120 giorni, denominate secondo le attività prevalenti che vi si svolgevano: “inondazione”, “coltivazione” e “raccolto”. Un ruolo fondamentale nella scansione dei ritmi di vita della popolazione nilotica era ricoperto dalla stella Sirio. Gli astronomi egizi avevano infatti notato che la stagione delle alluvioni del Nilo, un evento chiave per la loro civiltà perché rendeva periodi17. Anna Maria Tunzi Sisto, Mariangela Lo Zupone, “Il santuario dell’Età del Bronzo di Trinitapoli”, in Atti del 28° Convegno nazionale sulla Preistoria, Protostoria, Storia della Daunia, 2008, Archeoclub d’Italia, Sede di San Severo, pp. 188-210. 18. Giuseppe Brunod, Giuseppe Veneziano, La Roccia del Sole: una meridiana stagionale per gli antichi Camuni, Osservatorio Astronomico di Genova, www.oagenova.it/wp-content/ uploads/roccia_del_sole_meridiana_stagionale_antichi_camuni.pdf.
32
I calendari
camente fertili le pianure e possibile la coltivazione, si verificava ogni anno poco tempo dopo la levata eliaca di Sirio. La levata eliaca indica il momento dell’anno in cui una stella diventa visibile nel cielo all’alba, in contemporanea al sorgere del Sole. Quando Sirio sorgeva nel cielo degli antichi Egizi insieme con il Sole, quindi, tutti sapevano che le alluvioni erano imminenti. Sirio, nota agli Egizi come Sopedet e poi battezzata dai Greci Sothis (da cui la definizione di “calendario sotirico” per indicare quello egizio), compariva nel cielo estivo in prossimità del solstizio dopo 70 giorni di non visibilità, come un vero e proprio messaggio scritto nel cielo e, quindi, inviato dagli dei. Nel complesso, il calendario egizio aveva una durata di 365 giorni, mentre il ciclo di Sirio si compie in un anno astronomico, cioè 365,25 giorni circa. Questo vuol dire che ogni 4 anni il computo dei giorni fatto dagli Egizi si sfasava di un giorno rispetto alla levata eliaca di Sirio, che ritardava sempre di più la propria comparsa: in virtù di questo errore, soltanto ogni 1.461 anni la comparsa dell’astro si sarebbe verificata nello stesso giorno del calendario civile. La civiltà egizia fiorì per oltre 2.700 anni convivendo perfettamente con “l’errore” del proprio calendario civile, in cui gli eventi chiave dell’anno, come per esempio i solstizi, si spostavano continuamente tra i giorni dell’anno. Proprio per questa sua caratteristica, il calendario egizio fu definito annus vagus, dal verbo latino vagare, cioè errare, muoversi senza meta. Ci furono anche alcuni tentativi per correggere l’errore ma non furono applicati, perché gli Egizi si erano perfettamente adattati al loro sistema di conteggio del tempo e non sentivano la necessità di modifiche, pur essendo perfettamente consapevoli che l’anno tropico ha una durata di 365 giorni e 6 ore. Durante il regno di Tolomeo II, nel 268 a.C., con l’editto di Canopo si stabilì l’aggiunta al calendario egizio di un giorno intercalare ogni 4 anni,
33
Il tempo è atomico
proprio come facciamo noi oggi con gli anni bisestili, a testimoniare il fatto che l’errore di conteggio era conosciuto perfettamente. Ma soltanto con il dominio dei Romani l’anno bisestile fu imposto per legge, nel 28 a.C., suscitando la totale riprovazione degli Egizi, che consideravano sacro il loro calendario e che videro in questa riforma una delle peggiori manifestazioni di quella che consideravano la tirannia romana. L’anno vago rimase comunque in uso tra gli astronomi e, aggiustato con il giorno di Tolomeo, è ancora utilizzato oggi dai Copti: il cui anno di 366 giorni è però quello precedente al nostro bisestile.19 Un altro aspetto curioso del sistema egizio di misurare il tempo riguarda la suddivisione del giorno, che era diviso in 12 ore di luce e 12 ore di buio. Le ore non avevano una durata fissa, ma variavano in base alle stagioni e alla parte di giorno a cui si riferivano. D’estate quelle diurne erano più lunghe di quelle notturne e d’inverno viceversa. Nella lingua egizia il termine hor siginificava “percorso del Sole” ed è la radice da cui deriva la parola greca hora, adottata poi dai Romani e oggi anche da noi per definire, appunto, l’ora.20
Il calendario ebraico e quello islamico Durante la tarda epoca egizia, in un periodo compreso tra il 450 e il 419 a.C., prese forma anche il calendario ebraico, importante perché scandisce ancora oggi le celebrazioni religiose degli Ebrei. La sua struttura fu mutuata dal calendario babilonese, ed era quindi basata sui cicli lunari, con anni di 12 o 13 mesi che si alternano fino a comporre il ciclo metonico di 19 anni. I nomi dei mesi del calendario babilonese e di quello ebraico sono straordinariamente simili, e i secondi sono chiaramente 19. Piero Tempesti, Il calendario e l’orologio, Gremese editore, 2006, p. 38. 20. Bryan E. Penprase, The Power of Stars, Springer, 2011, p. 138.
34
I calendari
derivati dai primi. Per i Babilonesi il primo mese era Nisannu, per gli Ebrei è Nisan; il secondo è Ajjaru, divenuto Iyyar per gli ebrei, e così via con questi accoppiamenti: Simanu-Sivan, DuzuTammuz, Abu-Ab, Ululu-Elul, Tasritu-Tishri, Arashamnu-Chesvan, Kislimu-Kislev, Tebetu-Tebeth, Sabatu-Shebath, Addaru-Adar. La differenza sostanziale è che il calendario ebraico è sfasato di 6 mesi rispetto a quello babilonese, perché per gli Ebrei l’anno inizia con il mese di Tishri, e il corrispondente Tashritu era il settimo mese dei Babilonesi. Per questi ultimi l’anno iniziava in primavera, per gli Ebrei prende l’avvio in corrispondenza dell’equinozio di autunno. Altra similitudine tra i due sistemi di conteggio del tempo era la settimana di sette giorni con il settimo giorno dedicato a feste e celebrazioni. In lingua babilonese la parola corrispondente a “settimo” era sabattu, da cui il nome del giorno corrispondente. In ebraico la parola Shabbat significa invece “riposo”, ma la radice è chiaramente identica. Per quanto il calendario ebraico sia stato definito nei suoi termini attuali circa 2.500 anni fa, il primo anno della storia, l’inizio del tempo secondo gli Ebrei, l’anno zero, risale a circa 5.700 anni fa. Precisamente, il primo anno della storia, contrassegnato con la sigla AM (“Anno Mundi”, l’anno del mondo), è fissato in corrispondenza con il sorgere della nuova luna del primo mese (Tishri) dell’anno precedente alla Creazione, che corrisponde al 7 ottobre 3761 a.C. La data della Creazione, descritta nella Genesi, con i sei giorni impiegati da Dio per dare forma e vita al Creato e il settimo giorno di riposo, è fissata dal calendario ebraico nel giorno 25 di Elul dell’anno AM 1. Un altro calendario religioso utilizzato ancora oggi è quello islamico, che prende invece il via dal 622 d.C., anno 1 AH (Anno Hijri, anno dell’Egira) l’anno in cui Maometto si spostò dalla Mecca a Medina. Questo evento è noto come “Hijra” (egira),
35
Il tempo è atomico
o “migrazione”, e dà il nome al calendario islamico, basato sui cicli lunari. La sua durata è di 354 giorni, con 12 mesi di 29 o 30 giorni. Il Corano vieta espressamente l’introduzione del tredicesimo mese intercalare, in uso tra i Babilonesi e gli Ebrei, e per questo motivo resta costantemente più corto di 11 giorni rispetto al nostro. Questo fa sì che tutti i mesi e le feste islamiche ruotino all’interno dell’anno solare, anticipando ogni anno di 11 giorni. Questo spiega per esempio perché il Ramadan, il mese in cui Maometto ricevette la rivelazione del Corano, che è una festa fondamentale per l’Islam, cade in periodi sempre diversi del calendario gregoriano. Nel 2013 è iniziato il 9 luglio e si è concluso il 7 agosto; nel 2014, anno 1435 del calendario islamico, inizia il 28 giugno per terminare il 27 luglio; nel 2015 dura dal 18 giugno al 16 luglio. Per gli Arabi, così come per gli Ebrei (ma lo è stato a lungo anche per i Cristiani, che facevano iniziare il giorno ai Vespri), il giorno non inizia allo scoccare del primo minuto dopo mezzanotte, ma al tramonto, per cui è in uso un complesso sistema per determinare esattamente il momento del tramonto e definire l’inizio dei giorni e, soprattutto dei mesi. Questo, infatti, corrisponde all’apparire della prima luna crescente, corrispondente a due giorni dopo l’inizio della luna nuova. Il criterio per fissare l’inizio del mese non segue però un principio astronomico, ma si basa sulle osservazioni di sacerdoti o di persone di riconosciuta fiducia. Il che comporta una serie di problemi. Se, per esempio, in un determinato luogo, la sera del primo sorgere della nuova luna, il cielo è nuvoloso, l’inizio del mese slitterà di un giorno e il mese precedente sarà di 30 giorni e non di 29. Non solo, siccome i Paesi islamici sono distribuiti in tutto il globo, può avvenire che uno stesso mese inizi con un giorno di differenza in Paesi diversi. Questo sistema di conteggio crea non poche confusioni e situazioni imprevedibili, per cui, in alcuni Paesi si adottano criteri
36
I calendari
astronomici per stabilire in modo preciso l’inizio dei mesi. Per esempio, in Malesia e in Indonesia si considera il giorno iniziale del mese quello in cui la luna tramonta dopo il sole. In Egitto, il tramonto della luna deve avvenire almeno cinque minuti dopo che il sole è tramontato per poter definire il giorno come l’inizio del mese. Va da sé che questo sistema di contabilizzazione non solo produce profonde discrepanze nella calendarizzazione di molti Paesi islamici, ma impedisce anche alle varie autorità religiose di fissare in anticipo i giorni delle principali festività religiose, che vengono quindi decisi mese per mese. Ci sono associazioni e gruppi che spingono per definire un criterio astronomico e matematico definitivo per unificare i calendari musulmani di tutto il mondo, ma questa spinta è avversata da molti teologi e autorità religiose, che ricordano come nel Corano Maometto prescriva che soltanto l’osservazione della nuova luna può decretare, per esempio, l’inizio dei mesi di Ramadan e di Shawwal. Quest’ultimo, successivo al Ramadan, è importante perché decreta la fine del digiuno rituale.
Il calendario greco L’abitudine islamica di fissare l’inizio del mese con il primo avvistamento della luna crescente può sembrarci oggi strana, ma nell’antichità, quando non c’erano altri strumenti per misurare lo scorrere del tempo, era sicuramente il metodo più immediato e sicuro. Nell’arco dell’anno, il sole non attraversa fasi così visibilmente distinguibili come quelle della luna. Non c’è da stupirsi, quindi, che anche gli antichi Greci fissassero l’inizio dei mesi in base all’apparire della prima luna crescente, e che questo compito fosse affidato a sacerdoti o magistrati. La realtà greca era estremamente frammentata in città-stato che spesso non avevano tra loro buoni rapporti: ognuna adottava un calen-
37
Il tempo è atomico
dario diverso, con differenze spesso anche molto marcate. Per esempio, il calendario lunare attico, utilizzato ad Atene, fissava l’inizio dell’anno nel giorno della prima luna dopo il solstizio d’estate. Quello della Beozia, che confinava con l’Attica, adottava lo stesso sistema ma era sfasato di sei mesi. Il calendario lunare aveva 12 mesi che prendevano nomi diversi in ogni polis (le antiche città-stato della Grecia). I sacerdoti che stabilivano l’inizio dei mesi avevano anche il compito di decidere quando introdurre un mese intercalare per adeguare il fluire dell’anno lunare a quello solare.21 Ma la particolarità dei Greci è che, per loro, il computo del tempo durante l’anno poteva assumere forme e modi diversi in base a reali necessità pratiche. Quindi coesistevano differenti modi di computare l’anno. Nell’Attica, per esempio, esisteva anche un calendario civile o conciliare, introdotto nel 506 a.C. in seguito all’adozione della democrazia come sistema di governo. Il popolo attico era organizzato in 10 tribù, che in modo uguale contribuivano alle necessità dello stato ateniese, fornendo uomini per l’esercito e per il governo, navi per la flotta e raccolto per il sostentamento. Contribuivano ovviamente anche alla guida dello stato, con rappresentanze di 50 uomini all’interno della Boulé, il massimo organo decisionale del tempo. Fu per questo motivo che il calendario civile fu organizzato sulla base di 10 mesi e non era minimamente sincronizzato con quello lunare di 12 mesi, tanto che l’inizio dei due anni era sfasato di una quindicina di giorni. Le notizie sui calendari “ufficiali” dei Greci, per quanto la loro civiltà abbia lasciato una quantità incredibile di testimonianze, non sono però certissime e molto dei loro meccanismi è desunto da informazioni frammentarie o da testi scritti senza l’obiettivo di descrivere la computazione del tempo. Una delle fonti più in21. Bryan E. Penprase, The Power of Stars, Springer, 2011, p. 149.
38
I calendari
teressanti è La Costituzione degli ateniesi di Aristotele, che descrive l’evoluzione della democrazia attica. La riforma del calendario civile avvenne con Clistene, che fu chiamato a reggere lo stato nel 508 per mettere in pratica la sua idea di allargare i diritti anche al “demos”, il popolo, fino ad allora escluso dai meccanismi decisionali. Per tenere separate le classi, il precedente ordinamento attico prevedeva una suddivisione della popolazione in 4 tribù, come le stagioni dell’anno, suddivise a loro volta in tre trittìe (o distretti), composte da 30 famiglie. Lo schema riproduceva l’organizzazione astronomica dell’anno lunare, che si rifletteva nel calendario religioso. Clistene rimescolò le carte. Portò da 4 a 10 le tribù, facendo in modo che al loro interno la rappresentanza si estendesse anche ai cittadini più umili, per rendere tutti partecipi dei diritti e dei doveri dello stato. La base 12, con cui era organizzata la società ateniese a imitazione dell’anno lunare, fu abbandonata per assumere una base 10, geometrica, logica, che corrispose al nuovo anno civile. È questa una testimonianza chiarissima di come il controllo del tempo, fin dall’antichità, assumesse anche un profondo significato politico. Spiega Aristotele nella Costituzione: “Ciascuna tribù dirige gli affari per turno, fissato dalla sorte: le prime quattro per 36 giorni ciascuna, le altre sei per 35 giorni ciascuna; poiché l’anno è computato secondo il corso lunare.”22 La durata dei mesi, nell’anno di 10 mesi, era calcolata in lunghezze pressoché identiche non solo per corrispondere con la durata dell’anno lunare, ma anche per garantire a ogni tribù un periodo uguale di controllo dello stato. Questo fa supporre che, negli anni in cui si rendeva necessario l’inserimento del mese intercalare nel calendario lunare, quello civile mantenesse invece la sua scansione in 10 mesi, pari alle tribù, con una durata allungata a 39 giorni per i primi 4 mesi e 38 giorni per gli ultimi 6. Di questo fatto non esiste certezza, 22. Aristotele, La Costituzione degli ateniesi, a cura di C. Ferrini, Hoepli Milano 1893, fr. 43, p. 97.
39
Il tempo è atomico
perché Aristotele non ne fa menzione. È una conclusione, più che plausibile, cui sono giunti gli studiosi. I due sistemi che comunque sopravvivevano paralleli ma sfasati, dovettero evidentemente ingenerare qualche confusione, perché verso la fine del V secolo a.C. si provvide a far corrispondere l’inizio e la fine dell’anno religioso e dell’anno civile. Il periodo di governo assegnato a ognuna delle 10 tribù era definito “pritanìa” e per questo i mesi del calendario civile greco non avevano un nome preciso, ma prendevano ogni anno quello della pritanìa corrispondente, che cambiava ogni volta, visto che i turni di governo delle tribù venivano estratti a sorte. Anche i giorni non avevano nomi, ma venivano numerati, per cui, se si doveva fissare una data, si usavano formule del tipo “il decimo giorno del mese della tal pritanìa”. L’anno veniva poi indicato con il nome della figura più eminente al governo o in base a un evento fondamentale della storia locale. Questo valeva per Atene, ma anche per le altre cittàstato. Le Olimpiadi, però, i giochi sportivi che segnavano ogni quattro anni una sorta di unificazione di tutti i popoli greci, a partire dal 776 a.C., anno della prima edizione, divennero ben presto un punto di riferimento cronologico per tutto il mondo ellenico. Ogni quattro anni, in più di una polis greca, prese piede l’abitudine di fissare la cronologia con la rispettiva edizione delle Olimpiadi o con il nome dell’atleta che quell’anno si era maggiormente distinto nelle gare. Lo studioso statunitense Alan Edouard Samuel, grecista ed esperto di papiri, arrivò a contare per tutta l’area dell’Egeo una trentina di calendari diversi, cui si aggiungevano anche quelli delle colonie della Magna Grecia e quello esportato dai Macedoni, a seguito delle conquiste di Alessandro Magno, che assunse varianti in tutte le regioni dell’impero.23 23. Alan E. Samuel, Greek and Roman Chronology, Verlag C. H. Beck, Monaco di Baviera 1972.
40
I calendari
Ma quello religioso e quello civile erano due calendari che, pur basandosi su ritmi astronomici, avevano assunto aspetti e forme funzionali all’esercizio del potere, religioso o politico. Come si regolavano invece i cittadini, e in particolare chi doveva lavorare nei campi, per seguire il flusso delle stagioni? Lo spiega in maniera eccezionalmente chiara l’antica opera di Esiodo Le opere e i giorni, che risale all’VIII secolo a.C., ed è quindi precedente alla democrazia ateniese e alla testimonianza di Aristotele. Le opere e i giorni riporta, in 828 esametri, una tradizione orale che tramandava il sistema, in uso in quella lontana epoca, per seguire minuziosamente i periodi dell’anno secondo la posizione nel cielo del Sole, della Luna e delle stelle. A ogni giorno o momento chiave dell’anno, Esiodo abbinava una particolare attività, che andava compiuta nei campi, nelle stalle o perfino nella vita di coppia. Un segnale indicativo del cielo era per esempio la comparsa delle Pleiadi, l’ammasso di stelle, noto anche come le Sette Sorelle, visibile nella costellazione del Toro. Così scrive Esiodo riferendosi a queste: Quando le Pleiadi sorgono, figlie di Atlante, la mietitura incomincia; l’aratura al loro tramonto; esse infatti quaranta notti e quaranta giorni stanno nascoste, poi, volgendosi l’anno, appaion dapprima quando è il momento di affilare gli arnesi. Questa dei campi è la legge, sia per quelli che nei pressi del mare hanno la loro dimora, sia per coloro che in valli profonde, lontano dal mare ondoso, nella grassa pianura hanno la casa.
41
Il tempo è atomico
Il sorgere delle Pleiadi descritto da Esiodo corrisponde alla loro levata eliaca, cioè al periodo dell’anno in cui sono visibili all’alba, poco prima dell’apparire del Sole nel cielo. Oggi, e alle latitudini italiane, questo evento si verifica verso la metà di giugno, ma all’epoca in cui fu prodotto il testo, quasi 3.000 anni fa, la levata eliaca avveniva con circa un mese di anticipo, a metà maggio. Le Pleiadi restano visibili fino a fine ottobre (corrispondenti a fine settembre dell’epoca di Esiodo) e poi riappaiono a metà dicembre (a metà novembre nel cielo di 3.000 anni fa), quando il poeta greco suggeriva ai contadini di riprendere gli arnesi e prepararli per la nuova stagione. Nell’anno de Le opere e i giorni, erano moltissimi i momenti da tenere in considerazione. Per esempio, la levata eliaca di Sirio, che avveniva all’epoca intorno a metà luglio (attualmente si verifica l’8 di agosto) era il punto in cui “la femmina è lasciva e fiacco l’uomo”; l’apparire della stella Arturo all’alba, che corrisponde al periodo in cui le Pleiadi e Orione sono alti nel cielo notturno, è il tempo della vendemmia, a cui Esiodo suggerisce di far seguire dieci giorni di appassimento al sole e cinque giorni di mantenimento all’ombra prima di procedere alla spremitura degli acini. La comparsa di Arturo, all’inizio della primavera, anticipa l’arrivo delle rondini, mentre la levata eliaca di Orione deve corrispondere alla trebbiatura del grano.
Il calendario romano Paragonati ad altri popoli antichi, i Romani si sono sempre distinti per il loro pragmatismo. Tutto, nella loro organizzazione, era orientato al lavoro e al business e questa peculiarità si è riflettuta anche sul loro sistema di calcolare il tempo. Nei primi anni di Roma, ai tempi della monarchia, il calendario era quasi
42
I calendari
sicuramente organizzato in dieci mesi. La certezza non è assoluta, perché esistono testimonianze discordanti: gli stessi storici romani dell’età imperiale avevano perso ogni memoria e ogni traccia documentale della prima organizzazione della città, fondata, secondo tradizione, nel 753 a.C. Di certo, però, il calendario era considerato uno strumento fondamentale, come attesta il fatto che la sua introduzione veniva attribuita al fondatore della città, Romolo. L’anno era basato sui cicli lunari e iniziava in concomitanza con l’equinozio di primavera, nel mese dedicato al dio Marte e, per questo, denominato martius. Seguivano i mesi di aprilis, maius, iunius, quintilis, sextilis, september, october, november e december. Gran parte di questi nomi indicava l’ordine numerico con cui si susseguivano: quintilis era il quinto mese, sextilis il sesto e così via fino a december. Quattro mesi erano di 31 giorni (martius, maius, quintilis e october) e gli altri erano di 30. In totale la somma era di 304 giorni.24 Un numero strano, molto più corto anche dell’anno lunare di 355 giorni, che gli studiosi hanno sempre fatto fatica a conciliare con la logica. Alcuni, visto che non esistono testimonianze certe al riguardo, pensano che questi anni di 304 giorni si susseguissero uno dietro l’altro, producendo un totale sfasamento dei mesi rispetto alle stagioni. Ma questo contrasta con il fatto che il mese di marzo era per i Romani il primo dell’anno e cadeva a primavera, intorno all’equinozio. È proba24. È Macrobio, filosofo e scrittore romano vissuto tra il IV e V sec. d.C., a descrivere il calendario romuleo, e poi quello riformato, nei suoi Saturnalia, opera in sette libri in forma di dialogo, dove sono narrati molti aspetti della vita quotidiana dei Romani, con riferimenti storici alla nascita di molte tradizioni. Nel Libro I, 12 dei Saturnalia, Macrobio parla delle origini del calendario romano. Interessante, tra le altre cose, la sua dissertazione sull’etimologia del nome aprile, di cui alla sua epoca si facevano solo congetture. Macrobio riporta due interpretazioni diverse: una che fa risalire il nome del mese alla medesima radice di Afrodite (per cui anticamente il nome del mese si sarebbe pronunciato con un’aspirazione tra la p e la r, quasi fosse “aphrilis”); l’altra che trova la radice nel verbo “aperire”, aprire, perché ad aprile la natura rifiorisce, rinasce dopo l’inverno e tutto il mondo si “apre” a una nuova vita e a un nuovo ciclo.
43
Il tempo è atomico
bile, quindi, che arrivati alla fine del mese di december i Romani smettessero semplicemente di contare i giorni e di attribuirli a un mese, fino all’inizio del nuovo anno. Applicando questo accorgimento, avrebbero anche trovato un sistema funzionale per far combaciare l’anno lunare con quello solare.
Le nundinae I 304 giorni dell’anno romuleo avevano anche un altro senso pratico. La vita di Roma era infatti organizzata secondo le nundinae, un ciclo di otto giorni che scandiva tutte le attività, proprio come per noi la settimana. Il numero 304 è un multiplo perfetto di 8, quindi è evidente che la durata dell’anno di Roma era in stretto rapporto con le nundinae che, a loro volta, scandivano l’attività lavorativa di Roma e delle campagne circostanti. Siccome nel periodo più freddo dell’anno, tra dicembre e febbraio, l’attività nei campi rallenta, l’ipotesi di alcuni è che i giorni dell’anno venissero contati con le nundinae finché poteva esserci un raccolto e, quindi, lavoro. I 61 giorni tra la fine di dicembre e l’inizio del nuovo anno, a marzo, semplicemente non venivano conteggiati né attribuiti ad alcun mese specifico, come abbiamo già detto. Le nundinae erano importantissime, perché tra i loro otto giorni veniva fissato, a inizio anno, quello di mercato, che restava fisso fino all’inizio dell’anno successivo. Il giorno di mercato era quello in cui i contadini si muovevano dalla campagna per vendere i loro prodotti in città e in cui, a loro volta, si procuravano generi di prima necessità per il proprio sostentamento. I giorni delle nundinae venivano segnati sul calendario con le lettere da A a H. Il nome di questa “settimana” di otto giorni deriva dal metodo particolare che avevano i Romani di calcolare il fluire del tempo. La loro abitudine era di conteggiare i giorni che mancavano a una determinata data. Facendo il conto dal primo giorno di un ciclo nundinale, il ciclo successivo avrebbe avuto
44
I calendari
luogo da lì a partire dal nono giorno successivo. I Romani consideravano quindi le nundinae cicli di nove giorni, nel senso che iniziavano ogni nono giorno. La parola nundinae deriva infatti dall’unione dei due vocaboli latini nonum (nono) e dies (giorno).
I fasti I giorni di mercato erano un momento chiave della vita dei Romani e condizionavano anche la definizione del calendario: farli cadere in date particolari, come l’inizio dell’anno, era infatti considerato infausto. I Romani, tra l’altro, definivano fasti quello che noi oggi chiamiamo calendario, usando, per estensione, il termine con cui indicavano i giorni di lavoro. In origine, i giorni fasti erano infatti quelli in cui era permesso (fas) trattare affari pubblici e privati. Per contrapposizione, nefasti erano i giorni in cui non si potevano trattare affari, o in cui era vietato riunire assemblee o discutere cause in tribunale. Erano giorni consacrati alle divinità e trascurarli era considerato empio. Ma c’era anche un motivo di ordine pubblico: si voleva evitare che assembramenti, o situazioni possibilmente a rischio come una condanna in tribunale, si verificassero nelle situazioni di maggior affollamento del Foro, cioè nei giorni di mercato o di celebrazione delle divinità. La collocazione dei giorni fasti e nefasti era quindi un compito molto delicato, attribuito ai pontefici, che all’inizio di ogni anno definivano e pubblicavano il calendario. Tutta la questione era presa terribilmente sul serio dai Romani e lo fu per tutta la storia dell’Urbe, dalla monarchia alla fine dell’Impero. Il poeta Ovidio progettò anche una grande opera poetica, i Fasti, in cui intendeva spiegare l’origine delle tante feste e tradizioni che venivano celebrate in età imperiale, all’epoca di Augusto, ma di cui si erano perse le motivazioni iniziali. Previsti in 12 libri, uno per mese, i Fasti ci sono giunti compiuti a metà. Ovidio non poté mai terminarli: giunto al sesto libro
45
Il tempo è atomico
fu esiliato in un’oscura località sul Mar Nero per un misterioso sgarbo da lui compiuto nei confronti dell’imperatore Augusto.25 Il termine calendarium era invece usato dai Romani per definire il registro contabile, perché il primo giorno di ogni mese, cioè le calendae, era anche quello in cui si concedevano i prestiti e si esigeva il pagamento degli interessi. Soltanto nel Medioevo, Isidoro di Siviglia, santo ed enciclopedico vissuto tra il VI e il VII secolo d.C., iniziò a usare il termine con l’accezione che tutti noi gli riconosciamo oggi.26
Il calendario di Numa, o calendario repubblicano A un certo punto, però, i Romani sentirono l’esigenza di riformare il proprio calendario. Secondo la tradizione il compito fu assolto da Numa Pompilio, mitico re, considerato un grande riformatore e un filosofo con una forte inclinazione per il pitagorismo e per i numeri. In realtà il nuovo calendario fu successivo all’avvento della Repubblica, nel 509 a.C., che per oltre quattro secoli fu la forma di governo scelta dal popolo di Roma e sotto la quale la città crebbe fino a diventare una vera e propria metropoli. Il nuovo calendario introdusse due mesi, gennaio e febbraio (ianuarium e februarium), rispettivamente di 29 e 28 giorni, e portò il conto totale dei giorni a 355. Questo comportò anche una revisione della lunghezza di tutti gli altri mesi. Quelli di 30 giorni vennero tutti ridotti a 29, mentre quelli di 31 giorni non vennero toccati. Chi però guardasse a quella riforma con occhio astronomico o matematico troverebbe non poche incongruenze 25. Ovidio fa riferimento a un carmen et error come alla causa del suo esilio, una poesia e un errore. Che cosa avesse compiuto in realtà nei confronti di Augusto non è mai stato scoperto. 26. Lo spiega lo storico tedesco Jörg Rüpke nel primo capitolo del suo libro Kalender und Öffentlichkeit: Die Geschichte der Repräsentation und religiösen Qualifikation von Ziet in Rom, Walter de Gruyter GmbH & Co. KG, 1995. Del volume esiste anche una traduzione in inglese, uscita nel 2011 edita da Wiley-Blackwell, intitolata The Roman Calendar from Numa to Constantine – Time, History and the Fasti.
46
I calendari
e ben poco “pitagorismo”. Per esempio, la lunghezza dei mesi non aveva più una corrispondenza con i cicli lunari e i 355 giorni dell’anno erano uno in più dell’anno lunare. Il fatto è che i Romani davano un valore simbolico ai numeri e consideravano quelli dispari fausti e quelli pari infausti. Quindi cercarono di organizzare anche il tempo di conseguenza: facendo sì che i mesi si concludessero con un giorno dispari, avrebbero avuto più giorni di questo tipo nel calendario e, quindi, più giorni propizi nell’arco dell’anno. L’unica eccezione era il mese di febbraio, l’ultimo dell’anno, che proprio per la sua lunghezza di 28 giorni fu considerato sfortunato e destinato alle celebrazioni dell’oltretomba. Soltanto nel 153 a.C., l’inizio dell’anno fu fissato a gennaio. Il cambiamento coincise con l’elezione a console di Quinto Fulvio Nobiliore, che doveva fronteggiare la rivolta dei Celtiberi in Spagna. A quell’epoca i consoli venivano eletti a dicembre, ma entravano in carica alle idi di marzo, in corrispondenza con l’equinozio. A causa della situazione politica, il console designato chiese di assumere l’incarico prima, all’inizio di gennaio, per partire subito con una spedizione militare verso la penisola iberica. Il senato romano gli concesse la deroga, che poi divenne una consuetudine e fissò al primo gennaio la data del capodanno, come lo celebriamo ancora oggi. L’anno repubblicano era sfasato rispetto a quello lunare, ma ancora di più rispetto a quello solare e per questo si rese necessario introdurre di tanto in tanto un mese di compensazione, per riportare l’inizio dell’anno a marzo in concomitanza con l’equinozio di primavera. Il mese usato come “riempitivo” veniva definito mercedonius o intercalaris, e la sua durata e cadenza erano decise dai pontefici. Quando si adottava l’intercalaris, febbraio durava 5 giorni in meno, veniva portato a 23 giorni, e al suo termine si inseriva il nuovo mese, che poteva avere a sua volta una lunghezza di 27 o 28 giorni. Il concetto era, in un quadriennio,
47
Il tempo è atomico
di avere due anni di 12 mesi e due di 13, con il mese intercalare, per giungere a un totale di 1.465 giorni, circa 4 in più rispetto a un quadriennio solare (che dura 1.460,969 giorni). Ma lo schema fu seguito di rado. I pontefici, che avevano il compito e il potere di regolare il calendario, spesso utilizzavano l’intercalaris come strumento politico, per prolungare o accorciare, secondo la loro convenienza, il periodo di governo dei consoli. Bisogna infatti ricordare che, nell’ordinamento della Roma repubblicana, il massimo potere di governo e militare era attribuito a una coppia di consoli che restavano in carica un anno. I consoli davano il nome all’anno in cui governavano, tanto che la cronologia di Roma, per quasi tutto il periodo repubblicano, non fu scandita da una numerazione, ma proprio dai nomi dei consoli in carica. Soltanto verso la fine della Repubblica si prese a contare gli anni ab Urbe condita, cioè dall’anno di fondazione della città. Anche a Roma venne quindi a crearsi una situazione simile a quella di Atene: il potere politico, detenuto dai consoli, si trovava contrapposto a quello del pontifex maximus, la massima carica religiosa, che si serviva dei fasti, cioè del calendario, per interferire in una sfera, quella consolare, dove in teoria non avrebbe dovuto avere alcun potere. Il controllo del tempo, proprio come ad Atene e, come abbiamo visto, anche ai tempi delle elezioni dell’Oxfordshire, era un’arma potente. Non c’è da stupirsi, quindi, se Giulio Cesare, quando assunse il potere a Roma, nel 49 a.C. con il titolo di dittatore (prima temporaneo e poi definitivo), come prima cosa attuò due riforme: l’unificazione nella sua persona delle cariche di pontefice massimo e di console, ponendo fine al contrasto tra potere politico e religioso, e la revisione del calendario. Il calendario giuliano che ne scaturì fu adottato per oltre 15 secoli prima di dover essere a sua volta riformato nel calendario gregoriano, che ora è in uso in tutto il mondo.
48
I calendari
Calende, none e idi Ma prima di vedere come fosse strutturato il calendario giuliano, dobbiamo capire come funzionava il mese dei Romani, che era concepito in modo completamente diverso dal nostro. Bisogna infatti fare uno sforzo di fantasia e tornare indietro di oltre 2.000 anni per spiegarci perché a Roma i giorni del mese fossero contati in un modo così strano. All’epoca non esistevano tv, radio, giornali o altri mezzi di comunicazione. Le uniche fonti di notizie erano gli avvisi affissi nel Foro, il fulcro della vita e degli affari di Roma. Qui venivano esposti ogni anno anche i fasti, perché ognuno ne prendesse nota e regolasse di conseguenza tutte le proprie attività nell’anno a venire. Mancando una regola fissa per la successione dei mesi, che a volte erano 12 e a volte 13, in assenza di un’informazione quotidiana e con un ritmo di vita scandito dai cicli nundinali, e non dalle ore o dai minuti come avviene oggi, per i Romani un singolo giorno non aveva una così grande importanza. Non avevano tutto questo interesse a distinguere in maniera precisa il 2 marzo dal 3 marzo o il 20 settembre dal 21 settembre. Quello che contavano erano i cicli della natura e del lavoro. In ogni mese c’erano in sostanza tre giorni che avevano un’importanza chiave e che regolavano l’attività di tutti gli altri: l’inizio del mese, che chiamavano calende; il giorno del primo quarto di luna, cioè le none, e il giorno della luna piena, le idi. Questo almeno anticamente, perché poi, quando il loro calendario smise di seguire con precisione i cicli lunari, le none e le calende furono fissate secondo una regola aritmetica più che astronomica. Nei mesi più lunghi, quelli di 31 giorni (marzo, maggio, luglio e ottobre), le none cadevano il settimo giorno del mese e le idi il quindicesimo; nei mesi più corti, di 29 e 28 giorni (gennaio, febbraio, aprile, giugno, agosto, settembre, novembre e dicembre), le none cadevano il quinto giorno e le idi il tredicesimo.
49
Il tempo è atomico
Tutti gli altri giorni venivano conteggiati in riferimento a questi tre. In che modo? Prendiamo come esempio novembre, mese di 30 giorni, in cui le none erano previste il giorno 5 e le idi il giorno 13. Per i Romani, quindi, il 2 novembre era “il giorno dopo le calende”, il 3 era il “terzo giorno prima delle none di novembre” e così via sino alle none. Il 6 novembre era “il giorno dopo le none di novembre”, mentre il 7 era “il settimo giorno prima delle idi di novembre” e così via, a scalare, fino alle idi, appunto. Dopo le idi il “conto alla rovescia” veniva fatto con riferimento alle calende del mese successivo. Quindi, il 14 novembre era “il diciassettesimo giorno prima delle calende di dicembre” e così via, fino alla fine del mese. Nel calcolare i giorni mancanti a none, idi e calende, i Romani usavano il sistema che abbiamo già visto per le nundine. Contavano cioè un giorno in più: non dicevano “siamo 6 giorni prima delle calende di dicembre”, ma “siamo nel settimo giorno prima delle calende di dicembre”. Questo metodo di calcolo ha una certa importanza, come vedremo, anche per uno specifico aspetto del calendario di Giulio Cesare.
La riforma del calendario di Giulio Cesare Quando il dittatore assunse il potere, il computo del tempo a Roma era nel caos. Lo sfasamento era tale che le feste di Autumnalia si celebravano a primavera e i giorni sacri di ringraziamento per il raccolto cadevano in pieno inverno. Urgeva un rimedio e, per metterlo a punto, Giulio Cesare volle gli studiosi più apprezzati dell’epoca. Tra questi, sembra che quello che esercitò la maggiore influenza sul potentissimo padrone di Roma sia stato Sosigene di Alessandria, astronomo eruditissimo, probabilmente alla corte della regina Cleopatra. Secondo i calcoli di Sosigene, l’anno solare aveva un durata di esattamente 365 giorni e 6 ore. Il calen-
50
I calendari
dario giuliano fu così basato su un anno di 365 giorni di 12 mesi, eliminando l’uso del mese intercalare e allungando l’anno di ben 10 giorni. Dal momento che il conto era in difetto di 6 ore, ogni 4 anni si rendeva necessario aggiungere un giorno, portando il conteggio totale a 366. Questo giorno aggiuntivo fu inserito nel mese di febbraio esattamente dove, nel calendario precedente, veniva introdotto il mese intercalare. Il giorno in questione era il sesto prima delle calende di marzo. Negli anni con 366 giorni, quindi, dopo il sesto giorno prima delle calende di marzo veniva aggiunto un giorno bis sextus ante calendas martii. Da qui l’abitudine di chiamare “bisestili” questi anni particolari. Per portare l’anno da 355 a 365 giorni si dovette anche porre mano alla lunghezza dei mesi, in un modo molto semplice: quelli di 31 giorni rimasero invariati (marzo, maggio, quintilis e ottobre). Di quelli di 29 giorni, tre furono allungati di 2 giorni per arrivare a 31 (gennaio, sextilis e dicembre) e gli altri quattro di un solo giorno per arrivare a 30 (aprile, giugno, settembre e novembre). Di febbraio abbiamo già detto: durava 28 giorni negli anni “normali” e 29 in quelli bisestili. La riforma del calendario da parte di Giulio Cesare fu compiuta e promulgata nel 46 a.C., ma si trattava di applicarla e di recuperare tutto il ritardo rispetto all’anno solare accumulato nei secoli precedenti, che consisteva in ben 85 giorni. Cesare prescrisse quindi che il 45 a.C. fosse l’anno in cui il conteggio dovesse andare in pari: impose l’inserimento di un mese di mercedonio di 23 giorni, lasciando febbraio di 28, e dei 67 giorni rimanenti fece altri due mesi, che furono intercalati tra quelli di novembre e di dicembre. In tutto, quindi, il 45 a.C. ebbe 15 mesi e durò 445 giorni.27 Gli avversari di Cesare lo chiamarono annus confusionis, l’anno della confusione, e avanzarono più di un so27. Tutto il meccanismo dell’anno di confusione e dei conteggi di Sosigene è raccontato con la massima precisione in un antico libro di François Blondel, Histoire du Calendrier Romain, del 1684.
51
Il tempo è atomico
spetto che quell’anno interminabile avesse lo scopo di assuefare il popolo di Roma al dominio di Cesare, che difatti, di lì a poco, si proclamò dittatore perpetuo. L’inizio dell’anno 44 a.C. fu fissato il primo di gennaio, otto giorni dopo il solstizio d’inverno perché, secondo quanto narrano gli storici, in quel giorno si sarebbe anche verificata la luna nuova. Marco Antonio, uno dei successori designati di Cesare (l’altro era Augusto), gli dedicò il sesto mese, mutandone il nome da quintilis in iulius, luglio, mentre nell’8 a.C. il nome di sextilis fu trasformato in augustus, in onore del grande imperatore Augusto. Nei primi anni della riforma ci fu qualche confusione, perché i pontefici inserirono gli anni bisestili ogni tre “normali” e non ogni quattro. Nei 36 anni successivi all’introduzione del calendario giuliano si aggiunsero quindi 3 anni bisestili in più rispetto a quelli previsti. Augusto si accorse del problema e per i 12 anni successivi non previde più anni bisestili, rimettendo i conti in pari. Altri imperatori, successivamente, pensarono di cambiare il nome di alcuni mesi, ma le loro riforme non presero piede. L’unica sostanziale modifica che venne apportata al sistema di computo del tempo dei Romani dopo Giulio Cesare è da ascrivere all’imperatore Costantino, di cui è nota la conversione al Cristianesimo. In un decreto del 321, l’imperatore cancellò l’impiego delle nundinae e rese ufficiale la settimana di sette giorni, disponendo che la domenica fosse un giorno festivo dedicato al culto. Il provvedimento rendeva ufficiale una consuetudine già consolidata dal I secolo a.C., ma che fino ad allora non era riconosciuta.
Il calendario dei Maya Pochi calendari antichi hanno avuto un momento di celebrità così intenso nell’epoca contemporanea come è accaduto per il
52
I calendari
calendario dei Maya nel 2012. Il tormentone mediatico che lo ha riguardato era legato a un’oscura profezia, secondo la quale il mondo, per il popolo centroamericano, sarebbe finito il 23 dicembre 2012. In realtà, di tutto si trattava fuorché di una profezia o di un annuncio della fine del mondo. Quella data emerge dal complesso sistema di computo del tempo sviluppato dal popolo centroamericano come un giorno di rigenerazione, in cui un’epoca sarebbe finita e un’altra sarebbe cominciata. Tutto nasce dal fatto che i Maya, e probabilmente già altri popoli loro predecessori come Toltechi e Olmechi, avevano sviluppato un doppio calendario, basato sui cicli di due astri che per loro avevano un significato particolare: Venere e il Sole, che governa tutte le attività umane. I due calendari dei Maya erano denominati tzolkin e haab. Lo tzolkin era di 260 giorni, suddiviso in 13 periodi, chiamati uinal, di 20 giorni l’uno, assimilabili per certi versi alla nostra settimana perché nel loro corso i giorni avevano tutti un nome diverso. L’haab era di 360 giorni, suddivisi in 18 mesi da 20 giorni, cui si aggiungevano altri 5 giorni, chiamati uayeb, considerati un periodo infausto e portatore di sventure. Il sistema preferito dai Maya era lo tzolkin, probabilmente perché rispecchiava perfettamente, senza la necessità di aggiungere periodi aggiuntivi come lo uayeb, il sistema di numerazione in base 20, tipico della loro cultura. Il perché di questo uso non è stato mai chiarito fino in fondo. La spiegazione più probabile è che i Maya contassero usando le dita delle mani e dei piedi. Certo, un anno di 260 giorni sembra avere pochi riscontri con il susseguirsi delle stagioni o con altri fenomeni facilmente misurabili. Alcuni archeoastronomi si sono però accorti che il periodo tra le elongazioni massime di Venere, cioè i punti in cui il pianeta appare più lontano dal Sole, nel nostro cielo, è di 584 giorni, suddivisi in due periodi di 260 giorni, intervallati a loro
53
Il tempo è atomico
volta da altri due periodi di 32 giorni in cui il pianeta non è visibile perché si trova dietro o davanti al Sole.28 L’anno haab, invece, era considerato secondario rispetto allo tzolkin, ma era importante comunque, perché sincronizzato con il ciclo solare. I 18 mesi da 20 giorni componevano un periodo detto tun che era considerato l’anno vero e proprio, a cui si aggiungevano i temuti 5 giorni finali dell’uayeb. Una “decade” di haab, che per i Maya raggruppava 20 anni, costituiva un ciclo di tempo più lungo, denominato katun. I Maya avevano del resto un’irresistibile tendenza a organizzare il loro sistema di computo del tempo in grandi periodi, combinando i cicli più brevi in sistemi più lunghi. Considerando infatti entrambi i loro calendari, i Maya fecero molto in fretta a calcolare che uno tzolkin e un haab si sarebbero trovati a iniziare nello stesso giorno dopo un ciclo di 18.980 giorni, che è il minimo comune multiplo di 260 (i giorni dello tzolkin) e di 365 (i giorni dell’haab). Questo ciclo di 52 anni, o calendario circolare, era considerato dai Maya l’unità di base di cicli molto più ampi, di secoli e millenni, in cui periodi di prosperità si sarebbero alternati ad altri di distruzione. Ogni 52 anni si riproponeva nel mondo Maya uno stato di profonda e ansiosa aspettativa, simile a quella che per la nostra civiltà si è verificata a ogni volgere di millennio, nel 1.000 e nel 2.000 d.C. Un altro momento cruciale per i Maya cadeva al termine dei katun, cioè ogni circa 20 anni (7.200 giorni, il ciclo comprendeva infatti 20 tun ed escludeva i 5 giorni degli uayeb). A loro volta, 20 katun componevano un ulteriore ciclo più ampio di circa 144.000 28. Secondo l’astronomo inglese Bryan E. Penprase, che ha di recente scritto un interessante libro su come l’osservazione delle stelle abbia contraddistinto lo sviluppo delle civiltà (The Power of Stars, Springer, 2011), dal momento che la principale divinità Maya, Quetzalcoatl, era associata a Venere, è altamente probabile che i sacerdoti guardassero con particolare attenzione ai movimenti del pianeta nel nostro cielo e gli dessero un’importanza primaria, ancor più del Sole, nello scandire i ritmi della loro vita. Secondo altri, il ciclo di 260 giorni dello tzolkin ricalcherebbe invece la durata della gestazione di un bambino, circa 9 mesi.
54
I calendari
giorni, o 394 anni, detto baktun. I baktun erano la base di quello che i Maya chiamavano Conto Lungo, che costituiva il riferimento all’interno del quale ogni giorno trovava una collocazione o data precisa. Per spiegare meglio, mentre noi calcoliamo semplicemente gli anni dalla morte di Cristo per esprimere una data, i Maya la esprimevano nel Conto Lungo indicando il numero di baktun, katun, tun, giorni e il giorno preciso all’interno dello tzolkin. Ovviamente, tutto questo conteggio doveva partire da una data 0, un giorno iniziale che, nella cosmologia Maya, era stato fissato in una data corrispondente al 13 agosto 3114 a.C. Si tratta probabilmente di una data che deriva da un semplice calcolo aritmetico fatto dai sacerdoti Maya, perché la civiltà non era così antica: i primi reperti a loro sicuramente attribuibili risalgono infatti soltanto al 114 a.C. Sempre secondo la simbologia Maya, il mondo è articolato in epoche che si concludono ogni 13 baktun, cioè ogni 5.200 anni. Nel momento in cui la lancetta del Conto Lungo fosse scattata sul numero 13, con tutti gli altri valori (dei katun, dei tun e dei giorni) pari a zero, allora sarebbe dovuto succedere qualcosa di molto importante. Un rinnovamento profondo e generale di tutto l’universo. Per quanto i Maya non abbiano mai specificato che cosa di preciso avrebbe dovuto succedere alla fine del Conto Lungo, alcuni hanno pensato alla fine del mondo. E, partendo dalla data iniziale del 13 agosto 3114 a.C., il compimento del ciclo avrebbe dovuto verificarsi il 23 dicembre 2012. Ecco spiegato il mito del calendario Maya.
Il calendario gregoriano Facciamo ora un altro salto nel tempo e nello spazio e ritorniamo in Europa, nel XVI secolo. Da 1.500 anni ormai era in uso il calendario voluto da Giulio Cesare. Con non pochi problemi; il calendario giuliano aveva infatti un difetto che si portava dietro
55
Il tempo è atomico
dal suo primo concepimento: non rispecchiava esattamente la durata dell’anno solare. Accumulava ogni anno un errore di 11 minuti e 14 secondi che, sommandosi, ogni 128 anni produceva un giorno di scarto. Per i tempi in cui fu adottato, tutto sommato, non si trattava di uno sfasamento troppo accentuato, ma su un periodo lungo di alcuni secoli, lo scostamento si sarebbe fatto via via più sensibile. Non fu però tanto un’esigenza legata alle attività umane, quanto piuttosto un’urgenza di matrice religiosa a portare all’introduzione del sistema che utilizziamo ancora oggi, il calendario gregoriano. Il nome deriva da papa Gregorio XIII, al secolo Ugo Boncompagni, che sedette sul soglio di Pietro dal 1572 al 1585. Eletto dopo un conclave di meno di 24 ore, Gregorio XIII si trovò investito di un compito delicatissimo: doveva infatti completare l’attuazione delle decisioni prese dal Concilio di Trento, la lunghissima fase di discussioni, durata dal 1545 al 1563, con cui la Chiesa cattolica affrontò il problema della Riforma luterana. Le spinte scismatiche della dottrina di Lutero mettevano a rischio l’esistenza stessa della Chiesa di Roma ed era quindi urgente un risposta pronta e decisa: già troppo tempo si era perso in concertazioni, bisognava passare all’azione. Dal Concilio di Trento erano scaturite le basi della Controriforma, la risposta del papato ai tentativi di scissione e di delegittimazione dei Protestanti ma anche degli Ortodossi. Tra i tanti provvedimenti in materia dottrinaria, uno in particolare riguardò il calendario. Il problema non concerneva tanto la reale durata dell’anno o la sua corrispondenza con i cicli solari, ma la definizione di una regola esatta per stabilire quando doveva essere celebrata la Pasqua e tutte le feste che da questa conseguivano. La questione non era di secondaria importanza, perché imporre una norma precisa avrebbe posto fine a una situazione caotica, nella quale il ruolo della Chiesa cattolica rischiava di essere disconosciuto.
56
I calendari
La regola fino ad allora seguita dalla Chiesa si rifaceva alle decisioni del Concilio di Nicea, del 325, e si basava sul fatto che Cristo subì Passione e morte e poi risorse in concomitanza con la Pasqua ebraica. Siccome il calendario ebraico si basava su un ciclo lunare, la data della Pasqua, trasposta nel calendario giuliano, variava ogni anno. Ma la Chiesa non poteva ammettere che la celebrazione del Cristo fosse legata a una decisione presa da sacerdoti ebrei, quindi al Concilio di Nicea si decise di legare la Pasqua all’equinozio di primavera, fissato il 21 marzo, cioè a un evento astronomico strettamente connesso al calendario solare giuliano. Da allora in avanti, stabilì il Concilio, la Pasqua sarebbe caduta la prima domenica successiva al primo plenilunio dopo l’equinozio di primavera. Ma già nel 325 ci si era accorti che il calendario giuliano non rispettava la lunghezza esatta dell’anno solare. L’equinozio di primavera, infatti, sotto Cesare veniva celebrato il 25 marzo, mentre a Nicea era stato anticipato di 4 giorni. All’epoca di Gregorio XIII la discrepanza si era fatta ancora maggiore ed era di ormai di 10 giorni. Il 21 marzo del calendario giuliano non era più una data in rapporto con l’equinozio di primavera e questo aveva portato alcune chiese scissioniste, a partire da quelle orientali, a trovare sistemi di aggiustamento propri, con il risultato che ogni anno venivano proclamate più date diverse per la celebrazione della Pasqua. Il Concilio di Trento stabilì che il calendario fosse modificato, correggendo l’errore di calcolo dell’anno solare, in modo da riportare in modo stabile e definitivo l’equinozio di primavera al 21 di marzo. Per assolvere a questo compito, papa Gregorio XIII costituì una commissione in cui emerse la personalità di un matematico di origini calabresi, Luigi Lilio (Aloisius Lylius). Figura oscura, di cui pochissimo è arrivato ai giorni nostri, Lilio doveva comunque essere tenuto in altissima considerazione se l’autorità più
57
Il tempo è atomico
alta a quel tempo, il Papa, era arrivato ad affidargli un incarico così delicato. Lilio, con estrema precisione per l’epoca, aveva valutato la durata dell’anno solare in 365,2425 giorni, stabilendo quindi che il calendario giuliano, di 365,25 giorni, era più lungo di quello solare di 0,0075 giorni, cioè di 3/400 di giorno. Il calendario giuliano guadagnava, di conseguenza, 3 giorni ogni 400 anni e bisognava quindi trovare un sistema per ovviare al problema. Per farlo, Lilio pensò che la cosa più semplice era agire sugli anni bisestili e propose a questo riguardo di considerare, nel ciclo di 4 secoli, soltanto i 4 anni secolari, cioè quelli di inizio secolo. Propose, limitatamente a questi anni, che soltanto quelli divisibili per 400 fossero bisestili e tutti gli altri fossero invece anni di 365 giorni. Quindi, nei 400 anni tra il 1601 e il 2000, soltanto quest’ultimo sarebbe stato bisestile, mentre gli anni 1700, 1800 e 1900 avrebbero avuto 365 giorni, nonostante, secondo la regola precedente del calendario giuliano, avrebbero dovuto essere anch’essi bisestili. Il risultato, con questo semplice escamotage, è un anno di appena 26 secondi più lungo di quello solare. Un errore che provoca lo sfasamento di un giorno ogni 3.323 anni. Entrato in vigore nel 1582, il calendario gregoriano provocherà quindi una discrepanza di un giorno nell’anno 4905. Non solo, la regola dei 400 anni fa sì che dopo un tale periodo di tempo i calendari si ripetano assolutamente identici: l’anno 1600 e il 2000 sono iniziati lo stesso giorno della settimana, con la medesima sequenza di date e di giorni, e così sono stati uguali il 1601 e il 2001, il 1602 e il 2002. E il ciclo si ripeterà in modo esattamente sovrapposto dal 2400 in poi. Il calendario gregoriano fu posto in vigore nel 1582, attuando un salto di dieci giorni nella notte tra il 4 e il 5 ottobre. In altre parole, chi andò a dormire il 4 ottobre del 1582 si risvegliò la mattina del 15 ottobre. L’adozione fu immediata in tutti i Paesi ad ampia maggioranza cattolica, e cioè Italia, Francia, Spagna,
58
I calendari
Portogallo, Polonia-Lituania, Belgio, Olanda e Lussemburgo. Siccome però la riforma assumeva un forte valore politico-religioso, laddove l’autorità della Chiesa Cattolica era posta in discussione si aspettò a modificare il calendario. E così l’Austria aderì solo alla fine del 1583, Boemia, Moravia e cantoni cattolici della Svizzera a inizio 1584. I Paesi luterani, calvinisti e anglicani attesero fino al XVIII secolo per passare al calendario gregoriano, come abbiamo visto, per esempio, nel caso delle elezioni dell’Oxfordshire. Non mancarono casi confusi, come quello della Svezia, che decise di adottare il nuovo calendario nel 1699 ma senza compiere la transizione tutta in una volta. Si pensò invece di eliminare tutti gli anni bisestili dal 1700 al 1740, recuperando così i 10 giorni di sfasamento. Ma già dal 1704 ci si dimenticò di applicare la regola, così alla fine in Svezia non si passò al calendario gregoriano, ma le date non coincidevano neppure con quello giuliano. Per questo, nel 1712 si decise di aggiungere un giorno a febbraio per tornare al vecchio computo del tempo. Il febbraio svedese del 1712 fu l’unico della storia con 30 giorni. Altre adesioni ritardate al calendario gregoriano furono quelle dell’Unione Sovietica, che lo ratificò nel 1918. Questo vuol dire che la Rivoluzione d’Ottobre del 1917, avvenuta il 24 ottobre del calendario giuliano, si è invece verificata il 5 novembre del calendario gregoriano. In Grecia il passaggio avvenne nel 1923, ma la Chiesa Ortodossa continua ancora a stabilire le proprie festività e celebrazioni basandosi sul calendario giuliano.
Dopo il calendario giuliano, la ricerca dell’anno perfetto Con l’adozione del calendario gregoriano, estesasi a tutto il pianeta nel XX secolo, l’umanità ha trovato un modo stabile e condiviso per sincronizzare le proprie attività al ciclo solare, e in particolare alla successione delle stagioni, cui tutta la nostra
59
Il tempo è atomico
esistenza è intimamente legata. Il calendario gregoriano rappresenta una soluzione talmente funzionale a questo problema che tutti i tentativi successivi di miglioramento e modifica non hanno avuto successo. Del resto, tutte le proposte di riforma del sistema gregoriano avrebbero inciso in maniera impercettibile sul computo del tempo ed erano dettate più da motivi politici che da ragioni scientifiche. Il calendario rivoluzionario francese, per esempio, utilizzato in Francia dal 24 ottobre 1793 al primo gennaio 1806, e poi ancora durante la Comune di Parigi nel 1871, aveva essenzialmente lo scopo di eliminare ogni riferimento religioso dal computo dei giorni. I nomi dei mesi erano quindi completamente diversi da quelli tradizionali,29 la loro durata fissata in 30 giorni, con cinque giorni (sei negli anni bisestili) posizionati a fine anno, che in realtà cadeva tra il 20 e il 24 settembre del calendario gregoriano. Questi giorni, chiamati Sanculottidi, erano dedicati alla virtù, al genio, al lavoro, all’opinione, alle ricompense e, solo negli anni bisestili, alla rivoluzione. Veniva soppressa anche la settimana, per lasciare spazio a una scansione del tempo basata sul sistema decimale. I mesi erano suddivisi in tre decadi, con soltanto un giorno e mezzo di riposo, e a sua volta il giorno era articolato in 10 ore di 100 minuti da 100 secondi ciascuno. Il secondo, quindi, era un centomillesimo del giorno solare medio ed equivaleva a 0,864 secondi sessagesimali (quelli attualmente in uso). L’inizio dell’anno era fissato alle ore 0 del meridiano di Parigi nel giorno dell’equinozio d’autunno. Alla progettazione del calendario della rivoluzione parteciparono alcune tra le più belle menti della 29. I nomi dei mesi del calendario rivoluzionario francese si distinguevano anche per il suffisso che utilizzavano, comune ai mesi di una stessa stagione. In autunno, per esempio, il suffisso usato era -aire, -aio in italiano, per cui i tre mesi della stagione si chiamavano vendemmiaio (vendémiaire), brumaio (brumaire ) e frimaio (frimaire). L’inverno aveva i tre mesi di nevoso (nivôse), piovoso (pluviôse) e ventoso (ventôse); primavera i mesi di germinale (germinal), fiorile (floréal) e pratile (prairial). E infine l’estate aveva i mesi di messidoro (messidor), termidoro (thermidor) e fruttidoro (fructidor).
60
I calendari
Francia, ma il risultato non fu altro che una proposta bizzarra, messa nel cassetto da Napoleone che, dal primo gennaio 1806, ripristinò il calendario gregoriano. Un altro tentativo di modifica e razionalizzazione del calendario gregoriano è da ascrivere all’abate italiano Marco Mastrofini e risale al 1834.30 La sua proposta è stata ripresa in seguito nel 1930 da Elisabeth Achelis, l’ardente propugnatrice newyorchese del calendario mondiale o universale, detto anche calendario perpetuo perché è organizzato in modo che la successione di giorni sia sempre identica ogni anno, con quattro trimestri che si concludono tutti di sabato e iniziano di domenica. Perché ciò avvenga, il calendario è strutturato in modo tale che i quattro trimestri siano della stessa lunghezza, con il primo mese (gennaio, aprile, luglio e ottobre) di 31 giorni e tutti gli altri di 30. Alla fine di ogni anno, dopo il 30 dicembre, viene inserito un giorno intercalare, cui si aggiunge, negli anni bisestili, un secondo giorno intercalare dopo il 30 giugno. Ancora oggi è attiva l’Associazione Internazionale del Calendario Mondiale, fondata dalla Achelis, che richiede l’adozione di questo sistema.31 Per esempio, un anno proposto per il cambiamento è il 2017, perché il 2016 finirà di sabato, incastrandosi perfettamente con l’inizio dell’anno universale che parte di domenica. Altre proposte, come quella dell’astronomo e matematico inglese John Herschel di non considerare bisestili gli anni multipli di 4.000, in modo da ridurre l’errore del calendario a una media di 4 secondi l’anno, non hanno trovato fortuna. Lo stesso Herschel, il cui nome completo era John Frederick William Herschel, figlio d’arte perché anche suo padre era un astronomo, ebbe fortuna invece nel proporre un’altra innova30. La proposta dell’abate Marco Mastrofini è esposta nel volume Amplissimi frutti da raccogliersi ancora sul calendario gregoriano perpetuo, Roma, Tipografia delle Belle Arti, 1834. 31. Chi voglia saperne di più può consultare il sito web dell’associazione Internazionale del Calendario Mondiale, www.theworldcalendar.org.
61
Il tempo è atomico
zione e cioè l’adozione di quello che definì il “giorno giuliano” per sincronizzare le date storiche, computate secondo calendari diversi, in un unico sistema di conteggio del tempo. La sua preoccupazione era soprattutto quella di un astronomo che, lavorando sulla cronologia di eventi celesti importanti, come per esempio la comparsa nei cieli di una supernova, aveva la necessità di capire esattamente in quale anno l’evento si fosse verificato, indipendentemente dal fatto che a registrarlo fossero stati astronomi babilonesi, egizi, romani o cinesi. Herschel considerò la proposta, fatta ai tempi della prima adozione del calendario gregoriano dal matematico francese Giuseppe Scaligero, di unire tra loro tre lunghi cicli temporali per creare un unico grande “macrociclo” capace di abbracciare tutto il periodo storico in un’unica serie di giorni. Scaligero proponeva di intrecciare tra loro tre cicli di tempo. Il primo è quello di 15 anni del ciclo delle indizioni, che era usato nell’antica Roma e nei Paesi di diritto romano per dare una cadenza a determinate imposte e alla registrazione di documenti legali e fiscali. Per convenzione, si considera l’anno 3 d.C. come quello iniziale della prima indizione. Il secondo ciclo considerato è quello metonico, che abbiamo già visto, di 19 anni, dopo i quali gli anni lunari e solari tornano a iniziare nello stesso giorno. Il terzo ciclo considerato è quello solare di 28 anni, dopo il quale, nel calendario giuliano, le date corrispondevano ai giorni della settimana esattamente nello stesso modo. Moltiplicando questi tre cicli (15x19x28) si ottiene un prodotto di 7.980 anni, che sono definiti il periodo giuliano. All’interno di questo periodo i giorni si succedono indicati da un numero intero, che parte da 0. L’inizio del giorno 0 del periodo giuliano è stato fissato per convenzione a mezzogiorno del lunedì primo gennaio 4713 a.C. Lo stratagemma del mezzogiorno è utile anche per far cadere in un solo giorno del calendario, anziché in due, le osservazioni compiute in una spe-
62
I calendari
cifica notte. Sulla base del periodo giuliano, per fare un esempio, la mezzanotte del primo gennaio 2000 si esprime con il numero 2.451.544,5. Terminato il periodo giuliano di 7.980 anni (2.914.695 giorni) il conteggio riprenderà da capo. Il sistema del giorno giuliano è tuttora impiegato dagli astronomi. Esistono algoritmi per convertire le date del calendario gregoriano, ma anche quelle di altri calendari storici, nel corrispondente giorno giuliano. Tornando al tentativo di definire un calendario che rispettasse nel modo più preciso possibile la reale durata dell’anno solare, o tropico, gli studiosi a un certo punto si sono fermati, anche a fronte di un’evidenza scientifica emersa con chiarezza, alla fine dell’Ottocento, dai calcoli astronomici. Dalle osservazioni è infatti chiaro che il giorno solare non ha una durata fissa e immutabile, ma variabile a causa di una serie di fattori. Nell’ambito dello stesso anno, per esempio, la velocità di rotazione della Terra varia a seconda della sua posizione rispetto al Sole. L’orbita terrestre non è perfettamente circolare, ma ellittica, e quindi esiste un punto in cui la distanza del pianeta dal Sole è minima (il perielio) e uno in cui la distanza è massima (afelio). Quando è all’afelio, la Terra ruota su se stessa un po’ più lentamente di quando è al perielio: in questa posizione il giorno dura circa 8 secondi in meno rispetto alle 24 ore, mentre al perielio dura 7 secondi in più. Il giorno di 24 ore è quindi una media di tutte le durate che il giorno solare può avere durante l’anno.
Dall’anno al secondo La variabilità della lunghezza del giorno, e quindi del tempo di rotazione della Terra intorno al proprio asse, per quanto impercettibile ai nostri sensi, pone però un problema metodologico, che si è fatto più importante man mano che si rendeva neces-
63
Il tempo è atomico
sario avere riferimenti di tempo sempre più precisi. Se la lunghezza del giorno è variabile, infatti, anche quella dell’ora, dei minuti e dei secondi cambia di conseguenza, per quanto di una durata infinitesimale. E nel momento in cui si debba considerare la durata esatta di un secondo come frazione del giorno solare, quale giorno dell’anno bisognerebbe considerare come modello di riferimento? Gli antichi, come per esempio i Babilonesi e gli Egizi, ma in seguito anche i Romani, risolvevano il problema semplicemente suddividendo il giorno e la notte nello stesso numero di ore, che quindi assumevano una lunghezza variabile a seconda della durata del buio e della luce nell’arco di un medesimo giorno. Con il trascorrere delle stagioni, le ore notturne diventavano più lunghe d’inverno, quelle diurne più lunghe d’estate. L’ora era quindi una grandezza variabile, che aveva un senso per scandire le fasi della giornata o per spartirsi i periodi di veglia o di sentinella la notte, ma non aveva una durata costante e non era il punto di riferimento della vita quotidiana delle persone. Con il fluire dei secoli la vita dell’uomo si è “velocizzata” e le esigenze sono profondamente cambiate. Mentre infatti un tempo i cambiamenti e il ritmo delle attività, nell’arco della vita di una persona, si misuravano in mesi, se non in anni o in decenni, oggi, nella breve durata di una stessa giornata inseriamo decine di eventi, tra azioni, appuntamenti, impegni e spostamenti, che ci richiedono una misurazione del tempo sempre più precisa. Questa transizione a una vita sempre più accelerata cominciò a verificarsi nel XVIII secolo, con la comparsa delle fabbriche, quando si rese necessario calcolare esattamente quanto ciascun operaio avesse lavorato per assegnargli una paga commisurata al suo impegno. Ma fu anche dettata dall’avvento dei treni, che dovevano presentarsi nelle stazioni a una determinata ora per trovarvi i passeggeri che, a loro volta, dovevano muoversi secon-
64
I calendari
do tempi sincronizzati con quelli dei treni su cui intendevano viaggiare. Una sincronizzazione che non richiedeva più, quindi, la precisione di una settimana o di un giorno, e nemmeno di un’ora, ma che doveva restare nell’ordine di un minuto, non di più. In realtà, per gli scienziati dell’epoca, l’esigenza di un calcolo fine del tempo si era manifestata ben prima della Rivoluzione Industriale. In particolare gli astronomi, ma non solo loro, avevano bisogno di orologi precisi per seguire il percorso delle stelle e dei pianeti. Tycho Brahe, il famoso studioso danese che coniò il termine di “nova” per definire le esplosioni stellari (ne osservò una nella costellazione di Cassiopea nel 1572), possedeva nel suo osservatorio quattro orologi che indicavano anche i secondi. L’utilizzo di quattro strumenti, come lui stesso spiegava, era necessario per confrontare tra loro i tempi misurati, a causa dell’errore nel computo dei secondi che quegli orologi, per quanto fossero i più avanzati dell’epoca, producevano.32 Quando nell’Ottocento si cominciò a ragionare sulla creazione di un sistema internazionale delle misure che uniformasse le tante unità di peso, lunghezza e tempo utilizzate nel mondo, le proposte furono concordi nel considerare il secondo, la sessantesima parte di un minuto, come il punto di riferimento di base per il tempo. Stabilita su basi astronomiche la lunghezza media del giorno, il secondo fu così definito come una sua frazione: 1/86.400. La spinta all’unificazione delle misure era partita dalla Rivoluzione Francese, che aveva adottato il sistema metrico 32. Tycho Brahe scrive degli orologi del suo laboratorio nell’opera Astronomiae instauratae mechanica, del 1598, quando spiega il funzionamento di uno strumento da lui ideato per seguire il movimento degli astri, il quadrante murale. Questo strumento, che serviva a determinare con precisione l’altezza degli astri nell’istante del loro passaggio sul meridiano (da qui l’esigenza di avere una misura del tempo quanto mai precisa), fu usato a lungo dagli astronomi e fu considerato talmente importante che, nel 1795, per omaggiare Tycho Brahe, l’astronomo francese Jerôme Fortin gli dedicò una costellazione, il Quadrante Murale appunto, ora caduta in disuso e compresa nella più ampia costellazione di Boote.
65
Il tempo è atomico
decimale (e come abbiamo visto lo aveva applicato anche al calendario). Della riforma rivoluzionaria furono mantenuti i campioni del metro e del chilogrammo. Per quanto riguarda l’unità di misura del tempo fu Carl Friedriech Gauss, nel 1832, il primo a proporre il secondo come unità di misura del tempo, spalleggiato in seguito dalla comunità scientifica britannica. Ci volle tempo per trovare un accordo. Per quanto entrato ormai nell’uso comune, il secondo fu ufficialmente definito come 1/86.400 del giorno medio soltanto negli anni Quaranta del Novecento. Intanto, nel 1875 era stata sottoscritta la Convenzione del metro, che costituisce la base di tutta la moderna metrologia e che fu siglata a Parigi, in occasione della Conferenza diplomatica del metro. In quell’occasione si stabilì di istituire una Conferenza generale sui pesi e sulle misure, che doveva riunirsi ogni sei anni, un Comitato internazionale per i pesi e le misure, costituito da 18 scienziati di altrettanti paesi e un Ufficio internazionale dei pesi e delle misure, incaricato di custodire i campioni, di organizzare le conferenze e di coordinare i lavori del comitato. Mentre si discuteva sulla definizione della durata del secondo in base alla lunghezza del giorno, gli avanzamenti in campo astronomico stavano però rivelando come in realtà il giorno solare non avesse una durata precisa e costante. La rotazione della Terra intorno al proprio asse tende a rallentare nel tempo e il giorno a farsi impercettibilmente più lungo. Anche il secondo avrebbe dovuto quindi essere riconsiderato, perché rapportato al giorno medio solare non sarebbe più stato una misura fissa e univoca, ma sarebbe stato soggetto, con il passare del tempo, a un impercettibile “allungamento”. Bisognava quindi trovare una grandezza di tempo fissa, ben conosciuta e precisa, sulla base della quale ricalcolare la lunghezza esatta del secondo. Gli studiosi continuarono a cercare nei moti astronomici questa grandezza. Del resto, fino ad al-
66
I calendari
lora erano stati gli astronomi i veri “sacerdoti” della materia. Ma siccome la rotazione della Terra intorno al proprio asse è soggetta a continue variazioni era impossibile trovare un fenomeno celeste di durata sempre assolutamente identica a se stessa a cui riferirsi. La ricerca e il dibattito per trovare una grandezza temporale fissa su cui basare il calcolo del secondo durò per decenni, tra la fine del XIX secolo e la metà del XX secolo, finché si individuò una soluzione nelle effemeridi. Queste serie di dati si basano su accurate misurazioni dei moti della Terra intorno al Sole e della Luna intorno alla Terra, e sono raccolte in serie fin dalla metà del Settecento. Le effemeridi (che in realtà hanno un’origine antichissima, fin dai tempi dei babilonesi), sono in grado di definire con precisione nel futuro la posizione di ogni singolo corpo celeste basandosi sui suoi passaggi nel cielo terrestre avvenuti nel passato. Sono uno strumento molto preciso, utilizzato dagli astronomi per puntare con sicurezza i loro telescopi nel cielo esattamente nella direzione in cui si trova, minuto per minuto, l’oggetto celeste che vogliono osservare, conoscendone in anticipo la sua posizione nel cielo. In particolare, nel 1895 l’astronomo statunitense Simon Newcomb aveva pubblicato un suo lavoro, noto come le Tavole del Sole,33 in cui definiva con precisione la posizione del Sole e della Terra nel sistema solare. I dati riportati da Newcomb divennero un riferimento mondiale per tutti gli astronomi dediti all’osservazione del cielo nei primi decenni del XX secolo. Basandosi su di essi, gli esperti dell’Unione Astronomica Internazionale decisero di individuare uno specifico giorno delle effemeridi, calcolarne l’esatta durata e di proporlo come il giorno di riferimen33. Il titolo completo delle “tavole” di Newcomb era Tables of the Motion of the Earth on its Axis and Around the Sun. Si trattava di una serie di dati contenuti in un lavoro più vasto, Tables of the Four Inner Planets.
67
Il tempo è atomico
to per il calcolo del secondo. Siccome l’inizio del giorno per gli astronomi è mezzogiorno, e non mezzanotte, perché osservare la posizione del Sole a mezzogiorno è molto più semplice che non individuare quella della Luna o di una stella a mezzanotte, in astronomia gli anni non iniziano alla mezzanotte del primo gennaio, ma a mezzogiorno del giorno precedente. Per questo motivo, per non creare confusione con l’anno precedente, gli astronomi considerano l’inizio di un anno di osservazione nel giorno immaginario dello 0 gennaio. E siccome le tavole di Newcomb partivano dallo 0 gennaio 1900, si decise di prendere questo giorno come riferimento per il calcolo del secondo. Nella nuova definizione di secondo proposta sulla base delle effemeridi, quindi, l’unità di misura del tempo corrispondeva esattamente alla “frazione di 1/31.556.925,9747 dell’anno tropico per lo 0 gennaio 1900 alle ore 12 del tempo effemeride”. Di fatto non c’era nessuna variazione rispetto alla lunghezza di secondo fino ad allora considerata, cioè 1/86.400 della durata del giorno medio ma, cambiando la definizione, si “ancorava” il secondo a una grandezza fissa e immutabile, quella di un giorno storico conosciuto e misurato. Definito nel 1956 dal Comitato Internazionale sui pesi e sulle misure e ratificato ufficialmente nel 1960 dalla Conferenza generale, il secondo delle effemeridi nasceva però superato. Infatti, erano già in corso da alcuni anni gli esperimenti sugli orologi al cesio che portarono alla definizione attuale del secondo, basata su una caratteristica intrinseca della materia e, in particolare dell’atomo di cesio-133. Ci arriveremo nel prossimo capitolo, quando spiegheremo nel dettaglio la storia e lo sviluppo degli orologi atomici. Per il momento ci interessa sapere che il “tempo delle effemeridi”, come fu definito, ebbe, come sembra suggerire il suo stesso nome, una durata “effimera”. Nel 1967, la tredicesima
68
I calendari
Conferenza generale sui pesi e sulle misure adottò la definizione di secondo basata sull’atomo di cesio e quella successiva, la quattordicesima, introdusse nel 1971 il Tempo Atomico Internazionale (TAI) come scala temporale accurata e stabile sulla quale basarsi per misurare il nostro tempo.34 Nonostante l’introduzione di un tempo scientificamente preciso, il mondo però continua a definire l’ora esatta sulla base di uno standard diverso dal TAI, e cioè il Tempo Coordinato Universale (UTC), che a sua volta deriva da quello che una volta era noto come il Tempo del meridiano di Greenwich o Tempo medio di Greenwich (GMT). Il tempo di Greenwich nacque a metà del XIX secolo per definire uno standard con il quale impostare l’ora esatta in tutto l’Impero Britannico che, a quei tempi, si estendeva su territori in tutto il globo. Occorreva un punto da cui far partire il conteggio delle ore e questo fu fissato nell’osservatorio di Greenwich, la storica struttura voluta dalla Corona inglese nel XVII secolo. Su Greenwich passava il cosiddetto “meridiano Zero”, posto alla base del calcolo della longitudine e della latitudine terrestri quando, per le flotte di Sua Maestà, era un problema determinare la loro esatta posizione in mare. Ai fini della definizione dell’ora esatta, il tempo misurato a Greenwich diventava il riferimento anche per tutto il resto del mondo. Utilizzando una suddivisione in “spicchi” di tutto il pianeta si distinguevano 24 fasce che suddividono il globo in fusi orari, in cui l’ora veniva calcolata sullo scarto in più o in meno rispetto all’ora del Meridiano di Greenwich. Questo sistema, definito a livello internazionale nel 1884, fu adottato ufficialmente in Italia dal 31 ottobre 1893. 34. Una cronologia delle prime 15 conferenze generali sui pesi e sulle misure è fedelmente riportata, insieme con le decisioni più interessanti prese in ognuna, nel compendio The International system of units (UI), International Bureau of Weights and Measures, traduzione approvata per NBS, US Department of Commerce, National Bureau of Standards, Edizione 1977.
69
Il tempo è atomico
L’ora di Greenwich veniva definita in base alle osservazioni astronomiche, cioè al passaggio apparente del Sole nel cielo del meridiano di Greenwich e, quindi, l’introduzione degli orologi atomici e di un computo del tempo svincolato dall’orbita della Terra intorno al Sole, posero il problema di adeguare anche il tempo “legale” a quello realmente misurato dagli orologi atomici. Dal primo gennaio del 1972 il Tempo del Meridiano di Greenwich fu così trasformato in Tempo Coordinato Universale, UTC, che è la scala di tempo con la quale viene attualmente definito il segnale orario su cui sincronizziamo tutti i nostri orologi. Molti, per errore, parlano ancora oggi di tempo di Greenwich, perché anche con l’UTC il Meridiano di riferimento è rimasto quello che passa sopra l’osservatorio di Londra. Ma in realtà il GMT non esiste più. Anche l’UTC è calcolato dagli orologi atomici, ma in modo tale da tenere conto della reale durata degli anni solari e di eventuali variazioni della rotazione terrestre per effetti legati alla sua posizione sull’orbita di rivoluzione intorno al Sole e alle interazioni con il proprio astro e con la Luna. L’UTC cerca quindi di adattarsi alla situazione astronomica del pianeta, mentre il TAI è assoluto, preciso, segnato dall’infallibilità del tempo atomico che fluisce imperturbato, senza curarsi dei movimenti della Terra nello spazio. UTC e TAI sono quindi destinati a differire tra loro. In una risoluzione del 1975, la quindicesima Conferenza generale dei pesi e delle misure ha definito che “l’UTC differisca dal TAI per un numero intero esatto di secondi”. La differenza UTC-TAI è stata fissata, a partire dal primo gennaio 1972, in 10 secondi. Questo scarto può essere modificato mediante l’utilizzo di un secondo intercalare alla fine di un mese di UTC, con la raccomandazione di introdurlo alla fine di dicembre o di giugno e, in seconda istanza, alla fine di marzo o di settembre. Lo scopo è mantenere UTC in sincrono con la reale rotazione della Terra
70
I calendari
e della sua rivoluzione intorno al Sole, con un’approssimazione inferiore a 0,9 secondi. Esiste, in sostanza, un tempo della scienza, quello atomico, e un tempo legale, o politico, che anche per ragioni pratiche si basa sulla reale durata dell’anno solare. Di tanto in tanto sono necessarie correzioni per adeguare UTC alla variabilità dell’orbita terrestre. Da quando è entrata in vigore questa convenzione sono stati introdotti più volte dei secondi intercalari nel computo di UTC. L’ultima volta è accaduto il 30 giugno 2012. Attualmente, lo scarto tra TAI e UTC è di 35 secondi, dovuti ai 10 iniziali di differenza introdotti all’avvio del sistema nel 1972 a cui si sommano i 25 secondi intercalari inseriti in questi 40 anni e poco più. Il sistema, come si può ben immaginare, è macchinoso, e conduce a una crescente forbice tra TAI e UTC, destinata ad ampliarsi in futuro a causa del continuo rallentamento della rotazione terrestre. Si pensa che, entro un tempo non troppo lontano, si arriverà al punto di dover introdurre due secondi intercalari ogni anno. In più, l’uso dei secondi intercalari avviene a cadenze irregolari. Non solo, questo scarto ha portato anche a creare ulteriori scale di tempo, per usi particolari: per esempio per i satelliti nello spazio vengono utilizzate svariate scale di tempo come GPST (Gps Time), GLONASST (Glonass Time, impiegata dai russi) e GST (Galileo System Time), usata per i satelliti europei. C’è quindi chi sta proponendo una soluzione diversa, come per esempio la soppressione della scala di tempo UTC per affidarci completamente al TAI, al tempo atomico internazionale, oppure a una revisione del rapporto tra i due sistemi, che anziché l’impiego frequente di secondi intercalari risolva il problema di sincronia su una scala di tempo lunga, per esempio inserendo un’ora intercalare in un futuro distante (intorno al 2600).
71
2. Gli orologi
-
Boulder...? Cos’è successo a Boulder? Riguarda per caso l’Istituto di Standard e Tecnologia? Esatto Dottor Richards… sì. L’istituto come sa ospita il NISTF1, cioè… …un orologio atomico al cesio… che fa parte di una serie di orologi atomici che definiscono il tempo universale. Beh, non più. Prego? In qualche modo, NIST-F1 ha perso otto minuti di tempo […]. Con tutto il rispetto, Mr. Mobius, l’imprecisione del NIST-F1 è inferiore a 2×10-15. In altre parole occorrerebbero più di venti milioni di anni perché si verificasse una discrepanza di un secondo... in più o in meno. So questo, non solo perché sono un genio ma perché io stesso ho contribuito al progetto del NIST-F1. da I Fantastici quattro n. 252, “Tempo Divino”, Aguirre-Sacasa-Muniz (trad. Plazzi)
Può sembrare bizzarro cominciare un discorso incentrato sugli orologi atomici, i più accurati del mondo contemporaneo,
Il tempo è atomico
partendo dalla citazione di un fumetto, seppur celebre e longevo come I Fantastici quattro. Ma è forse la testimonianza più genuina di come questi strumenti siano entrati nell’immaginario della cultura più popolare. NIST-F1 è in effetti uno degli orologi atomici, detti a fontana di cesio, che oggi realizzano con la massima accuratezza la definizione del tempo, o meglio, della sua unità di misura, il secondo. Insieme a NIST-F1, una manciata di fontane atomiche sparse negli istituti metrologici mondiali realizza l’unità del secondo che sta alla base del cosiddetto Tempo Atomico Internazionale (TAI), calcolato al Bureau International des Poids et Mesures a Sèvres, Parigi. Il TAI è la scala di tempo internazionale a cui tutti noi ci riferiamo, a meno di quello scarto di una manciata di secondi che definisce lo UTC (Universal Time Coordinated), come abbiamo visto al capitolo precedente. Per la precisione, finora sono tredici gli orologi a fontana di cesio che hanno partecipato al TAI: due statunitensi, tre francesi, due tedeschi, due britannici, due giapponesi e due italiani, entrambi funzionanti a Torino presso l’Istituto Nazionale di Ricerca Metrologica, INRIM, che realizza le unità campione per l’Italia. In questo capitolo ci dedicheremo a scoprire qualcosa di più su queste macchine meravigliose, dall’accuratezza un po’ surreale e spiazzante (“occorrerebbero più di venti milioni di anni perché si verificasse una discrepanza di un secondo... in più o in meno”), cercando però al tempo stesso di dare uno sguardo al percorso che in età moderna ha condotto agli orologi atomici, e al fil rouge che lega la loro strabiliante precisione con l’evoluzione degli orologi meccanici. Un’evoluzione che oggi sta andando oltre l’idea stessa di precisione finora condivisa, fino a superare le stesse fontane di cesio. Tralasceremo invece i sempre affascinanti segnatempo dell’antichità, le clessidre, gli orologi ignei o ad acqua, le meravigliose meridiane che mescolano ingegno, perizia matematica, sapienza astronomica e creatività artistica. Rimandiamo per tut-
74
Gli orologi
te queste notevoli conquiste dell’ingegno umano a pubblicazioni ben più estese di questo libro e impostate con un taglio più storico. In queste pagine vogliamo soprattutto farvi percepire quel senso di contemporanea e spasmodica ricerca di una precisione sempre più spinta nella misura del tempo, dove più che spaccare il capello in quattro, ormai ci confrontiamo con la divisione del secondo in 4x1017, cioè quattrocento milioni di miliardi. Per arrivarci, abbiamo percorso una strada di grandi rivoluzioni scientifiche e tecnologiche, muovendoci sempre insieme ai confini delle conoscenze in fisica. Con esiti e finalità entusiasmanti.
L’orologio: un artefatto per cogliere l’essenza dei fenomeni periodici La cifra fondamentale di un orologio è la sua capacità di racchiudere in un artefatto un fenomeno ciclico, periodico, che si ripete. Il tempo su larga scala sembra aver avuto un inizio (per esempio, in una teoria dominante, con il Big Bang) e non si sa se avrà fine. Questa caratteristica del tempo, “semiretta” che va da un’origine all’infinito, è colta bene dalle scale di tempo, che hanno per l’appunto un istante iniziale e poi sono l’affastellarsi interminato di un secondo dopo l’altro, nel tripudio assoluto dell’istante unico e irripetibile, che etichetta ogni evento in maniera ben definita. Il tempo sulla Terra è invece scandito da archi temporali che si ripetono (il giorno, le stagioni) e che richiedono dei sottomultipli sempre più fini: le ore, i minuti, i secondi... i nanosecondi. L’orologio è un oggetto che coglie questi archi temporali sempre minori, che prolunga con maggior finezza il compito svolto naturalmente da quegli orologi astronomici che sono la rotazione e la rivoluzione del nostro pianeta. Il tempo ciclico che scandisce la vita sulla Terra può così essere catturato da oggetti che si basano anche su altri fenomeni
75
Il tempo è atomico
circolari e periodici, diversi dall’alternarsi degli inverni e delle estati o della notte e del giorno. Ogni orologio si fonda su un fenomeno periodico, il cui periodo abbia durata ragionevole, utilmente prossima al più corto intervallo significativo per l’epoca in cui è usato. In altre parole: un fenomeno che colga periodi di alcune ore, come le maree, sarebbe poco utile nella società moderna presa a rincorrere frazioni di tempi sempre più infinitesimali. Ogni orologio è a sua volta un oscillatore, ossia un oggetto che “copia” l’oscillazione di un fenomeno e ce la restituisce codificata nello scorrere di un’unità campione, come può essere il secondo. Ogni oscillatore, inoltre, ha con sé un elemento risonante, che gli consente di incorporare in modo adeguato il fenomeno fisico oscillante. Un risonatore ideale, con una spinta iniziale, oscillerebbe per sempre. Ma siamo immersi nella complessità degli attriti e delle perdite, per effetto dei quali non esistono favole come il moto perpetuo. O, meglio ancora: siamo un universo quantistico, dove la quiete perfetta non trova spazio. Pertanto, data una spinta iniziale, un risonatore prima o poi smetterà di risuonare. La capacità di mantenere una risonanza nel tempo si chiama fattore di qualità ed è una proprietà molto importante per qualsiasi orologio. Un campione di frequenza, o un orologio, partono da un fenomeno periodico qualsiasi, in modo tale che possiamo sempre trovare un risonatore alla base di uno strumento nato per misurare il tempo. Un pendolo si ferma in una posizione di equilibrio, la Terra rallenta il suo moto di rotazione, un quarzo smette di vibrare, un atomo decade spontaneamente da uno stato eccitato: tutti questi orologi, naturali o artificiali, sono espressioni dello stesso fenomeno universale dello smorzamento del risonatore. Tuttavia, certi risonatori sono migliori di altri. Così, è utile identificare un parametro che esprima la qualità di un risonatore
76
Gli orologi
e che sia il più universale possibile, in modo da poter confrontare fenomeni oscillanti molto diversi tra loro. Una scelta possibile è il “fattore di qualità”, di solito indicato con la lettera Q. Il fattore di qualità esprime quantitativamente quante oscillazioni compie il risonatore prima di perdere quasi tutta l’energia cedutagli al tempo iniziale e che era stata immagazzinata nel risonatore stesso. In presenza di forti canali di perdita o attrito, il numero di oscillazioni sarà basso, così il fattore di qualità è tanto maggiore per risonatori di maggiore qualità.1 Per un orologio meccanico, di solito il fattore di qualità ha un valore Q=100. Per un orologio atomico di ultima generazione parliamo di fattori di qualità di ordine Q=1015, cioè un milione di miliardi. Uno dei vantaggi di un risonatore ad alto Q è che non dobbiamo perturbare la sua frequenza naturale di risonanza immettendo energia nel sistema. Una volta avviato l’orologio, possiamo ritirarci con discrezione e quello continua ad andare, con grande regolarità, o meglio con grande stabilità. Un vantaggio ancora maggiore è che un risonatore ad alto Q risuona solo per frequenze pari o molto vicine a un determinato valore, detto frequenza naturale di risonanza, che è caratteristica di quel sistema; così, i risonatori ad alto Q sono molto selettivi in frequenza e possono essere usati come riferimenti accurati. Il fattore Q ci dice anche quanto selettivo in frequenza sia il sistema, ed è legato quindi all’accuratezza che può raggiungere il nostro sistema inteso come orologio. I concetti di stabilità e accuratezza sono fondamentali per gli orologi. Esprimendoci diversamente, un oscillatore ad alto Q è molto “stabile” perché può “vivere” solo a un determinato e molto selezionato intervallo di frequenze: nel tempo lo trove1. James Jespersen, Jane Fitz-Randolph, From Sundials to Atomic Clocks: Understanding Time and Frequency, Dover Publications, 1999.
77
Il tempo è atomico
remo sempre dentro quell’intervallo. Allo stesso modo è “accurato”, perché l’oscillazione ha solo determinate frequenze, di nuovo molto selezionate, e solo quelle, in valore assoluto. Abbiamo citato la stabilità e l’accuratezza di un orologio. Indugiamo ancora un po’ su questi concetti, che sono imprescindibili per un orologiaio moderno. Spendiamo due parole in più perché sono due chiavi di lettura importanti per comprendere bene il ruolo degli orologi nel mondo contemporaneo, si tratti di fisica fondamentale, informatica, telecomunicazioni o navigazione satellitare. Un esempio piuttosto classico, ma lampante, è l’analogia del tiro con l’arco. L’arciere tende le sue frecce verso un bersaglio, che nella pratica sportiva di solito è una tavola con cerchi concentrici, in cui l’obiettivo è il centro del cerchio più piccolo. Data la definizione dell’obiettivo dell’arciere, cioè colpire il centro, il colpo dell’arciere sarà tanto più accurato quanto più la freccia colpirà un punto vicino al centro. Ora, pensiamo all’arciere che scocca molte frecce, una dopo l’altra. La “stabilità” del tiro del nostro sarà tanto maggiore quanto le frecce cadranno vicine tra loro. Così, la stabilità è legata al grado di ripetibilità del tiro, mentre l’accuratezza alla capacità di colpire un punto determinato. L’arciere è tanto più accurato e stabile quanto più le sue frecce cadono in massima parte dentro il cerchio più piccolo. Potrebbe essere “abbastanza” accurato se le frecce cadono nel centro al 60%, ma meno stabile, se gli altri tiri colpiscono l’area del bersaglio un po’ a casaccio. Invece, abbiamo una situazione opposta se l’arciere tira sempre nello stesso punto, freccia dopo freccia, ma mai nel centro: è molto stabile, ma certamente non troppo accurato. Vedremo che, per alcune applicazioni della scienza del tempo, accuratezza e stabilità devono essere al meglio. Altre volte, è necessaria una grande stabilità, ma poco importa dell’accuratezza: conta che la frequenza si ripeta sempre uguale, ma non qua-
78
Gli orologi
le sia il suo reale valore. Infine, notiamo che non ci può essere grande accuratezza senza un’adeguata stabilità: l’arciere non è certo accurato se in media le sue frecce vanno a bersaglio, ma in realtà sono sparse un po’ ovunque. L’accuratezza richiede quindi anche una buona stabilità. Viceversa, si può avere grande stabilità con accuratezza anche piuttosto scarsa. Ricordate l’esempio dell’arciere quando parleremo di orologi atomici contemporanei e di applicazioni nella vita quotidiana: per quel tipo di applicazioni i concetti di stabilità e accuratezza saranno citatissimi. Per riprendere il concetto di fattore di qualità Q, è chiaro che un alto fattore è una pre-condizione per l’accuratezza. Se il risonatore può oscillare solo vicino a una determinata frequenza, questa, una volta determinata, viene riprodotta fedelmente e con accuratezza dall’oscillatore. Altrettanto vale per la stabilità: se l’intervallo delle frequenze di oscillazione è limitato, allora, nel tempo, le frequenze sostenute dal risonatore saranno molto vicine, cioè stabili. Per tutti i motivi che abbiamo appena spiegato, cioè la necessità di trovare alti fattori di qualità Q, possiamo dire che la storia della misura del tempo è intimamente legata alla ricerca di fenomeni periodici con Q sempre più alti. Seguendo un po’ questo filo rosso, avventuriamoci allora attraverso alcune tappe storiche, che hanno consegnato all’umanità dei “segnatempo” sempre più precisi e adatti alle esigenze proposte dallo sviluppo della società umana. I nostri stili di vita sono mutevoli, fortemente condizionati dall’evoluzione tecnologica, e la storia della misura del tempo ne è un riflesso. Una disciplina in costante mutamento e con un progresso che, avvicinandosi ai giorni nostri, ha acquisito accelerazioni impressionanti.
79
Il tempo è atomico
Nascita e sviluppo degli orologi meccanici Abbiamo visto nel capitolo precedente come, per una lunga, lunghissima fetta della nostra storia, all’uomo fosse sufficiente affidarsi agli orologi naturali, o astronomici, basati sul sole, sui movimenti dei pianeti e sulle stagioni, per avere un riferimento temporale in linea con le esigenze del proprio mondo e della propria epoca. Però, al di là delle necessità connesse ai raccolti e all’agricoltura, già nell’antichità cominciò ad affermarsi il bisogno di una misurazione più fine del tempo, per calcolare tempi di lavoro limitati o frazioni della giornata da dedicare a specifiche occupazioni. Le meridiane, gli orologi ad acqua o quelli a sabbia cominciarono a comparire molto presto nella storia, ancor prima degli Egizi. Non si basavano però sulla frequenza infinitamente ripetibile di un risonatore, ma sposavano quella che era la percezione dell’epoca (e che è ancora oggi tanto connaturata nel nostro essere): l’idea cioè che il tempo non sia una successione indefinita di grandezze sempre uguali, come il secondo o i suoi multipli e sottomultipli, ma il fluire continuo di un’entità impalpabile e sfuggente. A immagine e somiglianza di quell’idea, le clessidre adottavano la sabbia oppure l’acqua come mezzo destinato a scorrere per segnare lo scorrere del tempo. C’era un problema, però: quei primi orologi funzionavano solo di giorno, con il sole, oppure richiedevano una sorveglianza e un intervento continui da parte dell’uomo, per esempio per girare le clessidre. Non esisteva uno strumento che misurasse le ore sia con la luce sia con il buio, e senza soluzione di continuità. A colmare questa mancanza è stato l’orologio meccanico, utilizzato già in tempi antichi, come attesta la lapide dedicata all’arcivescovo Pacifico di Verona, morto nell’844, e definito nel duomo della città scaligera come l’inventore di un horologium
80
Gli orologi
nocturnum, capace cioè di funzionare, cosa impensabile fino ad allora, anche di notte, senza il sole.2 L’invenzione, rivoluzionaria, che ha portato alla creazione dell’orologio meccanico e a introdurre il primo, grande cambio di paradigma nella misurazione del tempo, è stata lo scappamento: in un orologio meccanico, il fenomeno periodico usato come base per l’osservazione del tempo è un movimento alternato.3 Nei primi strumenti di questo tipo, il movimento veniva impresso da due contrappesi posizionati su un volano: quando uno scendeva per effetto della gravità, l’altro saliva, fino ad arrivare a un culmine dopo il quale iniziava a sua volta a scendere, trascinando l’altro verso l’alto. Per dare un impulso iniziale al sistema, uno dei due pesi veniva tirato verso il basso. Ovviamente, gli attriti sviluppati all’interno del meccanismo fanno sì che l’alternanza dei movimenti sia tutt’altro che perfetta e avvenga con periodi che tendono a diventare sempre più brevi. In quanto a fattore di qualità, quindi, i primi orologi meccanici lasciavano molto a desiderare. Ma ignorando per un momento questo problema, e provando invece a immaginare che il saliscendi dei due pesi potesse protrarsi all’infinito e con intervalli di tempo sempre uguali, in che modo questo movimento avrebbe potuto tradursi in un’indicazione del trascorrere delle ore e dei minuti o, in altre parole, in una scala del tempo? La soluzione tecnologica ideata nel Medioevo per risolvere questo problema fu, appunto, lo scappamento. Un dispositivo che, con le adeguate modifiche e migliorie, è presente tutt’ora in tutti gli orologi meccanici. Consiste in una 2. L’iscrizione che cita l’arcivescovo Pacifico è riportata da Gerhard Dohrn-van Rossum, studioso tedesco autore di un libro fondamentale per conoscere la storia dell’orologio, Die Geschichte der Stunde: Uhren und moderne Zeitordnungen, 1992, Carl Hanser Verlag, München Wien, tradotto nel 1996 per la University of Chicago Press con il titolo History of the Hour: clocks and modern temporal orders. 3. Per un approfondimento sugli orologi meccanici si può leggere per esempio David S. Landes L’orologio nella storia. Gli strumenti di misurazione del tempo e la nascita del mondo moderno, A. Mondadori, 2009.
81
Il tempo è atomico
ruota dentata in grado di trasformare il movimento continuo e alternato dei due contrappesi in un movimento a scatti, che sposta una lancetta posizionata su un quadrante. In base all’opportuno dimensionamento dello scappamento è possibile fare in modo che il movimento a scatti abbia sempre lo stesso periodo. La resistenza che lo scappamento esercita sul movimento dei contrappesi (o della molla, negli orologi meccanici moderni), funge anche da “accumulo” di energia, che imprime una spinta al meccanismo dell’orologio contrastando l’attrito e mantenendo più a lungo la “carica” di tutto il sistema. Nessuno sa con precisione chi abbia inventato questo dispositivo. Una cosa è certa. In diversi testi del XIV secolo il sistema è spiegato e illustrato come se fosse noto già da molto tempo. Secondo alcune fonti l’idea fu mutuata e copiata dalla Cina, ma non esistono documenti che lo attestino. Chiunque sia stato l’oscuro ideatore di questa tecnologia, il suo posto è di diritto a fianco di coloro che costruirono la prima ruota o il primo acciarino: geni oscuri nei confronti dei quali l’umanità ha un profondo debito di riconoscenza. Un passo in avanti rispetto ai macchinosi e pesanti orologi meccanici a contrappeso, tipici del Medioevo, fu impresso dall’introduzione dell’orologio a pendolo, attribuita al matematico e filosofo olandese Christiaan Huygens. Basandosi sugli studi sulla gravità di Galileo, Huygens pensò di usare il pendolo come oscillatore di un orologio. Elaborò un primo prototipo nel 1656 e altri ne seguirono negli anni successivi finché, in breve, il suo orologio venne imitato in tutta Europa. Tanto che Huygens si trovò con il problema di brevettare il sistema e tutelare la sua invenzione. Con scarso successo, però, visto che i maggiori orologiai inglesi e francesi dell’epoca non vollero riconoscergli nulla. L’orologio di Huygens sfruttava le oscillazioni del pendolo, caratterizzate dal fatto di essere isocrone (cioè si svolgono tutte nello stesso lasso di tempo) sempre che si esercitino su piccole am-
82
Gli orologi
piezze di oscillazione. Grazie al pendolo si poteva ovviare in parte alle interferenze prodotte dall’attrito sui meccanismi dell’orologio e si otteneva uno strumento che si manteneva preciso molto più a lungo. Non in tutte le circostanze, però, l’orologio di Huygens si dimostrava affidabile. Per esempio, il funzionamento risultava problematico in mare quando, in caso di onde forti, l’oscillazione del pendolo veniva alterata. Se si amplia l’arco di oscillazione del pendolo, infatti, l’orologio perde precisione. Per il pendolo che si muove su un arco di circonferenza la durata dell’oscillazione cambia secondo l’ampiezza del movimento. Questo fenomeno poneva problemi di precisione per gli orologi a pendolo in generale e, in particolare quando una qualsiasi causa esterna, come un terremoto o il mare grosso appunto, fosse intervenuto a modificare l’ampiezza dell’oscillazione. Huygens trovò una soluzione teorica al problema, perché riuscì a individuare una curva, un cicloide (definita cioè dal punto di una circonferenza che ruota su un piano), lungo la quale le oscillazioni del pendolo hanno tutte la medesima durata indipendentemente dalla loro ampiezza. Il problema è che un pendolo è imperniato su un punto fisso e non oscilla su un cicloide, ma su un arco di circonferenza. Huygens cercò allora di realizzare un orologio a pendolo che si muovesse su un cicloide, introducendo meccanismi capaci di modificare la lunghezza dell’asta del pendolo durante l’oscillazione, ma queste soluzioni determinavano tali attriti aggiuntivi da rendere lo strumento ancor più impreciso del difetto che intendeva correggere. Lo studioso dovette quindi abbandonare questa strada. Del resto, l’orologio a pendolo mostrava di fornire ottimi risultati quando funzionava in una situazione ideale, cioè sulla terraferma, protetto da agenti esterni e con oscillazioni del pendolo di ampiezza ridotta.4 Non era adatto per accompagnare i viaggiatori o i naviganti, ma per il resto era più che affidabile. 4. Huygens descrisse per filo e per segno i suoi studi e i suoi ragionamenti sull’orologio a pendolo nella sua opera Horologium oscillatorium sive de motu pendularium, del 1673.
83
Il tempo è atomico
Un altro aspetto che attirò l’attenzione di Huygens fu l’osservazione del doppio pendolo, cioè la constatazione che due pendoli attivati contemporaneamente tendono a sincronizzarsi oscillando in direzioni opposte. L’orologio di Huygens subì con il tempo un’evoluzione che portò alla creazione di strumenti di altissima precisione, come il pendolo Invar con scappamento Riefler, usato negli Stati Uniti come riferimento orario dal 1909 al 1919, che aveva un fattore Q di 110.000. E proprio lo scappamento rimase sempre la chiave per migliorare le prestazioni di questi strumenti. Quello sviluppato da Sigmund Riefler nel 1889 per la sua azienda di famiglia, la tedesca Clemens Riefler, fu usato fino al 1965 per superare i problemi tecnici dello scappamento a cilindro, o a punto morto, ideato nel 1700 dall’orologiaio inglese Thomas Tompion, e poi diffuso dal suo allievo George Graham. Lo scappamento Riefler eliminava uno dei problemi principali dello scappamento a cilindro, in cui si verificavano piccoli attriti all’interno del meccanismo che influivano sulla precisione complessiva dell’orologio. L’orologiaio tedesco riuscì a eliminare il problema, mantenendo però l’effetto di spinta sul pendolo necessario a dare l’impulso a ogni oscillazione e mantenere a lungo la carica. Dopo l’innovazione di Riefler, altre ne intervennero per raggiungere risultati ancora migliori, ma furono di tipo elettromeccanico, in cui, cioè, si usavano cellule fotoelettriche per rilevare il passaggio del pendolo in un punto fisso della sua traiettoria. L’orologio a pendolo di questo tipo più famoso, e più preciso, fu quello messo a punto nel 1921 da William Hamilton Shortt, un ingegnere ferroviario inglese. Prodotti dalla Synchronome Ltd in un centinaio di pezzi, tra il 1922 e il 1956, i pendoli Shortt furono i primi a superare, in quanto a precisione nella misurazione del tempo, lo stesso pianeta Terra. Uno di questi strumenti fu infatti in grado di misurare, nel 1926, i moti di nutazione del nostro
84
Gli orologi
pianeta, ossia lievi oscillazioni dell’asse di rotazione, determinate dall’influsso gravitazionale della Luna e del Sole, che modificano leggermente la lunghezza delle stagioni. I pendoli Shortt furono anche i primi usati per fornire il servizio pubblico di segnale orario in molti paesi. Esami accurati sulla precisione di questi orologi, condotti nel 1984 da Pierre Boucheron, hanno dimostrato che i pendoli Shortt avevano un errore inferiore ai 200 microsecondi al giorno, cioè un secondo ogni 12 anni.5 L’importanza fondamentale di questo orologio, al di là della sua precisione, fu di dimostrare che la Terra non era così precisa nella misurazione del tempo e che, di conseguenza, basarsi sul tempo astronomico avrebbe determinato errori di misura su una scala di tempo molto lunga. Fu partendo da questa osservazione che si pensò a trovare sistemi più precisi e che si aprì la strada per la ricerca sugli orologi atomici. Ma un discorso sugli orologi meccanici non sarebbe completo senza un riferimento al cronometro di Harrison. La storia di questo strumento, a cui il suo ideatore, John Harrison, lavorò per oltre trent’anni, è emblematica di quanto sia utile, e in certi casi vitale, un calcolo corretto dell’ora. Un aspetto che oggi, in un mondo dove siamo circondati da strumenti che misurano il tempo, ci sfugge, ma che in realtà pervade ogni nostra attività. Nel Seicento e agli inizi del Settecento, in piena epoca coloniale, le grandi potenze europee e mondiali si sfidavano sugli oceani per il controllo delle terre d’oltremare. Flotte sempre più numerose e potenti, di navi militari ma anche da trasporto, solcavano ogni giorno i mari per trasportare merci e proteggerle dai pirati. Ma per i lunghi viaggi transoceanici mancava uno strumento fondamentale: una tecnologia o un sistema che consentisse ai naviganti di capire dove si trovassero. Il problema non era di secondaria importanza. Il 22 ottobre 1707, presso le isole Scilly, 5. Un’animazione che mostra nel dettaglio il funzionamento dell’orologio a pendolo ShorttSynchoronome si può osservare su Web alla pagina www.chronometrophilia.ch/Electricclocks/Shortt.htm.
85
Il tempo è atomico
poche miglia a ovest della Cornovaglia, quattro navi da guerra britanniche si schiantarono sugli scogli perché non avevano la minima idea di essere così vicine a casa dopo una lunga traversata. Morirono quasi duemila marinai.6 Era chiaro, all’epoca, che un calcolo preciso dell’ora a bordo di una nave era fondamentale per determinare la propria posizione. I naviganti potevano a ogni mezzogiorno tarare i propri orologi e sapere esattamente l’ora locale. Con questo dato avrebbero potuto facilmente – nota anche l’ora del porto di partenza o di qualsiasi altro luogo sulla Terra – calcolare la distanza da quel punto e stabilire esattamente la loro longitudine. Il Sole compie un giro apparente di 360° intorno alla Terra in 24 ore: questo vuol dire che una differenza di un’ora tra il punto in cui ci si trova e l’orario del porto di partenza corrisponde a 15° di latitudine percorsi. Se ci si trova sull’Equatore, dove la circonferenza della Terra è massima, questi 15° corrispondono a mille miglia, e man mano che ci si sposta verso i poli la distanza diminuisce. I marinai del Settecento erano perfettamente in grado di calcolare la latitudine con il sestante, ma i pendoli dell’epoca non riuscivano a mantenere il corretto computo dell’ora, a causa delle interferenze sul movimento del pendolo provocate dal moto ondoso. Occorreva quindi ideare un altro tipo di orologio per risolvere il problema. Per arrivare a questo risultato il governo britannico emanò nel 1714 una legge con cui stabiliva un premio, il “Longitude Prize”, per chiunque ideasse un sistema per definire con precisione la longitudine in mare. Il vincitore avrebbe intascato, a seconda del grado di precisione del sistema, una somma tra 10.000 e 20.000 sterline, equivalenti a svariati milioni di euro dei giorni nostri. John Harrison propose il suo progetto nel 1730 e realizzò il primo prototipo H1 nel 1735, di cui si può vedere 6. L’episodio è citato nelle prime pagine del bel libro di Dava Sobel Longitudine, Bur, Biblioteca Universale Rizzoli, 1999.
86
Gli orologi
una riproduzione in Figura 2.1; ma soltanto nel 1761 arrivò alla versione definitiva, il prototipo H4, un orologio circolare di 12 cm di diametro, dotato all’interno di una serie di meccanismi e bilancieri a molla che consentivano di indicare correttamente l’ora senza subire gli influssi negativi della gravità, del moto ondoso e anche delle dilatazioni subite dai metalli per effetto dell’umidità dell’aria e della temperatura.
Figura 2.1 Orologi marini di Harrison: una riproduzione del primo modello H1 (dal sito del Royal Museum di Greenwich, http://blogs.rmg.co.uk).
Nel 1767, l’apposita commissione creata dal governo britannico per valutare i progetti, approvò il cronometro di Harrison e gli concesse il premio maggiore, di 20.000 sterline, dopo avere già finanziato con somme minori il suo ultratrentennale lavoro di sviluppo. Soltanto con l’introduzione degli oscillatori elettronici, avvenuta nel secolo scorso, i sistemi di navigazione delle navi abbandonarono l’orologio di Harrison.
87
Il tempo è atomico
Le giuste vibrazioni dei cristalli Un primo salto importante per superare i limiti degli orologi meccanici fu un cambio di paradigma fisico. L’ingegnere americano Warren A. Marrison, un esperto di telecomunicazioni che lavorava per i Bell Telephone Laboratories, sviluppò nel 1929 il primo orologio a cristallo di quarzo.7 Il risonatore di questo strumento si basa su un fenomeno fisico noto come effetto piezoelettrico, scoperto da Jacques e Pierre Curie nel 1880: è una caratteristica propria di certi cristalli naturali, come il quarzo o la tormalina, per citarne due, e anche di cristalli sintetici come il solfato di litio o l’ammonio diidrogenato fosfato. Anche certe ceramiche e particolari polimeri sono caratterizzati da piezoelettricità, che permette loro di sviluppare una carica elettrica quando vengono deformati elasticamente o, viceversa, di deformarsi elasticamente se viene loro applicata una tensione elettrica. Obbedendo a questo fenomeno, l’orologio al quarzo si mette a vibrare quando si applica una tensione elettrica alternata, mentre se viene posto in vibrazione genera una tensione oscillante. Così, si ha un continuo trasferimento di energia da una forma meccanica (la vibrazione elastica) a una elettrica (la tensione). Le perdite di questo meccanismo sono più basse che nel caso puramente meccanico del pendolo, così per l’orologio al quarzo il Q sale fino a 100.000 e, per alcuni strumenti particolarmente precisi, fino a un valore di alcuni milioni. Gli orologi o gli oscillatori al quarzo si trovano oggi dappertutto, nei nostri dispositivi elettronici. La frequenza di risonanza dipende da molti fattori, tra cui i principali sono il taglio del quarzo, le sue dimensioni e il metodo di applicazione della 7. Per una rassegna della storia degli orologi al quarzo, si veda Marvin E. Frerking, “Fifty years of progress in quartz crystal frequency standards” Proc. 1996 IEEE Frequency Control Symposium, Institute of Electrical and Electronic Engineers, 1996, pp.33-46.
88
Gli orologi
tensione. Inoltre, proprio come gli strumenti a corda, i quarzi possono vibrare a una frequenza fondamentale propria di quel particolare orologio e a diverse armoniche superiori. Così, gli orologi al quarzo hanno frequenze proprie di funzionamento che variano dai kilohertz alle centinaia di megahertz. Per generare frequenze maggiori occorrono cristalli più piccoli, cosicché, per frequenze superiori alle centinaia di megahertz, il taglio del cristallo limita le prestazioni o la fattibilità stessa del risonatore. Il cristallo risonatore è poi inserito in un anello di retroazione che ha la funzione di mantenere costante la frequenza di uscita, fornendo l’energia necessaria a compensare le perdite. Il miglior quarzo può mantenere il tempo perdendo qualcosa come un millisecondo nell’arco di un mese: è questo il limite della sua stabilità, comunque piuttosto elevata e di uso diffuso nel mondo contemporaneo. Il quarzo migliore oggi disponibile è ottenuto con una tecnologia detta BVA (Boîtier à Vieillissement Amélioré, involucro a invecchiamento migliorato), che permette di raggiungere una stabilità di frequenza relativa di circa 5×10-14 su intervalli di tempo fino a 1.000 s o, più tipicamente, tra 10 e 100 s. Che cosa limita i quarzi? Da un lato la frequenza massima raggiungibile, dall’altro la stabilità nel tempo medio e lungo. Infatti, questi oscillatori, se campionati per periodi superiori alle decine di secondi, esibiscono dei comportamenti della frequenza noti come derive o “passeggiate causali”, che degradano molto rapidamente la stabilità. Niente di grave: i dispositivi elettronici di uso comune richiedono alte prestazioni per operazioni brevi o brevissime: interessa la stabilità nell’intervallo dei millisecondi, micro e a volte solo nanosecondi. Ma per altri usi, come la navigazione satellitare, l’astronomia, la ricerca scientifica o la generazione di scale di tempo, i quarzi sono ormai non adatti allo scopo.
89
Il tempo è atomico
Prima di vedere che cosa ci ha consegnato il progresso dopo i quarzi, apriamo una piccola parentesi sull’altro loro “difetto”, cioè il limite massimo di frequenza. Per più di 50 anni, la radiofrequenza, cioè le onde elettromagnetiche di frequenza fino a poche decine di megahertz, è stata la regina incontrastata della nostra tecnologia, anche perché i riferimenti disponibili erano soprattutto i quarzi, con i loro limiti di frequenza già esposti. Sappiamo tutti, dall’esperienza quotidiana, che siamo entrati in un’altra era, dove le iperfrequenze e le microonde sono le regine incontrastate del progresso. Le radiofrequenze sono certamente diffusissime e fondamentali anche oggi, ma ormai i clock delle CPU dei nostri computer viaggiano nella media su frequenze di 1,2 e anche più di 3 GHz. La telefonia cellulare, con le sue quattro bande, trasmette tra gli 800 MHz e 1,9 GHz. I sistemi Wi-Fi occupano le frequenza tra 2,4 e 5 GHz. Come si ottengono queste frequenze, con quali oscillatori? Certamente l’elettronica ci permette di partire dai quarzi e moltiplicarne la frequenza senza perdere eccessivamente sul fattore di qualità. Tuttavia, ci sono tecnologie diverse, che utilizzano principi differenti, come i Dielectric Resonator Oscillator. Questi dispositivi sfruttano alcune proprietà elettromagnetiche dei materiali dielettrici per realizzare risonatori a microonda, dell’ordine di decine di MHz, con fattori Q dell’ordine delle migliaia. Tuttavia, le proprietà elettromagnetiche dei materiali dielettrici hanno portato a qualche notevole sorpresa, permettendo di realizzare gli oscillatori criogenici allo zaffiro (CSO, Cryogenic Sapphire Oscillator), a oggi gli oscillatori di maggiore stabilità, fatta eccezione naturalmente per quelli atomici e per quelli ottici. I CSO funzionano tipicamente intorno ai 10 GHz, e sfruttano una particolare proprietà dello zaffiro (ossido di alluminio, Al2O3) drogato con impurezze di metalli pesanti come ioni Cr+, che a temperature criogeniche molto basse, di circa 4-6 K (-267/-269
90
Gli orologi
°C), permette di avere Q altissimi, fino a 2×1010.8 La stabilità di un CSO varia, a seconda delle (poche) realizzazioni tra 3×10-16 e 2×10-15 fino a 1.000-10.000 s. Le caratteristiche intrinseche dei CSO li rendono adatti anche per applicazioni da laboratorio. Dispositivi di questo tipo, commercializzati solo di recente, sono adatti ad applicazioni scientifiche e tecnologiche molto spinte. Per esempio, sono impiegati per la ricerca in alcuni ambiti della fisica, come standard di tempo e di frequenza per le fontane atomiche e anche per applicazioni in radioastronomia.
Esoteriche vibrazioni: il mondo dei quanti e gli orologi atomici Il passo successivo al tempo dei quarzi arrivò a partire dagli anni Quaranta del secolo scorso. Di nuovo, fu un bel salto di paradigma, che ha spalancato le porte a nuove possibilità che si stanno concretizzando soltanto oggi. Se il fattore di qualità dei risonatori elettromeccanici arriva fino a qualche vertiginoso milione, prepariamoci a un grande balzo: il migliore orologio atomico, oggi, offre un Q di 1015, cioè di un milione di miliardi! Ma andiamo con ordine. Il salto di paradigma con cui ora ci confronteremo è stato una rivoluzione di portata mai vista nella storia dell’umanità e risponde al nome di meccanica quantistica.9 La fisica quantistica ha cambiato tutta la visione del mondo, ha svelato fenomeni sconosciuti, penetrando nel mondo microscopico degli atomi, ed è arrivata fino ai costituenti fondamentali della materia, le particelle con le loro interazioni. Ci ha regalato 8. C. R. Locke, E. N. Ivanov, J. G. Hartnett, P. L. Stanwix, M. E. Tobar, “Design techniques and noise properties of ultrastable cryogenically cooled sapphire-dielectric resonator oscillators”, Review Of Scientific Instruments 79, 051301 (2008). 9. Per un approfondimento sulla meccanica quantistica di taglio divulgativo, si può leggere l’ottimo libro di Brian Cox e Jeff Forshaw, L’universo quantistico svelato (e perché non cadiamo attraverso il pavimento), Hoepli, 2013. Un altro libro piacevole è Robert Gilmore, Alice nel paese dei quanti. Le avventure della fisica, Cortina, 1996.
91
Il tempo è atomico
la scoperta del laser, dell’energia nucleare, l’invenzione del transistor, la comprensione dei raggi cosmici, di come funzionano le stelle e della vera natura dei colori. E per quello che interessa a noi in questo libro, ci ha dato un nuovo potente riferimento di frequenza, l’atomo e le sue transizioni. Per transizione atomica si intende il passaggio di un atomo da uno stato stabile a un altro. Questa trasformazione avviene per salti discreti. In altre parole, i parametri fondamentali che descrivono i due stati, per esempio l’energia, non cambiano in modo progressivo da uno stato all’altro, ma sono collocati su livelli diversi. E l’atomo, per passare da uno stato all’altro, compie dei veri e propri salti, mostrando una struttura “quantizzata”. Inoltre, si può associare a ciascun salto energetico E una frequenza particolare n, detta frequenza di Bohr, data dalla relazione E=hn, dove h è la costante di Planck, che meriterebbe un libro a sé.10 10. La costante di Planck, insieme con la carica dell’elettrone e la velocità della luce, è una delle costanti fondamentali che definiscono la struttura della materia e, in particolare, delle particelle. Abbiamo parlato del fatto che, passando da uno stato di energia a un altro, gli atomi compiono un salto e non una transizione progressiva. Ebbene, il responsabile, ciò che spiega quel “salto” è proprio la costante di Planck. In altre parole, la costante di Planck è la quantizzazione delle grandezze dinamiche che caratterizzano le particelle elementari della materia, e cioè elettroni, protoni, neutroni e fotoni. La “quantizzazione” consiste nel fatto che, a livello microscopico, l’energia (così come anche altre grandezze come impulso e momento angolare), invece di assumere una serie continua di valori si manifesta in multipli di quantità fisse. Per quanto riguarda l’energia, quindi, essa sarà data da E=nhn, dove n=0, 1, 2, 3…e n la frequenza associata dalla relazione di Bohr. Planck definì la sua costante studiando, nel 1900, le radiazioni emesse dal “corpo nero”, cioè da un oggetto ideale in grado di assorbire tutta la radiazione elettromagnetica che lo colpisce senza rifletterla. I corpi neri emettono a loro volta energia, ma per irraggiamento e non per riflessione, secondo uno schema che cambia in base alla temperatura in cui si trovano. Più il corpo nero è caldo, maggiore è la quantità di energia che irradia. Lo spettro delle radiazioni elettromagnetiche emesse da un corpo nero presentava però, per gli studiosi dell’epoca, un rebus insolubile, perché non concordava con la teoria prevista dalla fisica classica. In particolare, secondo la teoria, con il diminuire della lunghezza d’onda il corpo nero avrebbe dovuto irradiare un’energia tendente all’infinito, generando un paradosso definito “catastrofe ultravioletta”. Questo però non si verificava nella realtà e gli scienziati non riuscivano a capire perché. Max Planck si accorse che, se si ipotizzava che gli atomi fossero in grado di assorbire o rilasciare energia soltanto in “pacchetti” proporzionali alla frequenza dell’onda elettromagnetica, lo spettro delle emissioni di energia del corpo nero si spiegava perfettamente. Parlò allora di “quanti” di energia e li inserì nei suoi calcoli come un puro espediente matematico per farli quadrare. Fu Albert Einstein, nel 1905, a riprendere la teoria dei quanti per dare una spiegazione all’effetto fotoelettrico. Grazie a quegli studi, che aprirono la strada per la fisica quantistica, Einstein vinse il premio Nobel.
92
Gli orologi
Il significato di questa frequenza è molteplice, ma per noi conta che l’atomo compie una transizione da uno stato all’altro scambiando energia con il mondo che lo circonda attraverso onde elettromagnetiche, la cui frequenza non è casuale o progressiva, ma è quantizzata come i livelli di energia. E i suoi valori sono proprio quelli dati dall’equivalenza di Bohr. Ricapitolando: l’atomo vive in livelli energetici stabili e quantizzati; può passare da alcuni livelli ad altri scambiando energia elettromagnetica, caratterizzata da una certa frequenza e solo da quella. Allora, la transizione atomica è quel fenomeno che ci regala il salto di paradigma di cui parlavamo prima: per ricavarne un orologio occorre soltanto trovare un modo per estrarre quell’informazione di frequenza dalla struttura atomica e usarla come riferimento. Esistono transizioni atomiche molto interessanti da sfruttare per fare un orologio. Transizioni estremamente insensibili al mondo esterno, o che si possono rendere tali, così che la stabilità e l’accuratezza del nostro riferimento atomico siano potenzialmente molto elevate; in altre parole, esistono transizioni estremamente selettive, che si eccitano solo scambiando energia elettromagnetica in un ambito molto stretto di frequenza. Per esempio, gli atomi di itterbio, stronzio, mercurio e magnesio hanno transizioni che si eccitano, in condizioni di laboratorio, solo se interagiscono con un’onda elettromagnetica che ha una frequenza di circa 500 THz (500 mila miliardi di Hz) e che rimane costantemente dentro l’intervallo di 0,5 Hz. Il fattore di qualità per la transizione è proprio la frequenza diviso l’intervallo di eccitabilità, così 500 THz/0,5Hz=1015; ecco il milione di miliardi di cui parlavamo all’inizio di questo paragrafo. Ma prima di riuscire a sfruttare materialmente nella misurazione del tempo le caratteristiche intrinseche di questi atomi si
93
Il tempo è atomico
sono resi necessari oltre 70 anni di sviluppo scientifico e tecnologico, che hanno tracciato una strada costellata da diversi premi Nobel. Ripercorriamola rapidamente.11
L’orologio atomico al cesio e la definizione del secondo Il primo studioso di metrologia del tempo che vinse il Nobel grazie agli atomi fu Isidor Rabi. Il riconoscimento gli giunse nel 1944, in un momento drammatico per la storia del pianeta, sprofondato negli orrori della guerra, grazie al suo “metodo a risonanza per misurare le proprietà magnetiche dei nuclei atomici”. Questa fu la motivazione addotta dall’Accademia reale svedese delle Scienze, che ha il compito di assegnare ogni anno l’ambito premio. Isidor Isaac Rabi (nato a Rymanów, nella Galizia polacca, il 29 luglio 1898, e morto a Manhattan, negli USA, l’11 gennaio 1988) è stato un fisico americano e la scoperta che gli valse il Nobel, la risonanza magnetica nucleare, è alla base non soltanto degli orologi atomici a microonda ma anche della tecnologia per la diagnostica medica nota come RMN, risonanza magnetica nucleare: dobbiamo quindi a lui le basi teoriche per lo sviluppo di una tecnica medica che oggi consente di individuare molti tipi di tumori. La tecnologia diagnostica fu, in realtà, sviluppata nel 1946 dai fisici Felix Bloch e Edward Purcell, che vinsero a loro volta il Nobel nel 1952, ma senza gli studi di Rabi la loro scoperta non sarebbe stata possibile. Isaac Rabi, inoltre, contribuì allo sviluppo del magnetron a cavità, un generatore di microonde che oggi troviamo non soltanto nei radar, ma anche all’interno dei forni (a microonde appunto) che ormai affollano 11. Per approfondire il funzionamento e la storia degli orologi atomici consigliamo: Jacques Vanier e Audoin, The Quantum Physics of Atomic Frequency Standards, A. Hilger, 1989; F. G. Major, The Quantum Beat, Principles and Applications of Atomic Clocks, Springer-Verlag, 2007; Paolo De Natale, Pasquale Maddaloni, Marco Bellini, Laser-Based Measurements for Time and Frequency Domain Applications: A Handbook, Taylor & Francis Group, 2013.
94
Gli orologi
le nostre cucine. Quel che si dice un Nobel pervasivo nella nostra quotidianità. I lavori di Rabi furono cruciali per arrivare a un orologio atomico: insieme con altri suoi colleghi fisici atomici dell’epoca, esplorò la struttura energetica “iperfine” degli atomi, che si chiama così perché deriva da sottilissime perturbazioni energetiche che si verificano all’interno dell’atomo, ai livelli fondamentali, definiti dall’interazione elettrica tra elettroni e protoni. Queste perturbazioni sono indotte dalla debole interazione magnetica tra gli elettroni e il nucleo dell’atomo. Lo studio di queste transizioni e dei metodi utili per eccitarle, e quindi provocarle, costituisce la sostanza della risonanza magnetica nucleare ed è alla base del primo orologio atomico, basato sull’atomo di cesio. Perché furono scelti il cesio e la sua struttura iperfine per creare il primo orologio atomico? Perché non venne impiegato subito un atomo come quelli citati in precedenza, che offrono fattori di qualità esorbitanti? La questione è che negli anni Cinquanta del secolo scorso la tecnologia per eccitare in modo appropriato quelle transizioni a centinaia di THz non esisteva. Era però già disponibile tutta una serie di apparecchi per generare la microonda utile a eccitare il cesio, così come esistevano tutta la tecnologia “accessoria” e tutta l’elettronica per misurare ciò che serve per fare poi realmente un orologio atomico. Tra gli atomi dotati di struttura iperfine troviamo il cesio, ma anche il rubidio, il tallio, il potassio, il sodio, e molti altri. Il cesio fu scelto perché offriva le proprietà atomiche, fisiche e tecniche più trattabili all’epoca, quelle che garantivano la maggiore precisione raggiungibile. In effetti la scelta è stata piuttosto corretta. Anche se i primi orologi atomici non funzionavano a 500 THz, bensì a frequenze molto minori, cioè a pochi GHz, la loro precisione costituiva un enorme salto in avanti rispetto agli standard dell’epoca. E gli orologi al cesio,
95
Il tempo è atomico
per quanto siano trascorsi diversi decenni dalla loro introduzione, non sono certo passati di moda. Intanto, l’attuale definizione del secondo, l’unità di misura del tempo, è proprio basata, dal 1967, su una transizione a microonda dell’atomo di cesio: il secondo è infatti definito come la durata di 9.192.631.770 periodi della radiazione corrispondente alla transizione tra due livelli iperfini, da (F=4, MF=0) a (F=3, MF=0), dello stato fondamentale dell’atomo di cesio-133.12 Tradotto in altre parole, significa che questa fantomatica transizione tra due livelli iperfini dello stato fondamentale vale 9,192 GHz, cioè una frequenza che appartiene alla regione delle microonde. Come vedete, dunque, gli orologi a microonda sono tutt’altro che superati, visto che costituiscono ancora oggi la base della misurazione del tempo. Del resto, soltanto nel primo decennio del XXI secolo gli orologi al cesio hanno trovato dei concorrenti adeguati, tanto che oggi non è impensabile una prossima ridefinizione del secondo. Isaac Rabi è stato dunque la figura che ci ha consegnato la fisica dell’orologio al cesio, ma è stato un suo allievo, Norman Ramsey, a metterci a disposizione la tecnica ultima per estrarre dal cesio il suo riferimento iperfine di frequenza con la massima precisione possibile.13 Norman Foster Ramsey Junior ricevette nel 1989 il Nobel per la Fisica per l’invenzione del metodo a campi oscillatori separati, noto anche come spettroscopia di Ramsey. Rispetto alla tecnica di Rabi, quella di Ramsey ha permesso di aumentare il fattore di qualità, e di conseguenza l’accuratezza degli orologi atomici, tra 10 e 100 volte. 12. La definizione del secondo basata sulla transizione tra due livelli iperfini dell’atomo di cesio è stata adottata nel 1968 dalla tredicesima Conferenza generale sui pesi e sulle misure, secondo la decisione ufficiale riportata integralmente alla pagina web www.bipm.org/en/ CGPM/db/13/1/, del Bureau International des Poids e Mesures. 13. Norman Foster Ramsey Jr. (Washington DC, 27 agosto 1915 – Wayland, Massachusetts, 4 novembre 2011) fu un fisico americano premiato nel 1989 con il premio Nobel per la Fisica per “l’invenzione del metodo a campi oscillatori separati e per la sua applicazione nel maser all’idrogeno e in altri orologi atomici”.
96
Gli orologi
Sulla base dei lavori di Rabi e Ramsey si arrivò infine al primo orologio al cesio di tipo moderno, detto anche a fascio di cesio, messo a punto da Louis Essen e Jack Parry nel 1955 al National Physical Laboratory (NPL), il laboratorio per gli standard di misura del Regno Unito, la più grande struttura di fisica applicata di tutto il Paese. In Figura 2.2 si vede una foto dell’epoca con Essen, Parry e il loro orologio.
Figura 2.2 Il primo orologio a fascio di cesio di Essen e Parry, in alto, e un orologio commerciale oggi, in basso (dal sito del National Physical Laboratory, www.npl.co.uk).
97
Il tempo è atomico
In quel periodo, come abbiamo spiegato nel Capitolo 1, era in corso un intenso dibattito riguardo alla migliore definizione del secondo. Fino al 1960, l’unità di tempo era stata equiparata a 1/86.400 del giorno solare medio. Dal 1960 si era passati a una definizione più evoluta, ma sempre fondata su calcoli astronomici e decisamente complessa: il secondo delle effemeridi. Nel 1967, alla tredicesima Conférence Générale des Poids et Mesures, si passò infine alla definizione attuale del secondo, dopo le accurate misure compiute da Louis Essen e William Markowitz, dello United States Naval Observatory, che definivano una relazione tra la transizione iperfine del cesio e il secondo delle effemeridi. I conteggi di Essen e Markowitz non erano altro che un confronto diretto tra la definizione del secondo delle effemeridi e una possibile definizione atomica, che dimostrava inequivocabilmente come il secondo atomico fosse molto migliore. L’orologio a fascio di cesio è tutt’oggi l’orologio commerciale con la maggiore accuratezza. Ma come funzionano questi orologi atomici? Per poterli realizzare occorre innanzitutto un gas di atomi, perché in uno stato fisico diverso, liquido o solido, le transizioni sono fortemente perturbate dagli atomi vicini e non costituiscono un buon riferimento. Inoltre, bisogna preparare gli atomi in uno stato iniziale della transizione di interesse. Successivamente, occorre generare un’onda elettromagnetica alla frequenza nominale della transizione. Il generatore, noto anche come oscillatore locale, deve essere adeguato, sia come precisione, sia perché è necessario poterlo “accordare”, portando la sua frequenza nominale sul valore esatto offerto dagli atomi. Una volta messi a punto il sistema atomico e l’oscillatore locale, occorre far interagire la radiazione e gli atomi, per esempio secondo la tecnica di Ramsey. Infine, occorre realizzare un me-
98
Gli orologi
todo per “contare” quanti atomi hanno eseguito la transizione e sono passati nello stato finale. Se la frequenza nominale dell’oscillatore è davvero corretta, il numero di atomi transitati sarà massimo. Altrimenti, si calcola una correzione da applicare all’oscillatore e si reitera il processo. La reiterazione tiene la frequenza dell’oscillatore “agganciata” alla frequenza atomica. Per completare l’orologio atomico, opportuni dispositivi elettronici prendono il segnale dell’oscillatore agganciato agli atomi e lo convertono in un’onda di periodo 1 secondo, che così è pronto per generare una scala di tempo. In Figura 2.3 è riportato uno schema a blocchi del funzionamento di principio di un orologio atomico.
Figura 2.3 Schema a blocchi del funzionamento di un orologio atomico.
Nei campioni a fascio atomico, in una struttura sotto vuoto spinto, è generato un fascio atomico di atomi che viaggia in una data direzione, così che l’orologio ha uno sviluppo lineare lungo un tubo. Procedendo, gli atomi sono selezionati nello stato iniziale, interagiscono con la microonda e poi vengono rivelati, come illustra lo schema di Figura 2.4.
99
Il tempo è atomico
Figura 2.4 Schema a blocchi di un orologio a fascio atomico di cesio (dal sito dell’INRIM, www.inrim.it).
La tecnica di Rabi consiste nell’irradiare gli atomi con un’onda elettromagnetica per un certo intervallo di tempo. Per esempio, si può usare una cavità dove l’onda risuona e gli atomi trascorrono un certo tempo passandoci dentro. Solo se l’onda è “accordata” sulla corretta frequenza, gli atomi evolvono verso lo stato finale della transizione. La tecnica di Ramsey è invece un raffinato ed elegante sviluppo di fisica quantistica. Da un punto di vista pratico, consiste in due interazioni di tipo Rabi, separate da un periodo durante il quale gli atomi non interagiscono con nulla. Le due fasi di interazione creano un fenomeno di “interferenza quantistica” che aumenta da 10 a 100 volte la selettività del sistema atomico rispetto alla frequenza della radiazione che tenta di eccitarlo. In altre parole, l’onda elettromagnetica eccita l’atomo se il valore della sua frequenza è compreso in un certo intervallo, che usando la tecnica Ramsey è 10-100 volte più stretto che non nel metodo Rabi. Il fattore di qualità della transizione è pari alla frequenza centrale della transizione stessa divisa per l’intervallo di
100
Gli orologi
eccitazione. Questa “larghezza di riga” si dimostra essere legata al tempo d’interazione dal principio di indeterminazione di Heisenberg esteso alla coppia di osservabili energia-tempo. In particolare, dal principio d’indeterminazione e dall’eguaglianza di Bohr si deduce che il prodotto dell’incertezza sulla misura di frequenza per la durata dell’interazione è circa pari a 1. O in altre parole, l’incertezza sulla frequenza è l’inverso del tempo d’interazione. Ma quanto vale il tempo d’interazione? Per un orologio a fascio di cesio, nella tecnica di Rabi, è di circa 100 µs; così, la riga è larga 10 kHz e il fattore di qualità vale Q=9,2 GHz/10 kHz=9x105. Mentre il tempo d’interazione per Ramsey si dimostra essere quello tra le due interazioni Rabi. Negli orologi a fascio commerciali, il tubo è lungo una trentina di centimetri, il tempo Ramsey è di circa 1 ms e la riga di 1 kHz, così Q=9,2 GHz/1 kHz=9x106. Nei campioni da laboratorio si è perciò cercato di allungare il tempo Ramsey costruendo dei tubi sempre più lunghi, fino a qualche metro di separazione per le due interazioni Rabi. Oltre queste dimensioni sussistono dei limiti tecnici che non permettono di guadagnare ulteriormente. Per un campione a fascio di cesio da laboratorio lungo 3 metri, percorso dagli atomi di cesio in circa 10 ms, il fattore di qualità vale Q~108, un valore già considerevolmente grande. A partire da questo fattore di qualità, un orologio a fascio di cesio riesce a realizzare la definizione del secondo con un’accuratezza relativa di frequenza di circa 10-14. Ma cosa significa? Significa che la definizione teorica di secondo si riferisce alle condizioni di un atomo imperturbato da qualsiasi effetto esterno, come se fosse solo nell’universo, a 0 K di temperatura, lo zero assoluto (-273,15 °C). La realtà, invece, ci consente di avere a che fare soltanto con atomi che non sono certo soli, ma sono immersi nei campi elettromagnetici e di gravità del mondo circostante, a temperatura
101
Il tempo è atomico
ambiente. Non solo, la tecnica stessa di Ramsey implica che gli atomi devono interagire con una microonda e, anche se lo abbiamo taciuto, occorre un campo magnetico per poter confrontare efficacemente radiazione e transizione atomica. Tutti questi elementi hanno come effetto quello di “perturbare” la frequenza di transizione, che si allontana da quella della definizione. Una volta costruito l’orologio, occorre quindi caratterizzarlo per valutare quantitativamente tutti gli effetti possibili che spostano la frequenza della transizione, e correggerli. L’incertezza associata alle correzioni è l’accuratezza. Pertanto, dichiarare un’accuratezza relativa di frequenza di circa 10-14, significa che l’orologio costruito realizza la definizione dopo le opportune correzioni con un’incertezza residua relativa di 10-14 che, in termini assoluti per il cesio, sono 10-14×9.192.631.770 Hz~90 µHz. Significa anche che due orologi così realizzati saranno in accordo statisticamente a questo livello. Se invece pensiamo al tempo, l’incertezza relativa è la stessa, che si traduce in un’incertezza assoluta, sul secondo, di 1 centesimo di millesimo di miliardesimo di secondo.
Fontane atomiche e raffreddamento laser Come migliorare questi risultati? L’idea di base era sempre quella di aumentare il tempo Ramsey e rendere ancora più selettivo in frequenza il nostro orologio. Fu un allievo di Ramsey, Jerrold Zacharias14 che, nel 1953, lanciò un’idea che non avrebbe potuto 14. Jerrold Reinach Zacharias (23 gennaio 1905 – 16 luglio 1986) è stato un fisico statunitense e professore al Massachusetts Institute of Technology. Al Mit lavorò anche al Radiation Laboratory e al Progetto Manhattan, per lo sviluppo della bomba atomica durante la Seconda Guerra Mondiale. Zacharias lavorò anche allo sviluppo dei primi orologi atomici al cesio. Fu il primo ad avere l’idea della fontana atomica e a tentare di realizzarla, convinto che, in un fascio di atomi di cesio, quelli a velocità più bassa avrebbero potuto, se sottoposti ad adeguati impulsi esterni, effettuare una traiettoria parabolica in verticale sufficiente ad allungare il tempo di Ramsey e migliorare quindi la precisione dell’orologio atomico. Nel suo tentativo non tenne però conto del fatto che, in un gas di atomi di cesio, gli atomi più veloci colpiscono quelli più lenti, modificando la loro velocità e rendendo di fatto impossibile la realizzazione della fontana.
102
Gli orologi
mettere in pratica, ma che si rivelò vincente quarant’anni più tardi. Quest’idea si chiama fontana atomica. Per aumentare ancora il tempo Ramsey, Zacharias propose di cambiare geometria, e di costruire un sistema verticale, dove gli atomi di cesio venivano lanciati in un volo balistico nel campo di gravità. Con delle spinte modeste, gli atomi potevano percorrere 1 metro circa verso l’alto, raggiungere l’apogeo e tornare indietro. Un metro soltanto, ma questo era abbastanza per allungare il tempo Ramsey fino a 1 secondo. Così, la riga si sarebbe ridotta a 1 Hz, e il fattore Q sarebbe salito a 1010, ben di 100 volte più che nei migliori fasci di cesio. La fontana di cesio si preannunciava quindi come un orologio davvero più selettivo di quelli realizzati fino ad allora e perciò molto più accurato. Inoltre, accanto a questo concetto fondamentale, la proposta di Zacharias di una fontana atomica aveva anche altri vantaggi, tra cui spicca il fatto che gli atomi eseguivano le due interazioni con la microonda nella stessa regione, una mentre gli atomi salivano e l’altra durante la discesa. Diversamente dagli orologi a fascio, dove le due interazioni avvengono in due regioni diverse. Il vantaggio nella soluzione proposta da Zacharias consiste nel fatto che la radiazione è esattamente la stessa, come del resto è richiesto dalla teoria di Ramsey, mentre, nei fasci, la microonda mostra un residuo di differenza che provoca a sua volta uno spostamento della frequenza da correggere, e quindi un’ulteriore sorgente di errore o di incertezza. Non fu però Zacharias a vedere la prima fontana all’opera. Il motivo fu piuttosto semplice: pur selezionando gli atomi più lenti della distribuzione di velocità di un gas, era impossibile per Zacharias lanciare i propri atomi in volo balistico e rivederne tornare indietro in numero sufficiente ad avere un segnale misurabile. La velocità degli atomi del vapore, anche se selezionata, era troppo alta, e gli atomi si sparpagliavano in volo verso l’alto,
103
Il tempo è atomico
come una nuvola in espansione con una velocità di allargamento eccessiva per poter tornare al punto di lancio. Ecco che allora i metrologi hanno dovuto aspettare gli anni Ottanta del secolo scorso, trent’anni dopo l’intuizione di Zacharias, quando furono messe a punto le tecniche di raffreddamento laser di vapori atomici. Grazie al contributo di moltissimi fisici, è stato possibile sviluppare tecniche per raffreddare i vapori atomici a temperature bassissime, prossime allo zero assoluto. E siccome a temperature bassissime anche l’energia cinetica, e cioè il movimento degli atomi, è particolarmente ridotta, ecco che queste condizioni si rivelano ideali per realizzare una fontana atomica. Contributi fondamentali su questa strada vennero da fisici come David Wineland e William Phillips del NIST (National Institute of Standards and Technology, USA), Stephen Chu dell’Università di Stanford, Claude Cohen Tannoudji dell’ENS (École Normale Supérieure di Parigi). Gli ultimi tre ricevettero il premio Nobel per la fisica nel 1997, “per lo sviluppo dei metodi per raffreddare e intrappolare gli atomi con la luce laser”. Non ci è affatto chiaro perché Wineland sia stato escluso dalla terna dei vincitori, ma l’appuntamento per lui fu solo rimandato. Non parleremo di raffreddamento laser, anche se sarebbe così interessante.15 Qui ci accontentiamo di sottolineare come, con questa tecnica, gli atomi di cesio arrivavano a temperature di 1 µK senza liquefarsi, il che equivale a velocità residue dell’ordine di cm/s. Queste velocità così lente finalmente permettevano di lanciare verso l’alto una nuvola, del diametro di 1 mm, composta da circa un milione di atomi e, dopo un secondo circa, di vederne tornare indietro un decimo, circa 100.000: un numero che 15. Troverete un testo approfondito sul raffreddamento laser in Harold J. Metcalf e Peter van der Straten, Laser Cooling and Trapping, Springer, 1999. Oppure in Massimo Inguscio e Leonardo Fallani, Atomic Physics: Precise Measurements and Ultracold Matter, Oxford University Press, 2013.
104
Gli orologi
consentiva perfettamente di realizzare l’esperimento. Stephen Chu e Mark Kasevich dimostrarono per primi nel 1992 il funzionamento di una fontana atomica, seguiti a breve da Christophe Salomon e André Clairon che, all’École Normale Supérieure a Parigi, realizzarono il primo orologio a fontana atomica di cesio tra il 1993 e il 1996. La Figura 2.5 mostra il principio di funzionamento di una fontana atomica.
Figura 2.5 Schema di funzionamento di una fontana atomica (dal: National Intitute of Standard and Technology, USA, www.nist.gov).
La fontana del 1996 realizzò il secondo con accuratezza di 3×10-15, che sorpassava definitivamente gli orologi a fascio termico. Dopo la fontana francese vennero le fontane di Stati Uniti, Germania e Italia, a cui poi si unirono Regno Unito e Giappone. Oggi ci sono una decina di fontane operative nel mondo, in 6 laboratori diversi. L’accuratezza delle fontane ai giorni nostri è prossima a 1×10-16 e probabilmente tale resterà, visto che la ricerca si è indirizzata verso un’altra frontiera, quella degli orologi
105
Il tempo è atomico
ottici.16 L’ Italia ha presso l’INRIM due fontane al cesio, di cui una in ambiente criogenico, che si può vedere nella fotografia di Figura 2.6.
Figura 2.6 Fotografia della fontana criogenica al cesio dell’INRIM.
Altri due atomi preziosi: rubidio e idrogeno Oltre all’orologio al cesio esistono due altri atomi su cui si basano due ottimi orologi, il rubidio e l’idrogeno. Questi due tipi di orologio, insieme a quelli al cesio, sono molto diffusi e disponibili in realizzazioni di tipo commerciale. In genere non sono orologi di elevata accuratezza, ma piuttosto di ottima stabilità; dunque, se occorre conoscere il valore assoluto e preciso del 16. Sulle fontane atomiche si può approfondire in: AA.VV., Proceedings of the International School of Physics Enrico Fermi: Recent advances in metrology and fundamental constants, a cura di T. Quinn, S. Leschiutta, P. Tavella, IOS Press, Amsterdam, 2001; Thomas E. Parker, “Longterm comparison of caesium fountain primary frequency standards”, Metrologia 47 1 (2010); R. Wynands and S. Weyers, “Atomic fountain clock”, Metrologia 42 S64 (2005).
106
Gli orologi
loro “secondo”, ovvero la frequenza esatta della loro transizione di riferimento così come viene realizzata nell’orologio, è necessaria una taratura verso un campione primario al cesio. Tuttavia, gli orologi al rubidio e all’idrogeno offrono caratteristiche fondamentali per moltissimi utilizzi, che spesso sono da preferire ai campioni al cesio. Il rubidio offre la possibilità di realizzare orologi molto compatti, addirittura miniaturizzati fino alla scala di un chip, più spesso del volume di pochi decimetri cubici, con un’ottima stabilità di breve termine, compresa tra 10-11 e 10-12 a 1 secondo, che diminuisce fino a 100-1.000 secondi, dopo di che una deriva sistemica della frequenza di questi campioni degrada significativamente la stabilità. Pur non avendo l’accuratezza né la stabilità di medio e lungo periodo del cesio, la prestazione a breve termine, la compattezza e un costo ridotto rispetto agli orologi al cesio rendono l’orologio al rubidio fondamentale in molte applicazioni, tra cui la radionavigazione satellitare. Inoltre, le tecniche di sincronizzazione in remoto, quelle che usano per esempio i segnali del GPS (si veda la sezione del libro dedicata a questo argomento), permettono di ovviare con semplicità (e di nuovo, con costi ridotti) alle derive di medio termine, rendendo accessibile un ottimo orologio di prestazioni adeguate per qualsiasi ambito industriale e moltissimi laboratori scientifici o di ricerca e sviluppo. Il maser all’idrogeno, invece, non garantisce certo né costi contenuti né compattezza: ha un volume di un mezzo metro cubo circa e costa oltre i 100.000 euro. La sua accuratezza non va sotto le parti in 10-12-10-13 e, per conoscerne meglio la frequenza assoluta, occorre una taratura verso un orologio primario al cesio. Nonostante questi svantaggi, il maser all’idrogeno è l’orologio commerciale più stabile che esista soprattutto sui tempi medi e lunghi, caratteristica che lo rende strategico nelle applicazioni dove la sincronizzazione è fondamentale e soprattutto su scale
107
Il tempo è atomico
di tempo lunghe. Per un maser, parliamo in genere di stabilità di 10-13 a 1 secondo che diminuisce fino a poche parti in 10-16, dove trova un suo limite non migliorabile (limite da rumore flicker di frequenza). Tuttavia, non esiste orologio commerciale che possa eguagliarlo su questi intervalli di misura; inoltre, la sua frequenza è affetta anch’essa da una deriva sistematica di frequenza, ma, al contrario dell’orologio al rubidio, se usato nelle appropriate condizioni, la deriva del maser è estremamente regolare e quasi completamente lineare, così che una volta misurata può essere compensata con un dispositivo elettronico apposito. Le applicazioni, dato il notevole costo per singolo orologio, sono in genere riservate all’ambito metrologico – per la realizzazione di scale di tempo molto stabili, o per generare oscillatori locali a microonde per le fontane atomiche – alla fisica atomica di precisione e alla radioastronomia, dove per le antenne radio occorrono dei riferimenti molto stabili dalle ore di misura fino anche all’anno di misura, e per i segmenti di terra dei Sistemi Satellitari di Radionavigazione (Global Navigation Satellite Systems, GNSS) come il GPS, fondamentali per la corretta sincronizzazione degli orologi a bordo dei satelliti. Il maser all’idrogeno17 usa come riferimento la riga iperfine dello stato fondamentale dell’atomo, proprio come nel cesio, solo che per l’idrogeno la transizione ha una frequenza equivalente di 1.420.405.751,752 (3) Hz. Il primo maser all’idrogeno fu costruito ad Harvard da Norman J. Ramsey, David Kleppner e H. M. D. Goldenberg, nel 1960, ma doveva molto anche alle ricerche di Charles H. Townes, J. P. Gordon, e H. J. Zeiger alla Columbia University nel 1953 sul maser all’ammoniaca a 24 gigahertz. 17. Sul maser all’idrogeno, Jacques Vanier e Audoin, The Quantum Physics of Atomic Frequency Standards, cit. o uno degli articoli originali di Ramsey: N. F. Ramsey, “The Atomic Hydrogen Maser”, Metrologia, 1, 7-16 (1965).
108
Gli orologi
Già negli anni Cinquanta, il gruppo di Harvard aveva dimostrato che le tecniche del fascio di cesio non si potevano usare con l’idrogeno, così, per sviluppare un orologio a idrogeno, individuarono un principio fisico diverso, quello del Maser, l’acronimo inglese di Microwave Amplification by Stimulated Emission of Radiation (Amplificazione di Microonde tramite Emissione Stimolata di Radiazioni), che è in sostanza lo stesso principio fisico del laser, ma opera nella regione delle microonde dello spettro elettromagnetico. Esistono due tipi di maser all’idrogeno, il più comune e più performante maser attivo, e quello meno diffuso, ma più compatto, maser passivo.
Figura 2.7 Schema di funzionamento di un maser all’idrogeno (si confronti il testo).
Il maser attivo funziona così, come anche illustrato in Figura 2.7: un fascio di idrogeno molecolare (stabile e meno esplosivo del gas atomico) viene dissociato da una scarica elettrica in un contenitore di vetro, producendo tra l’altro una particolare luce di color viola. L’idrogeno atomico prodotto viene collimato e polarizzato nello stato eccitato della transizione di orologio, dopo di che è immagazzinato in un bulbo di vetro, con le pareti ricoperte da un materiale particolare, in genere il teflon, che ha
109
Il tempo è atomico
lo scopo di rendere minime le transizioni dell’idrogeno verso lo stato fondamentale o la ricombinazione in idrogeno molecolare nel processo di urto tra atomo e pareti del bulbo. Il bulbo si trova in una cavità generalmente in vetro che può risuonare sulla frequenza di 1,42 GHz con il migliore fattore di qualità possibile, a cui è accoppiato un debole campo a microonda; l’effetto della presenza degli atomi è quello di emettere fotoni a 1,42 GHz tutti in fase coerente tra loro amplificando il debole campo che innesca il processo, creando il fenomeno maser. Questo campo a microonde ha una potenza tipica di 0,1 picowatt e viene estratto con un’antenna di accoppiamento e portato in uscita dall’orologio dopo essere stato ridotto in frequenza con un’elettronica dedicata che tipicamente genera uscite a 5, 1 e 100 MHz. Sono presenti anche un solenoide percorso da corrente che avvolge la cavità e genera il campo di quantizzazione per rendere efficiente il processo; e poi diversi schermi magnetici per isolare il sistema atomico dal campo magnetico terrestre e da altri campi parassiti che invece tendono a rendere il fenomeno meno efficace. Infine, essendo la cavità e la frequenza di emissione piuttosto sensibili alla temperatura, tra i servosistemi fondamentali troviamo la stabilizzazione in temperatura dell’orologio. Le fluttuazioni residue di temperatura agiscono sulla lunghezza della cavità causando le derive di frequenza dell’orologio, che in molti modelli di maser all’idrogeno sono minimizzate con un servosistema che cambia la lunghezza della cavità in modo da compensare il cammino di frequenza. Il maser passivo è molto più compatto perché elimina la cavità di quello attivo, che per risonare a 1,42 GHz deve avere un diametro di circa 30 cm. A parte la cavità e il suo servocontrollo, il maser passivo ha componenti analoghi a quello attivo. Il campo a microonda di innesco è un po’ maggiore, e, senza la cavità, la
110
Gli orologi
potenza del segnale prodotto dagli atomi ed estratta dal bulbo è ancora più bassa, causando una minore stabilità della frequenza campione generata rispetto al modello attivo, ma pur sempre garantendo un’ottima prestazione per gli orologi atomici. Il maser passivo, per la sua compattezza e la sua alta stabilità, è stato scelto per essere installato a bordo dei satelliti del sistema di navigazione Galileo, come si vedrà più avanti. Il rubidio è un metallo alcalino con proprietà molto simili al cesio, e la frequenza iperfine di riferimento del suo isotopo 87 vale 6.834.682.610,904 312 Hz, con un incertezza di soli 1,3×10-15. Tale valore, così accurato, deriva da un confronto tra una fontana atomica al cesio e una al rubidio, e ha permesso di inserire questa transizione tra le Rappresentazioni Secondarie del Secondo, una lista di frequenze, quasi tutte di orologi ottici, che possono essere usate come una sorta di realizzazione pratica del secondo con un’incertezza definita, in genere uguale o peggiore di 1×10-15.18 Avendo parlato di fontana atomica al rubidio, si capisce che quest’atomo può essere raffreddato con tecniche laser (e anche fino alla condensazione di Bose-Einstein) e limitano la sua accuratezza grossomodo gli stessi limiti delle fontane al cesio. Storicamente, la scelta del cesio fu motivata dalla frequenza, maggiore di circa 30%, e per alcune caratteristiche fisiche di stabilità e di minor reattività chimica. Esiste anche un altro isotopo del rubidio, chiamato 85Rb, ma si è dimostrato meno valido per realizzare l’orologio. Qui, però, non siamo interessati alle fontane di rubidio, ma piuttosto a un altro tipo di orologi che si sviluppano con questo atomo e che sono detti campione in cella, perché basati su atomi intrappolati in una cella di vetro o di quarzo insieme a un gas inerte, generalmente una miscela di azoto, neon o argon, detto gas tampone.19 Questa cella non necessita così di alto vuoto come nei 18. Un elenco delle rappresentazioni secondarie del secondo e il loro significato metrologico si trova sul sito del BIPM, www.bipm.org. 19. Jacques Vanier e Audoin, The Quantum Physics of Atomic Frequency Standards, cit.
111
Il tempo è atomico
campioni a fascio di cesio o a fontana, né dei banchi ottici complessi di una fontana; inoltre, come si è detto, la cella è compatta e può essere anche miniaturizzata. Il gas tampone della cella ha diverse funzioni tutte finalizzate a migliorare la stabilità rispetto a un gas atomico puro in cella. Tra queste, quelle fondamentali sono di esercitare una localizzazione del rubidio, e dunque diminuire l’effetto Doppler che allarga la riga atomica di riferimento e ridurre l’effetto delle collisioni atomo-parete, molto più dannose di quelle tra gli atomi di rubidio e quelle del gas tampone.
Figura 2.8 Schema di funzionamento di un orologio in cella al rubidio (si confronti il testo).
Come mostra lo schema di Figura 2.8, la cella è posta in una cavità risonante con la frequenza di riferimento, accoppiata a una frequenza nominalmente risonante generata da un oscillatore locale, cioè un quarzo con una catena elettronica di sintesi. Completano la struttura fisica dell’orologio un solenoide che genera il campo di quantizzazione, alcuni schermi magnetici e un circuito di stabilizzazione in temperatura. Infine, un ultimo componente essenziale è una lampada o un laser a 780 nm che
112
Gli orologi
pompa gli atomi di rubidio nello stato eccitato della transizione. Questo processo fisico prende il nome di pompaggio ottico, fu studiato da Alfred Kasler negli anni Cinquanta del Novecento e gli valse il Nobel per la fisica nel 1966. La luce pompante entra nella cella e, uscitane, è diretta verso un fotorivelatore. Una volta che tutti gli atomi, o il massimo numero di atomi possibile, è pompato nello stato eccitato, la radiazione di pompaggio viene minimamente assorbita dal mezzo atomico, così il fotorivelatore segnala un massimo di corrente. A questo punto, si irradiano gli atomi con la microonda: se questa è in risonanza con la transizione di orologio, induce gli atomi a decadere, i quali decadendo potranno di nuovo assorbire fotoni a 780 nm, diminuendo il segnale del fotorivelatore. Quest’ultimo, pertanto, segnala quando l’oscillatore locale è sulla frequenza corretta, permette di estrarre un segnale di correzione e di mantenere l’oscillatore sulla frequenza del rubidio, realizzando l’orologio. Un altro vantaggio del gas tampone è quello di rendere minimi i decadimenti del rubidio per urto con le pareti o con altri atomi omologhi, massimizzando il segnale al rivelatore; con un maggior segnale si ottiene una stabilità migliore. L’orologio in cella descritto non è accurato in senso stretto, perché gli urti degli atomi, la presenza di luce a 780 nm e gli effetti di saturazione legati alla microonda iniettata sono tutti difficilmente valutabili a priori o con opportuni test sul sistema; è necessaria invece la taratura per conoscere la frequenza dell’orologio al rubidio con un’accuratezza migliore di 10-10-10-11, ottenuta con la valutazione del solo dispositivo al Rb. La migliore stabilità è garantita usando diodi laser per il pompaggio ottico, e nei campioni più performanti la stabilità dell’orologio al rubidio in cella è migliore di quella di un fascio di cesio commerciale fino a 10.000 secondi, quando la deriva di
113
Il tempo è atomico
frequenza e i suoi rumori statistici degradano la stabilità a fronte di quella dell’orologio al cesio che continua a migliorare. I campioni in cella, dato il vasto interesse per i loro impieghi nelle più varie discipline, hanno conosciuto un notevole sforzo di ricerca per adottare nuove tecniche tali da produrre nuovi campioni atomici, sempre più stabili. Tra i metodi più innovativi, possiamo solo citare quelli basati sul Coherent Population Trapping e sui campioni Pulsed Optically Pumped per i quali rimandiamo a una letteratura più specializzata.20
Il trionfo del laser: orologi, pettini e reticoli ottici La corsa per la misurazione sempre più precisa del tempo non si è quindi arrestata alle fontane atomiche. Un nuovo spunto venne ai ricercatori dalla luce visibile. Il mondo è pieno di colori perché gli atomi assorbono ed emettono molte radiazioni con frequenza nella gamma percepibile all’occhio umano. Le transizioni atomiche associate si dicono ottiche e, a partire dagli anni Sessanta, possono essere eccitate con un oscillatore locale formidabile: il laser. La letteratura scientifica e divulgativa sui laser è sterminata,21 e la cosa non stupisce: un fenomeno quantistico così peculiare, con così tante applicazioni, non poteva che tradursi in un interesse e una passione che ha riempito sì libri, ma anche film e, insomma, l’immaginario collettivo. Nella nostra storia, però, i laser hanno una caratteristica che li rende magnifici: possono convogliare gran parte dell’energia in una regione spettrale molto stretta. In altre parole sono degli oscillatori con Q altissimo. Certo, complice è la frequenza della radiazione dello spettro visibile, compresa in una regione tra 400 e 800 THz (migliaia di 20. Per le nuove tecniche di CPT e POP, si può leggere Aldo Godone, Filippo Levi e Salvatore Micalizio, Coherent population trapping maser, CLUT, 2002; Aldo Godone, Salvatore Micalizio, Claudio E. Calosso, Filippo Levi “The Pulsed Rubidium Clock”, IEEE Transactions on Ultrasonics, Ferroelectrics and Frequency Control, 53, 525-529 (2006). 21. Per una storia del laser: Mario Bertolotti, Storia del laser, Bollati Boringhieri, 2000.
114
Gli orologi
GHz), ma il merito è della larghezza di riga, che già per alcuni laser commerciali raggiunge qualche migliaio di Hz (Q=5×1011) e che nei laser da laboratorio per la spettroscopia e per gli orologi atomici arriva fino a meno di 1 Hz! Questo implica, per laser di questo tipo, un incredibile fattore di qualità, maggiore di 5×1014. Questi laser sono così appropriati per eccitare righe atomiche ancora più strette, come quelle degli orologi ottici, dove si parla di righe atomiche larghe mHz, e pertanto di Q=5×1017 per la transizione. Ci troviamo davvero di fronte a un notevole salto rispetto alle fontane di cesio! Se l’appetito vien mangiando, si potrebbe pensare di poter andare ancora più in su con la frequenza, oltre la regione del visibile, e di poter trovare orologi a raggi X o a raggi gamma. Anche se ancora non esiste un oscillatore ad alto Q per eccitare queste transizioni, che effettivamente si verificano nel mondo dell’atomo, o del nucleo, come accenneremo alla fine del capitolo. Le transizioni degli orologi ottici sono così strette perché sono molto “proibite”. Che cosa vuol dire? Nel mondo quantistico la larghezza ultima della riga atomica è definita dalla probabilità che quella transizione avvenga. La probabilità, a sua volta, è determinata da alcune circostanze, di cui non tratteremo, ma che determinano nel complesso una serie di regole di selezione. Queste regole indicano quali transizioni sono permesse e quali no e sono dettate da principi fondamentali della fisica, come le leggi di conservazione del momento angolare o d’invarianza temporale. Così, le transizioni buone per essere utilizzate in un orologio sono molto particolari e si eccitano con bassa probabilità. Questo a sua volta impone che debba essere estremamente preciso l’intervallo di frequenza con cui si vanno a eccitare, da cui l’alto Q. Inoltre, caratteristica generale di queste transizioni è la sensibilità ridotta ai campi esterni, soprattutto elettrici e magnetici, che aumentano l’accuratezza dell’orologio, perché lo avvicinano
115
Il tempo è atomico
sempre di più a quella condizione ideale di cui avevamo parlato in precedenza: cioè utilizzare un atomo solo e imperturbato nell’universo. Abbiamo già visto come l’atomo di cesio, per quanto assolutamente adatto a realizzare un orologio atomico, sia soggetto a molte perturbazioni e influssi dall’esterno, che rappresentano in sostanza l’incertezza della misurazione del tempo. Ebbene, nelle transizioni ottiche le interferenze hanno un impatto 100 volte meno importante che per il cesio. La transizione ottica, in altre parole, è molto meno propensa di quella a microonda del cesio a intrattenere relazioni con il mare di fotoni che le passano intorno. Di fatto, gli orologi ottici hanno un’accuratezza potenziale di 1×10-18 che, una volta raggiunta (ancora non ci siamo arrivati), consegnerà nelle mani dei fisici uno strumento ancora più potente per l’indagine sulla natura. Per esempio, un orologio di questo tipo sarebbe in grado di osservare l’effetto gravitazionale delle maree, la cui interferenza sulla frequenza di un orologio è valutata nella misura di 5×10-17. Ma a che punto siamo arrivati, oggi, nella realizzazione di orologi ottici così precisi? Vediamo un attimo quali componenti servono per ottenerli. Della transizione s’è detto, così anche del laser: entrambi erano già pronti dagli anni Settanta del secolo scorso. Come per il cesio, anche per gli atomi con transizioni ottiche serve il raffreddamento laser per raggiungere le vertiginose accuratezze: anche questa tecnologia era disponibile alla fine degli anni Ottanta. Mancano però due ingredienti importanti, acquisiti alla scienza tra gli anni Ottanta e la fine del secolo scorso.
L’interazione tra atomo e laser Cominciamo dal primo “ingrediente”, l’interazione tra atomo e laser. Al contrario del cesio, qui non abbiamo bisogno della tecnica di Ramsey, basta quella di Rabi con una sola interazione. 116
Gli orologi
Il motivo si spiega grazie a due meravigliosi traguardi raggiunti da un terzetto di scienziati: Hans Georg Dehmelt, Wolfgang Paul e Hidetoshi Katori. I primi due hanno vinto il Nobel per la Fisica nel 1989 insieme con Norman Ramsey; il terzo è alla guida del laboratorio di Metrologia quantistica del Riken, il più importante centro di ricerca scientifica del Giappone. Finora abbiamo parlato di transizioni ottiche, ma non abbiamo svelato nulla sull’identikit dell’atomo. Così come ci sono orologi a microonde basati su atomi diversi, anche nell’ottico abbiamo ottimi e svariati candidati. Tutti gli atomi buoni per farci orologi condividono una caratteristica: hanno uno oppure due elettroni nel livello energetico più esterno. Gli orologi a microonda sono in genere atomi con un solo elettrone, come idrogeno, cesio e rubidio. Negli orologi ottici, invece, abbiamo in genere due elettroni, come nel caso di magnesio, calcio, stronzio e mercurio. Ma attenzione: ora complichiamo un po’ le cose, perché finora abbiamo parlato di atomi esclusivamente neutri, cioè a carica complessiva nulla per via del pareggio tra numero di elettroni e protoni. Nel mondo atomico, però, esistono anche gli ioni, anch’essi così importanti per le reazioni chimiche, che sono atomi neutri a cui è stato sottratta o ceduta una carica elettrica. Ci sono pertanto ioni che avranno un elettrone o due elettroni nello stato più energetico, dotati di una loro struttura energetica peculiare. Anche gli ioni sono usati per realizzare orologi: lo ione mercurio Hg+, quello itterbio Yb+, e quello alluminio Al+, per esempio. Perché sono interessanti gli ioni? Hans Georg Dehmelt e Wolfgang Paul hanno dimostrato un modo efficace per intrappolarne anche uno soltanto in una gabbia elettromagnetica che li trattiene per un tempo indefinito. Mentre sono intrappolati, un oscillatore locale può interagire con loro e indurre transizioni, sia a microonda sia ottiche. L’interazione può durare un tempo indefinito, così, il vantaggio della tecnica Ramsey
117
Il tempo è atomico
si riduce, potendo scegliere una lunghezza del tempo di interazione a piacere. Basta un’interazione sola, ma lunga abbastanza. E la cosa più meravigliosa è che questa gabbia elettromagnetica non perturba la transizione di orologio in modo significativo. Non solo. Si riesce a intrappolare anche un solo ione, in modo tale, volendo, da non risentire degli effetti delle collisioni tra ioni. Questo rende il sistema quantistico a ione estremamente accurato! Se consideriamo le transizioni ottiche proibite e la loro refrattarietà a interagire col mondo esterno, capite che l’accuratezza potenziale di questi orologi è enorme: e infatti vedremo fra breve che è proprio un orologio a ioni il migliore mai realizzato finora. Dehmelt e Paul videro le loro ricerche i questo campo opportunamente riconosciute dalla comunità scientifica con il Nobel vinto insieme con Ramsey. Per gli atomi neutri, le cose sono andate un po’ diversamente. Per loro, infatti, non esistono gabbie elettromagnetiche tali da lasciare l’atomo imperturbato. Anzi, in genere la transizione di orologio si sposta in frequenza di quantità che non si possono correggere, se non a prezzo di un’imprecisione che li rende non competitivi come orologi di grande accuratezza. L’unico modo per intrappolare gli atomi neutri è l’uso del laser che, oltre a raffreddare, consente di costruire delle vere e proprie trappole ottiche in cui confinare gli atomi neutri, per i quali le trappole elettriche usate per gli ioni non funzionano. Insomma, fino a non molto tempo fa sembrava che la tecnica Ramsey fosse l’unica via per misurare la frequenza di transizione di un atomo, con problemi non superabili, legati alle caratteristiche dei laser utilizzati, che hanno un “fronte d’onda” tale da limitare l’accuratezza finale a parti in 10-14. Fu a metà degli anni Novanta che Hidetoshi Katori studiò accuratamente un particolare effetto della luce sui livelli della
118
Gli orologi
transizione d’orologio per gli atomi a due elettroni di valenza. Katori dimostrò22 che esiste una lunghezza d’onda “magica” alla quale si può intrappolare un atomo a due elettroni senza perturbare la transizione di orologio. In effetti, alla lunghezza d’onda magica, il laser perturba i singoli livelli di energia dell’atomo, ma il livello iniziale e finale della transizione cambiano la loro frequenza associata della stessa quantità: così la differenza di frequenza che individua la transizione resta la stessa. Questa scoperta ha spalancato la porta a orologi ottici con atomi neutri che potevano di nuovo gareggiare in accuratezza con gli ioni, consentendo anche in questo caso di mettere da parte la tecnica di Ramsey e i suoi problemi nell’ottico per utilizzare invece un’interazione di tipo Rabi sufficientemente lunga. Una rappresentazione di orologio ottico a reticolo si vede in Figura 2.9.
Figura 2.9 Schema di principio di una misura di frequenza assoluta per un orologio ottico ad atomi neutri. Un laser ultra-stabile (clock laser) eccita la transizione di riferimento di un sistema atomico, raffreddato con il laser e intrappolato in un reticolo alla lunghezza d’onda “magica”. Un pettine ottico permette di confrontare il laser con la frequenza di una fontana atomica, che misura anche un maser all’idrogeno con cui si genera la scala di tempo. 22. Katori H., Takamoto M., Pal’chikov V.G., Ovsiannikov V.D., “Ultrastable optical clock with neutral atoms in an engineered light shift trap”, Phys. Rev. Lett. 91, 173005 (2003).
119
Il tempo è atomico
Oggi, gli orologi ottici ad atomi neutri sono competitivi, superano o quasi le fontane atomiche in precisione e, per alcuni aspetti, sono anche migliori degli orologi a ioni. Infatti, mentre l’accuratezza del sistema a ione sembra al momento nettamente superiore, la sua stabilità lo è assai meno. Negli orologi con i “neutri” si hanno a disposizione migliaia di atomi, così che i segnali sono migliori e l’orologio alla fine è più stabile rispetto al caso degli ioni con uno o pochi atomi a disposizione. La ricerca su questi sistemi è in questo momento la frontiera della metrologia di frequenza, e ormai si parla apertamente di una ridefinizione del secondo che abbandoni il cesio e incorpori le possibilità offerte dalle transizioni ottiche.
Il pettine ottico Torniamo ora (ricordate?) ai due ingredienti fondamentali per realizzare un orologio con i laser. Il primo era l’interazione del fascio di luce collimato con gli atomi e, quindi, le trappole elettromagnetiche sviluppate negli anni Ottanta e Novanta. Fondamentali, ma non sufficienti nell’imprimere un’accelerazione a questa disciplina se, alla fine degli anni Novanta, Ted Hänsch non avesse messo a punto il secondo ingrediente e, cioè, il pettine ottico di frequenza a laser impulsato. Per entrare nel vivo della questione, occorre riflettere sulla natura stessa delle misure. Misurare significa creare un metodo per confrontare una quantità con la sua unità di misura e determinare il rapporto tra queste due quantità omogenee. Per la misura assoluta di frequenza occorre confrontare le frequenze con la realizzazione primaria, cioè l’atomo di cesio. Per frequenze basse, diciamo fino alle microonde, questo avviene usando strumenti molto affidabili e di lungo corso come i contatori elettronici. Il gioco 120
Gli orologi
è semplice: si prende la frequenza da misurare e la si invia con un cavo al contatore. Su un altro ingresso, si invia la frequenza campione generata dall’orologio primario e l’elettronica fa il resto, restituendo sullo schermo la misura assoluta della frequenza con grande precisione. Per frequenze visibili, per esempio per la frequenza di un laser, l’elettronica non ci aiuta più, non ce la fa: la misura semplice del contatore si trasforma in una complicatissima catena di laser in cascata. Questo almeno avveniva prima dell’intervento risolutivo di Hänsch. Si procedeva così: cominciando dal laser da misurare, poi si mandava la sua luce, accoppiata con quella di un laser a frequenza più bassa, su un dispositivo a semiconduttore, un fotodiodo, capace di restituire un segnale con la frequenza pari alla differenza delle frequenze dei laser. Scegliendo in modo opportuno il secondo laser, questa differenza cadeva nell’intervallo delle frequenze misurabili dal contatore utilizzato abitualmente per l’orologio al cesio. Dal secondo laser si ripartiva in modo analogo, con un terzo laser a frequenza minore e un secondo fotodiodo. In questo modo, con un numero variabile di laser e fotodiodi si riusciva a “convertire verso il basso” la misura, spezzettandola in numerosi passi, in media tra i cinque e i dieci, a seconda del laser da misurare. La misura era un vero e proprio esperimento, l’incertezza risultante era molto superiore all’accuratezza dell’orologio al cesio.23 23. Per farsi un’idea della complessità di queste misure, si può leggere tra gli altri K. M. Evenson, J. S. Wells, F. R. Petersen, B. L. Danielson, G. W. Day, R. L. Barger, J. L. Hall, “ Speed of Light from Direct Frequency and Wavelength Measurements of the Methane-Stabilized Laser”, Phys. Rev. Lett. 29, 1346-1349 (1972). Questo articolo è particolarmente interessante perché riporta una delle più accurate misure della velocità della luce che portò nel 1983 alla ridefinizione dell’unità di lunghezza, il metro, indicando un valore esatto per la velocità della luce e legandola all’unità di tempo, per cui “il metro è la distanza percorsa dalla luce nel vuoto in 1/299.792.458 di secondo” ovvero, si definisce come esatta la velocità della luce nel vuoto, pari a 299.792.458 metri al secondo.
121
Il tempo è atomico
Capite che, in queste condizioni, usare la frequenza di un laser per farci un orologio che poi potesse entrare in competizione con quello al cesio era un po’ velleitario. È successo invece che, nel 1999, Ted Hänsch, al Max Planck Insitute di Monaco di Baviera, abbia messo a punto un nuovo metodo con cui, usando un laser impulsato e tecniche particolari di ottica non lineari, come le cosiddette fibre fotoniche, realizzò il primo sistema del pettine ottico di frequenza. Di colpo, con questa soluzione, si spazzava via tutta la catena dei laser della conversione verso il basso. Con la tecnica di Hänsch basta un solo laser, il pettine ottico appunto, per consentire di confrontare direttamente l’orologio ottico con la sorgente laser prescelta. L’incertezza aggiunta è risibile, un milione di volte minore dell’accuratezza del cesio. Grazie alla scoperta del pettine ottico, quindi, restavano a fronteggiarsi soltanto l’orologio al cesio e l’orologio ottico per stabilire quale dei due limitasse maggiormente la misura. Fu una rivoluzione, ovviamente coronata dal Nobel della fisica per Hänsch nel 2005.24 Per inciso, il premio Nobel fu diviso da Hänsch con Roy Glauber (per i suoi studi sulla fisica della correlazione nei laser) e con John Hall del JILA di Boulder, in Colorado, uno studioso che ha dato moltissimo al mondo degli orologi atomici: basta dire che la tecnica con cui si restringe la riga dei laser per realizzare gli orologi ottici si chiama tecnica di Pound-Drever-Hall. Solo con l’introduzione del pettine ottico di frequenza è cominciata la vera corsa dell’orologio ottico sull’orologio al cesio e, possiamo dire, ormai ci siamo quasi: il sorpasso è in corso. 24. Guardate la lezione di T. Haensch, “Nobel lecture: a passion for precision”, presso l’Accademia del Nobel in occasione della premiazione del 2005. La trovate all'indirizzo www.nobelprize.org/nobel_prizes/physics/laureates/2005/hansch-lecture.html, Lecture Nobel haebnsch o in versione articolo: T. W. Haensch, “Nobel lecture: a passion for precision”, Reviews of modern physics, 78, 297-1309, (2006).
122
Gli orologi
L’accuratezza dimostrata è superiore di almeno 10 volte, la stabilità dell’orologio addirittura di più di 100 volte. Agli orologi ottici manca soltanto un po’ di robustezza: mentre una fontana atomica può misurare per mesi e mesi senza fermarsi e un orologio al cesio commerciale lavora per anni e anni, gli orologi ottici oggi sono complessi dispositivi da laboratorio, difficilmente in grado di superare il giorno completo di funzionamento senza l’intervento di scienziati esperti. Inoltre, ci sono altri aspetti della catena metrologica che vanno ancora curati, ma la strada verso una ridefinizione del secondo è ormai chiara. La ridefinizione futura, che probabilmente non ci sarà prima di 5-10 anni (quindi dal 2018 in poi), forse non porterà a un cambio di paradigma: il secondo resterà “atomico”, ma non si baserà più sulla transizione iperfine del cesio, bensì sulla transizione ottica di un insieme di atomi, senza preferirne uno in particolare, visto che la rosa è ampia e non ci sarà un candidato migliore di altri. Questo porrà certamente qualche questione tecnica da risolvere in sede normativa, in modo da accordare la realtà scientifica alle esigenze pratiche di un Sistema Internazionale delle Unità di misura. Per avere un quadro sull’evoluzione dell’accuratezza degli orologi atomici, basta guardare il grafico di Figura 2.10, dove è abbastanza evidente la convergenza degli orologi ottici sull’accuratezza del cesio e il sorpasso in corso mentre scriviamo. Questo, salvo sorprese al di là dello stato dell’arte, di cui parleremo tra un attimo. Prima, vorremmo raccontarvi brevemente le meraviglie dell’orologio più accurato finora messo a punto, meraviglie che hanno portato all’ultimo Nobel della nostra galleria di premiati, il fisico americano del NIST David J. Wineland.
123
Il tempo è atomico
Figura 2.10 Evoluzione dell’accuratezza degli orologi atomici. In nero si vedono gli orologi al cesio, in grigio la retta delle misure ottiche che hanno portato gli orologi ottici a superare quelli al cesio. Sono indicati due momenti storici importanti: l’avvento delle fontane di cesio e quello dei pettini ottici di frequenza.
Il Nobel 2012: orologi ottici e computer quantistico David J. Wineland ha dato un contributo eccezionale allo sviluppo delle tecniche di raffreddamento laser. Allievo di Ramsey e di Dehmelt, ha anche realizzato, insieme con il collega James Bergquist, l’orologio a ione di mercurio del NIST, che viene quotato di un’accuratezza pari a 7×10-18. Ma il Nobel gli è stato assegnato per “gli innovativi metodi sperimentali che rendono possibile la misurazione e la manipolazione di sistemi quantici individuali”. In altre parole, per aver penetrato così a fondo i misteri del mondo quantistico da piegarli al controllo della scienza, e volgerli alla realizzazione di orologi ultraprecisi, ma anche alla nuova frontiera del computer quantistico.
124
Gli orologi
Il risultato più avanzato dei suoi studi è l’orologio a ioni di alluminio Al+,25 con un’accuratezza stimata di poche parti in 10-18. La particolarità dell’Al+ è il fatto che la transizione di orologio mostra un’incredibile refrattarietà all’interazione con il mondo, aspetto che rende lo strumento quanto di più vicino attualmente ci sia a un sistema quantistico imperturbato. Una seconda caratteristica fondamentale dell’Al+ è che non si può raffreddare con le tecniche ordinarie del raffreddamento laser. Questo problema, apparentemente insormontabile, è stato risolto con perizia dal gruppo di Wineland, consegnandoci un sistema quantistico pressoché perfetto per controllare e sfruttare le magie del microcosmo. Il raffreddamento è ovviamente necessario, altrimenti l’agitazione termica renderebbe il sistema atomico non accurato né ben manipolabile. Parliamo di agitazione proprio per la stretta connessione che, nel mondo atomico, si verifica tra calore e movimento: più gli atomi sono mobili, più elevata è la loro temperatura. Per raffreddarli occorre quindi cercare in qualche modo di immobilizzarli, impresa complessa, ma realizzata molto bene dai laser usati per il super raffreddamento. Senza addentrarci in troppi dettagli tecnici, per capire il funzionamento basta pensare alla similitudine del tennista. I sistemi laser per il raffreddamento degli atomi bombardano le particelle con fotoni da sei direzioni diverse. È come se sei macchine lanciassero tutte insieme contro un tennista centinaia di migliaia di palline da tennis: sommati insieme gli impatti rallenterebbero gli spostamenti del nostro atleta fin quasi a fermarlo. Con gli atomi, una volta ridotti al minimo movimento ed energia cinetica con questo sistema, otteniamo nello stesso tempo il risultato di eliminare anche quasi tutta l’energia termica. 25. T. Rosenband, et al., “Frequency Ratio of Al+ and Hg+ Single-Ion Optical Clocks; Metrology at the 17th Decimal Place”, Science, 1808-1812 (2008).
125
Il tempo è atomico
Per quanto riguarda lo ione alluminio Al+, che si sottrae all’effetto frenante dei fotoni sparati dai laser per il raffreddamento, il gruppo di Wineland ha messo a punto una tecnica molto efficace di “raffreddamento simpatetico”, in cui nella medesima struttura coesistono due specie atomiche: l’Al+, appunto, e il berillio ione Be+. O meglio, inizialmente era il Be+ e ora lo si sta sostituendo con il Mg+, ma è un dettaglio. Il Be+ è un sistema raffreddabile con tecniche laser standard: una volta portato a basse temperature e posto vicino all’Al+, è in grado di interagire con questo e di sottrargli calore, ovvero quantità di moto. È un po’ come mettere un oggetto caldo a contatto di uno freddo: il risultato è una temperatura di equilibrio che per l’oggetto caldo corrisponde a un raffreddamento. Per il sistema Al+-Be+ funziona un meccanismo analogo. Solo che gli scambi avvengono tutti per via quantistica e non classica. Non è l’unica particolarità: siccome, per motivi del tutto analoghi a quelli che rendono impossibile il raffreddamento, è anche difficile rivelare la transizione di orologio dello ione alluminio Al+, Wineland si è inventato un metodo per cui, dopo aver raffreddato il Be+, si estrae energia termica da Al+, fino a renderlo pronto per l’eccitazione della transizione d’orologio. Una volta indotta la transizione, l’informazione che Al+ ha cambiato il suo stato atomico viene trasferita al Be+ con un’interazione quantistica tra i due ioni. Un vero e proprio esempio di scambio quantistico dell’informazione, che consente poi di intervenire sul Be+, molto più mansueto, per effettuare il rilevamento, a livello microscopico, che consente allo scienziato di acquisire l’informazione tanto desiderata. Lavoro relativamente semplice, dal momento che i livelli del Be+ consentono una rivelazione laser standard. Lo scambio d’informazione quantistica continua a preservare le doti di imperturbabilità di Al+, che si rivela uno strumen-
126
Gli orologi
to veramente formidabile sia come orologio sia come sistema adatto all’elaborazione quantistica dell’informazione. Insomma, partendo da questo ione si può ipotizzare di creare il primo nucleo di un possibile computer quantistico. Ma lasciamo le magie delle ricerche di Wineland, e lanciamo uno sguardo veloce nella direzione additata dall’immancabile domanda: “E dopo? Quali saranno gli orologi del futuro?” La linea di sviluppo sarà sempre e comunque la caccia al Q, il tentativo di trovare fenomeni con Q migliore, sia per frequenza maggiore sia per larghezza di riga minore. Un candidato, oltre agli orologi ottici, esiste già ed è molto affascinante, perché di nuovo potrebbe cambiare il paradigma fisico dell’orologio, portandoci dalla fisica atomica a quella nucleare.26 Tutti quanti ormai hanno un’idea di come sia strutturato un atomo. Sappiamo quindi che anche il nucleo atomico è un sistema quantistico che presenta stati energetici quantizzati con frequenze associate, tipicamente elevatissime. Per questo motivo non è affatto facile trovare sorgenti di frequenze, di tipo “oscillatore locale”, che eccitino le transizioni atomiche e siano al tempo stesso molto strette in frequenza, cioè a Q alto. Tuttavia, tra le transizioni nucleari di minor energia ce ne sono alcune nella frequenza dell’ultravioletto, in una banda dove già esistono laser ottimi per essere usati come oscillatore locale, per esempio nell’atomo di torio. Il sistema è poi anche confrontabile con orologi atomici e al cesio, perché i pettini ottici di frequenza coprono sufficientemente la parte ultravioletta dello spettro interessata da queste interazioni subatomiche. Aggiungiamo che il sistema nucleare, oltre a un Q molto alto, presenta un’imperturbabilità notevole, perché solo altri fe26. E. Peik, C. Tamm, “Nuclear laser spectroscopy of the 3.5 eV transition in Th-229”, Europhys. Lett. 61, 181 (2003).
127
Il tempo è atomico
nomeni nucleari lo vanno a turbare. Quindi, da un punto di vista dell’orologio è “facilmente” isolabile. Per finire, nell’orologio nucleare non importa se gli atomi si trovino allo stato di vapore o meno. Per l’orologio atomico fa molta differenza: nei solidi i legami chimici devastano la transizione di orologio, la distruggono o la spostano in modo irrecuperabile per l’accuratezza. L’orologio atomico è fondato sullo stato di vapore. L’orologio nucleare, invece, potrebbe tranquillamente presentarsi allo stato solido, eliminando il sistema di ultravuoto necessario negli orologi atomici attuali. Infine, gli atomi di torio possono essere ingabbiati in un reticolo cristallino (cristalli di fluoridi) che svolge il compito del raffreddamento laser e dell’intrappolamento elettromagnetico: praticamente, per un orologio nucleare non ci sarebbe bisogno di entrambe queste tecnologie. Un blocco cristallino di fluoride con impiantati degli atomi (o degli ioni, è lo stesso) di torio costituirebbe il sistema adatto per accedere all’informazione della transizione di orologio. Di nuovo, ci troviamo di fronte a una vera e propria rivoluzione.
128
3. La disseminazione
With one breath, with one flow / You will know / Synchronicity A connecting principle / Linked to the invisible / Almost imperceptible Something inexpressible / Science insusceptible / Logic so inflexible / Causally connectible / Yet nothing is invincible / Effect without a cause / Sub-atomic laws, scientific pause / Synchronicity. In un respiro, in un flusso/ Conoscerai/ La sincronicità Un principio che connette/ Legato all’invisibile / Quasi impercettibile / Un qualcosa di inesprimibile/ Inammissibile per la scienza / Dalla logica inflessibile / Dalla connessione causale / Ma nulla è invincibile / Un effetto senza causa /Leggi subatomiche, interruzione della scienza / La sincronicità. The Police, Synchronicity Parte 1, 1983, A&M Records
Il tempo è atomico
Sincronicità e sincronizzazione Wolfang Pauli (Vienna, 25 aprile 1900 – Zurigo, 15 dicembre 1958) è stato fra i padri fondatori della meccanica quantistica. Nel 1945 ricevette il premio Nobel per la Fisica per la formulazione nel 1924 del suo risultato più celebre, il principio di esclusione. E tra i suoi contributi fondamentali ci sono anche il calcolo dello spettro energetico dell’atomo di idrogeno (1925); l’introduzione delle matrici di Pauli come basi per le operazioni sugli spin (1927); l’ipotesi dell’esistenza di una particella senza carica e senza massa per spiegare lo spettro del decadimento beta, poi chiamata neutrino da Enrico Fermi nel 1934 e scoperta sperimentalmente nel 1956; la dimostrazione (1940) del teorema di spin-statistica, che divideva il mondo particellare in fermioni e bosoni a seconda dello spin. Ma un altro aspetto interessante della vita di Pauli fu l’incontro con lo psicanalista Carl Gustav Jung (Kesswil, 26 luglio 1875 – Küsnacht, 6 giugno 1961). Inizialmente paziente di Jung (Pauli soffriva di una forma di dissociazione psichica innescata dal fallimento del proprio matrimonio), in breve Pauli instaurò con lui un profondo legame intellettuale, avvicinato dalla comune passione per le scienze d’Alchimia Ermetica, che portò all’elaborazione più sistematica di una vecchia teoria junghiana: la sincronicità. La sincronicità si distingueva dal sincronismo, che riguarda eventi che accadono simultaneamente, cioè nello stesso tempo, ma senza alcuna connessione di significato, sia causale sia casuale, perché sono azioni di pura contemporaneità temporale. La sincronicità, invece, riguardava eventi sincroni ma legati da un filo niente affatto casuale, come, per fare il classico esempio del quotidiano, pensare a una persona e poco dopo ricevere una sua telefonata, cose che normalmente vanno sotto il nome di “coincidenze” ma che Jung invece cercava di collegare con un approccio basato su postulati tipici del pensiero magico, tra l’altro.
130
La disseminazione
Il sodalizio Jung-Pauli sistematizza la sincronicità come una quarta caratteristica della realtà fisica, insieme a tempo, spazio e causalità; come la causalità agisce in direzione della progressione del tempo e mette in connessione due fenomeni che accadono nello stesso spazio in tempi diversi, la sincronicità mette in connessione due fenomeni che accadono nello stesso tempo ma in spazi diversi. Nel 1952 Jung e Pauli pubblicarono due saggi nel volume Naturerklärung und Psyche. Nel proprio saggio Pauli applicava il concetto di archetipo alla costruzione delle teorie scientifiche di Keplero, mentre Jung intitolava il proprio “Sincronicità come principio di nessi acausali”. Il mondo contemporaneo non ha accettato come scientificamente valido il concetto di sincronicità. Tuttavia, ha sicuramente messo al cuore stesso delle proprie forme organizzative il concetto e l’attività di sincronizzazione. Spaziotempo e causalità sono affiancate dalla sincronizzazione, cioè dalla costante creazione di eventi sincronizzati, sia contemporanei sia forzati ad avvenire in momenti temporali definiti e a un intervallo noto fra essi. Una parte della realtà che viviamo tutti i giorni è testimone dell’evoluzione di questa caratteristica, la sincronizzazione, in forme sempre più complesse. Nella parte dedicata ai calendari abbiamo già visto che il passaggio a una civiltà industrializzata ha reso estremamente più corti gli intervalli di tempo per noi significativi. Oggi vorremmo treni sempre puntuali al minuto, e miliardi di transazioni finanziare corrono su canali telematici con la sincronizzazione di qualche millisecondo. E ancora non basta: nei nostri computer, abbiamo memorie ad accesso rapido che si possono leggere e scrivere in pochi nanosecondi. Il mondo delle comunicazioni ha regalato una vera rivoluzione nella possibilità di sincronizzare eventi, che poi significa organizzare nel tempo delle azioni con lo scopo di portare a ter-
131
Il tempo è atomico
mine processi complessi in tempi brevi. Internet, telefonia, globalizzazione dei processi, sono tutti attori della sincronizzazione della nostra civiltà. La misura del tempo è al cuore di questo enorme processo, e la capacità di avere orologi sempre più precisi insieme alla possibilità di trasferire questa precisione ovunque è il motore ultimo di questo aspetto così pervasivo della contemporaneità. Perciò, dopo aver visto l’organizzazione del tempo civile con i calendari e le scale di tempo, e aver descritto come la scienza e la tecnologia abbiano declinato la realizzazione dell’unità di tempo in accuratezze e stabilità sempre più spinte, ci dedichiamo ora a descrivere come dai laboratori degli istituti dell’orologio campione la grandezza tempo venga distribuita ovunque, con il fine di organizzare le attività umane e di rendere possibili complessità e velocità di azione altrimenti irraggiungibili.
Orologi e onde elettromagnetiche Come descritto nel capitolo dedicato agli orologi, in particolare quelli atomici, uno degli aspetti più esclusivi della metrologia di tempo e di frequenza è il legame con le onde elettromagnetiche. Queste ultime, essendo caratterizzate in primis da una o più frequenze, sono perfettamente riferibili ai campioni di tempo. Inoltre, la natura “immateriale” e delocalizzabile delle onde elettromagnetiche consente di utilizzarle come “vettori” per trasferire la frequenza o il tempo campione da un luogo a un altro, senza lo spostamento effettivo di un vero orologio. È questa una caratteristica quasi unica della grandezza tempo/frequenza. Se ci riflettiamo, non esistono altre grandezze misurabili i cui strumenti di misura sono, per esempio, tarabili a distanza tramite un segnale elettromagnetico.
132
La disseminazione
Così, la disseminazione di frequenza si fa in questo modo: l’orologio campione il cui segnale va disseminato è legato direttamente a una stazione trasmittente che usa un’onda elettromagnetica riferita in frequenza, cioè legata direttamente alla frequenza dell’orologio. In un sito remoto, un dispositivo ricevente è in grado di riconvertire quell’onda in un’informazione di tempo e frequenza. Questo concetto generale si può declinare in molti modi, con una precisione diversa, e che differiscono anche molto nella realizzazione pratica. Tanto per cominciare, la frequenza, o lunghezza d’onda, dell’onda elettromagnetica può essere molto diversa, spaziando dalle onde radio alle microonde fino alle frequenze laser. La scelta della frequenza dipende dalla precisione desiderata, ma anche da altri fattori come la copertura geografica voluta, fattori legati alle modalità fisiche con cui l’onda elettromagnetica si diffonde nel mezzo fisico. Per capirci: un’onda laser consente la massima precisione, ma è confinata in una rete di fibre ottiche, quindi è completamente inadatta a stazioni mobili o a siti particolarmente isolati, per esempio. Le onde radio e, in particolare, quelle radiotelevisive danno una copertura sul territorio pressoché totale, ma la precisione del segnale è limitata dall’interazione dell’onda con l’atmosfera e le distorsioni da questa generata. Vedremo tra breve quanto importante siano diventati i sistemi satellitari, che utilizzano frequenza a microonda e danno una copertura molto vasta, caratteristiche che oggi li porta a essere i migliori sistemi di disseminazione del tempo e della frequenza.
Radio, televisione, telefono, Internet: un taxi per il segnale di tempo Il segnale radiotelevisivo, in Europa Occidentale, ha una frequenza compresa tra 471,25 MHz e 860 MHz, e si collega nella
133
Il tempo è atomico
regione dello spettro elettromagnetico noto con l’acronimo di UHF, Ultra High Frequency, che si estende dai 300 MHz ai 3 GHz. I segnali radiofonici hanno una frequenza minore – per esempio la trasmissione FM, a Modulazione di Frequenza, occupa l’intervallo 88-108 MHz – e cadono nella regione VHF, Very High Frequency, compresa tra 30 e 300 MHz. VHF e UHF, pertanto, sono due bande molto occupate e oltre alla radio e alla televisione includono anche la telefonia cellulare (800, 900, 1.800 e 2.600 MHz) e le reti wireless. Queste onde non vengono riflesse dall’atmosfera, come accade per le onde lunghe a frequenza più bassa, e hanno una portata limitata; tuttavia hanno l’indubbio vantaggio di essere sufficientemente robuste rispetto alle distorsioni del mezzo atmosferico e la tecnologia per produrre trasmittenti e ricevitori è matura, affidabile, economica e soprattutto compatta, come sperimentiamo tutti i giorni parlando al cellulare o guardando la televisione. La copertura, relativamente limitata, è garantita da una rete di ripetitori che per telefonia e radiotelevisione sappiamo essere più che capillare. Date le premesse, queste bande di trasmissione sono ovviamente delle ottime candidate per diffondere un segnale orario e, anzi, la loro presenza così invasiva le rende il vettore ideale per una disseminazione altrettanto capillare dei segnali di sincronismo. O altrimenti detto, dagli anni Cinquanta, la televisione insieme all’intrattenimento e all’educazione nazionalpopolare ci ha portato in casa anche l’ora campione.1 Concentrandoci soprattutto sul caso italiano, il segnale orario generato dall’Istituto Elettrotecnico Nazionale “Galileo Ferraris”, ora Istituto Nazionale di Ricerca Metrologica (INRIM), è diffuso dalla Rai con il Segnale Radiotelevisivo Codificato (SRC), costituito da un codice di data suddiviso in due segmenti di informazione, generati in corrispondenza dei secondi 52 e 53, e 1. Renato Mannucci, Franco Cordara, Misurare il tempo e la frequenza, Il Rostro 1997.
134
La disseminazione
da sei impulsi acustici sincroni con i secondi 54, 55, 56, 57, 58 e 00. I sei impulsi acustici sono formati da 100 cicli sinusoidali di una nota a 1.000 Hz. La durata di ciascun impulso è di 100 millisecondi. Il codice di data è costituito da un segmento di 32 bit di informazione generato al secondo 52 e da uno di 16 bit generato al secondo 53, le cui durate sono rispettivamente di 960 e 480 millisecondi.
Figura 3.1 Il codice radiotelevisivo trasmesso in Italia dalla Rai, nota per nota (dal sito dell’INRIM, www.inrim.it).
In Figura 3.1 è rappresentata la struttura del codice. La codifica binaria è realizzata dall’alternanza di due note di frequenza 2.000 Hz (livello logico “0”) e 2.500 Hz (livello logico “1”), e ognuna di queste dura 30 millisecondi. Il primo segmento del codice inizia con due bit di identificazione “01”, mentre due bit di controllo della parità (di tipo dispari) sono posti alla metà e
135
Il tempo è atomico
alla fine dello stesso. Esso contiene l’indicazione delle ore (da 0 a 23), dei minuti, del numero ordinale del mese, del giorno del mese, del numero d’ordine del giorno della settimana e dell’adozione dell’ora solare (tempo medio dell’Europa Centrale) o di quella estiva. Il secondo segmento inizia con due bit di identificazione “10” che lo distinguono dal precedente, mentre un bit di parità (di tipo dispari) è posto al termine dello stesso. Esso contiene l’informazione dell’anno corrente in decine e unità, il preavviso del cambio da ora solare a estiva e viceversa con sei giorni di anticipo, e la segnalazione dell’approssimarsi dell’introduzione del secondo intercalare. Questa descrizione un po’ algida fotografa quel trillo che sarà a tutti familiare, forse in passato ben più comune da sentire in radio e tv. Oggi il segnale “in chiaro” trasmesso anche per il pubblico nel suo intero si ode poche volte al giorno, tipicamente prima dei notiziari o nelle ore notturne, ma il SRC è trasmesso di continuo: i segnali orari sono generati dall’INRIM ogni minuto e vengono trasmessi, su linee dedicate, dalla sede Rai di Torino che li diffonde sulle reti radiotelevisive; il numero medio di emissioni giornaliere su ciascuna rete radiofonica è di 15-25 e tutte le informazioni di ora trasmesse nelle trasmissioni radiofoniche e televisive vengono da lì. A livello industriale, sono ancora molto diffusi i ricevitori dedicati, che estraggono elettronicamente l’informazione di tempo campione e sincronizzano con essa un orologio locale che sincronizza i tempi delle lavorazioni. Il massimo ritardo con cui l’utente riceve il segnale è dell’ordine di 20-30 millisecondi mentre l’incertezza di sincronizzazione può essere migliore del millisecondo. Questo è il numero chiave: 1 millisecondo è la misura dell’obsolescenza di questo metodo, che ormai non può in alcun modo rispondere alle richieste di quegli utenti per i quali la sincronizzazione deve avvenire su tempi di al massimo 1 microsecondo.
136
La disseminazione
Dal dicembre 1991, l’INRIM genera un codice di data (CTD) distribuito mediante modem su rete telefonica commutata, che può essere utilizzato per sincronizzare orologi di calcolatori o di sistemi automatici di acquisizione di dati. Il messaggio, inviato una volta al secondo, consiste in una sequenza di 80 caratteri ASCII che forniscono la data, l’ora e ulteriori informazioni riguardanti la datazione e le operazioni effettuate sulla scala di tempo legale. L’utente può ricevere questo messaggio utilizzando un software di comunicazione (www.inrim.it/ntp/ howtosync_i.shtml) e configurando il proprio modem telefonico CCITT V.22 a 1.200 bit/s, 8 bit, 1 bit di stop e nessuna parità. Il formato del codice è stato concordato tra i laboratori metrologici europei ed è stato consigliato come standard da seguire dal Settore Radiocommunication dell’International Telecommunication Union. Il sistema di orologi che genera il codice di data è anticipato di 70 millisecondi rispetto all’unità di intervallo di tempo campione dell’Istituto, per compensare il ritardo medio di ricezione dei segnali che dipende dalla lunghezza del collegamento telefonico e dai modem utilizzati. Il servizio è accessibile selezionando i numeri: 011 39 19 263 e 011 39 19 264. Si ritiene che un collegamento della durata di 20-30 secondi sia più che sufficiente per una sincronizzazione con il CTD. Il CTD è ovviamente sorpassato nel momento in cui sia afferma la trasmissione sempre più rapida di pacchetti di dati. Come la televisione, la radio e il telefono, anche le connessioni Internet sono un’imponente infrastruttura capillare, e per di più una struttura di comunicazione che si fonda sulla sincronizzazione. Il protocollo più diffuso per sincronizzarsi via Internet è NTP (Network Time Protocol).2 La precisione di sincronizzazione ottenibile dipende dalla tipologia della rete e dalla distanza inter2. Molta documentazione e i codici sorgenti degli applicativi utili per l’NTP si trovano sul sito della Network Time Foundation, www.ntp.org.
137
Il tempo è atomico
posta tra il server NTP e il computer che si vuole sincronizzare; i valori di scarto tipici sono inferiori al millisecondo per sistemi appartenenti alla stessa rete e possono arrivare a qualche centinaio di millisecondi per reti remote. Anche il sistema operativo ha un ruolo, e sistemi operativi Unix consentono di scendere fino a qualche microsecondo di sincronizzazione in condizioni di rete favorevole. Il protocollo NTP è davvero diffuso per disseminare l’informazione di tempo tra computer connessi a una rete Internet. Si basa su un protocollo bidirezionale, Two Way, di scambio di messaggi: tipicamente, un computer client che deve essere sincronizzato lancia un messaggio codificato a uno o più server NTP di indirizzo noto, che risponderanno con messaggi che portano specifici tag di tempo, dai quali il client calcola il ritardo della linea di connessione e lo scarto di tempo tra l’orologio del computer locale e quello del server, che solitamente è riferito alla scala internazionale UTC. Il ritardo tipico delle linee di connessione via Internet varia tra 10 e 100 ms, dipende da molti fattori, sia fisici – ovvero la lunghezza del cammino fisico tra il computer locale e il server, il numero di nodi di routing e così via – sia di sistema, per esempio il traffico dati di un particolare momento, o il numero di richieste simultanee di sincronizzazione presso quello specifico server, così che il ritardo non è stabile nel tempo. Inoltre, essendo una trasmissione a due vie, le asimmetrie residue dei due cammini influiscono molto sull’errore di tempo finale, e più è lungo il cammino fisico, più le asimmetrie contano. Pertanto, se volete usare un server NTP, trovatene uno “vicino” e robusto, senza accontentarvi del server del produttore del vostro sistema operativo oppure senza usare un server di un altro continente per non meglio precisate motivazioni. Alcune realizzazioni del protocollo NTP comunicano in serie con un insieme di server definiti dall’utente o dal programma stesso, in
138
La disseminazione
modo da determinare chi al momento offre le migliori prestazioni e adottarlo come server master, qualifica che potrà essere cambiata quando un altro server diverrà più affidabile, magari per mutate condizioni di traffico dati. Altre implementazioni continuano a utilizzare tutti i messaggi dei server impostati, ma li pesano per eseguire una media ponderata, assegnando pesi che spesso nei casi più semplici sono legati al ritardo: maggiore il ritardo, minore il peso, perché la possibilità di asimmetrie significative, e quindi di errori importanti, cresce. Un’alternativa per trattare le asimmetrie consiste nel misurare il ritardo per qualche tempo, estrarne un valore minimo, e postulare che l’eccesso rispetto al minimo sia completamente dovuto a un’asimmetria. Da quest’ipotesi, il valore di eccesso di ritardo è usato per correggere il segnale di tempo e compensare parzialmente l’errore dovuto all’asimmetria stessa. Questo approccio è significativo se da altri tipi di informazioni trasmesse è possibile conoscere il segno dell’errore causato dall’asimmetria. Il problema dell’asimmetria è il maggior limite all’incertezza della disseminazione di tempo con NTP, che resta generalmente limitato a qualche millisecondo o decine di millisecondi (con alcune eccezioni, che portano l’accuratezza fino al livello dei microsecondi, soprattutto con sistemi operativi Unix). Tuttavia, è possibile anche assegnare un estremo superiore: l’errore massimo possibile è pari alla metà del tempo di andata e ritorno tra server e computer client, che solitamente è minore di 100 ms e che comunque è misurato con ottima affidabilità. Anche per i più spinti trading system di compravendita telematica sui mercati finanziari, NTP si qualifica pertanto come un metodo efficace, molto economico e pienamente adeguato per sincronizzare i calcolatori degli utenti alle piattaforme telematiche globali. Perché servono tanta velocità e sincronizzazione per i sistemi di compravendita finanziaria? Occorre sapere, al riguardo, che ol-
139
Il tempo è atomico
tre il 70% delle transazioni azionarie che hanno luogo negli Stati Uniti non sono condotte da operatori in carne e ossa, ma da algoritmi, sofisticati software che in pochi secondi sono in grado di avviare migliaia e migliaia di trattative. Comparsi negli anni Ottanta, gli algoritmi finanziari si sono evoluti nel corso degli anni fino a diventare dei veri e propri mostri, che non solo stabiliscono autonomamente i prezzi di acquisto e di vendita delle azioni, valutando il mercato e reagendo a ogni spostamento in tempi brevissimi, ma sono anche in grado di lanciare diversivi e offerte fasulle per ingannare gli algoritmi concorrenti. Perché il giochino sia possibile, ogni nuovo algoritmo deve riuscire a essere un po’ più veloce del suo avversario, e abbassare un prezzo e poi rialzarlo improvvisamente (o viceversa) per ingannare il suo antagonista e sfruttare un margine maggiore, giocando sullo sfasamento di tempo tra la decisione d’acquisto e il variare del prezzo di vendita. Perché un simile meccanismo di borsa possa funzionare, i computer che fanno girare questi mostruosi algoritmi devono essere tutti rigorosamente sincronizzati tra loro e anche con tutti gli altri che operano in borsa. In altre parole, la sincronizzazione è il fattore vincente in ogni giornata di scambi a Wall Street.3 Per altre applicazioni di sincronizzazione di tipo civile o industriale, l’accuratezza offerta è più che adeguata, considerando anche la semplicità d’implementazione e la possibilità di sincronizzare direttamente il calcolatore che gestisce un particolare processo o applicazione. In Italia, l’INRIM garantisce questo servizio con due server NTP primari che sono i seguenti: ntp1.inrim.it (193.204.114.232) ntp2.inrim.it (193.204.114.233). 3. Una descrizione dettagliata di come funzionano gli algoritmi per le transazioni finanziarie è riportata in Christopher Steiner, Automate this, Portfolio, 2012.
140
La disseminazione
I server NTP dell’INRIM sono ad accesso libero per tutti i gli utenti collegati alla rete Internet. Per sincronizzare un calcolatore è necessario installare un apposito software, disponibile per sistemi operativi di tipo Windows, UNIX, Linux e MacOS X, che si può prelevare dal sito Internet degli ideatori dell’NTP; oppure utilizzare altro software di sincronizzazione (basato sul protocollo NTP) che si trova in molte versioni di sistemi operativi UNIX, Linux, MS Windows e MacOS (versioni 8.5 e successive). Dopo aver installato il software NTP, si dovrà modificare il file di configurazione del programma stesso per inserire i nomi di entrambi i server dell’INRIM indicati sopra, assieme a quelli di altri server NTP indipendenti da essi. Se ancora non avete sincronizzato il vostro computer con l’istituto metrologico italiano, collegatevi su www.inrim.it/ntp e seguite le istruzioni, oppure scaricate il software apposito. I vantaggi dell’NTP sono di consentire una sincronizzazione diretta degli elaboratori, che in genere gestiscono le operazioni complesse di una fabbrica o di una rete di servizi; pertanto NTP sostituisce ampiamente gli orologi sincronizzati con il codice radiotelevisivo nelle applicazioni pratiche, a patto di avere una rete decente a cui collegarsi.
Radionavigazione: da Harrison ai GNSS, il tempo diventa spazio geografico La radionavigazione è una delle applicazioni più di successo degli orologi atomici, e oggi la radionavigazione per antonomasia è quella del Global Position System (GPS), che da sistema militare si è trasformato in un servizio davvero globale, presente su ogni smartphone, amico degli automobilisti ma anche dei cicloamatori e pure di chi si dedica alle escursioni in montagna, se vogliamo pensare agli impieghi delle persone comuni. Se invece rimania-
141
Il tempo è atomico
mo in ambito tecnologico e scientifico, il GPS è uno strumento indispensabile per la geodesia di precisione, per la disseminazione di tempo e frequenza, e per la gestione delle reti complesse. Ma prima di arrivare ai Global Navigation Satellite Systems (GNSS), di cui il GPS è una delle realizzazioni, la radionavigazione si era affermata già dagli anni Trenta del Novecento, in particolare con i sistemi LORAN e Omega, basati sullo stesso principio dei successivi GNSS: trasmettendo onde elettromagnetiche la cui frequenza era riferita a orologi atomici tenuti sincroni tra loro, è possibile creare una rete in cui un utente dotato di un apparecchio ricevitore può determinare la propria posizione a partire dai segnali di tempo, dei ritardi tra essi e dalle posizioni note delle stazioni emittenti. Ci sembra interessante richiamare alcuni di questi principi e come sono o erano costituite le architetture di alcuni sistemi più importanti di altri, come il LORAN, l’Omega, il GPS, il GLONASS e Galileo. Alla base di questa descrizione abbiamo l’interesse di guardare un po’ dentro i sistemi che ci consegnano la nostra posizione geografica sul nostro smarthphone, e di raccontare come viceversa, al pari della radiotelevisione o di Internet, la capillarità, o meglio in questo caso la globalità del segnale trasmesso abbiano reso i sistemi di radionavigazione un sistema insostituibile di sincronizzazione per orologi remoti. I predecessori della tecnologia di radionavigazione satellitare furono i sistemi che utilizzano stazioni trasmittenti poste a terra, come LORAN e Omega, che trasmettono segnali radio in genere in banda Low Frequency, LF. Questi sistemi inviano un impulso radio principale da una postazione master, seguito da impulsi da altre stazioni slave. Il ritardo tra la ricezione e la trasmissione del segnale presso le stazioni slave è accuratamente controllato, permettendo ai ricevitori di confrontare il ritardo tra i segnali, da cui si ottiene la distanza da ognuna delle stazioni
142
La disseminazione
slave e quindi, note le posizioni delle stazioni stesse, un calcolo della posizione del ricevitore. Per usare un linguaggio più tecnico, sia LORAN sia Omega sono sistemi di radionavigazione iperbolici,4 perché l’equazione fondamentale che identifica la posizione è quella che descrive il luogo geometrico dell’iperbole, con una stazione master e una slave ai fuochi dell’iperbole medesima. La linea di posizione iperbolica è detta anche linea time delay, TD (ritardo di tempo), conservando così anche nei nomi lo stretto rapporto tra misura sincronizzata di tempo e posizione dello spazio. Il sistema LOng RAnge Navigation, LORAN, è attivo ancora oggi ed è stato molto popolare nella nautica, almeno fino all’arrivo del GPS. Fu sviluppato anch’esso dal Dipartimento della Difesa degli Stati Uniti a partire dalla fine della Seconda Guerra Mondiale. Il sistema LORAN non ha una copertura globale, ma vanta un raggio d’azione che in condizioni favorevoli arriva fino a più di 5.500 km, contro i circa 600-700 km dei sistemi analoghi dell’epoca, come il sistema DECCA (di cui qui non tratteremo, perché meno rilevante per la sincronizzazione degli orologi). Tale raggio d’azione si calcola ovviamente dalle stazioni di emissione del segnale, che coprono le aree delle coste dell’Atlantico, del Pacifico, del Nord Europa, del Mediterraneo e dell’Oceano Indiano. Fu inizialmente designato LRN, Loomis Radio Navigation, dal nome del fisico Alfred Lee Loomis che, oltre ad aver inventato il sistema, ebbe un ruolo cruciale nell’ambito di ricerca e sviluppo militare durante la guerra. Nel determinare la posizione con il LORAN, le stazioni effettive sono tre: una stazione, detta master, è usata per entram4. Per un approfondimento generale sui sistemi di radionavigazione, sia iperbolici sia sferici, e i GNSS: F. Dovis, P. Mulassano, F. Dominici, “Overview of Global Navigation Satellite Systems”, in Handbook of Position Location – Theory, Practice and Advances, Wiley-IEEE Press, 2011 pp. 923-974; A. Cina, GPS. Principi, modalità e tecniche di posizionamento, CELID, 2000, pp. 126..
143
Il tempo è atomico
be le applicazioni del principio di navigazione iperbolica ed è confrontata separatamente con ognuna di due stazioni slave o secondarie. Date due stazioni secondarie, la differenza di tempo TD tra la stazione master e la prima secondaria identifica una curva, mentre la differenza di tempo tra la stazione master e l’altra secondaria identifica un’altra curva. Le due curve, spesso dette linee TD, si intersecano in un punto geografico relativo alle posizioni delle tre stazioni. In pratica, il sistema LORAN è implementato mediante gruppi geografici o catene costituite da una stazione master e almeno due (ma spesso più) stazioni secondarie, con un determinato intervallo di ripetizione chiamato group repetition interval (intervallo di ripetizione del gruppo, abbreviato GRI) e definito in microsecondi. Tutte le stazioni utilizzano come riferimento di frequenza un orologio a fascio di cesio, e sono sincronizzate tra loro con un’incertezza di circa 5×10-7 s, cioè 500 ns. Il segnale trasmesso è una portante a 100 kHz (quindi nella regione LF, Low Frequency, dello spettro) modulata sia in fase sia in frequenza sia con la funzione primaria di trasportare l’informazione di tempo, ma anche con l’importante funzione accessoria di compensare gli errori di sincronizzazione e posizionamento dovuti alla riflessione delle onde sulla ionosfera, che creano uno dei limiti fondamentali all’accuratezza di questo sistema, ovvero i segnali multi-cammino o multipath. Tuttavia, va segnalato come la presenza della riflessione ionosferica permette al LORAN di coprire una più vasta area, rispetto a quella raggiunta dai segnali cosiddetti di terra, cioè che si propagano prossimi alla superficie. La stazione master trasmette una serie di impulsi intervallati dal GRI, ricevuti dalle stazioni secondarie che, dopo un determinato intervallo di alcuni millisecondi, detto ritardo di codifica
144
La disseminazione
secondaria o secondary coding delay, emettono un segnale di risposta. In una data catena, la provenienza di ciascun segnale si identifica in modo univoco: inizialmente si assegnava un secondary coding delay diverso per ogni stazione secondaria, mentre oggi i ricevitori sono in grado di trattare maggiore informazione, compreso un codice univoco che identifica la stazione che lo trasmette. Ogni catena LORAN nel mondo utilizza un GRI univoco, designato dal numero di microsecondi diviso per 10, dal momento che i GRI sono in genere multipli di 100 microsecondi. Se la copertura LORAN è presente, le carte nautiche marine riportano le linee TD a intervalli regolari, rappresentando una griglia LORAN vera e propria, che riporta l’intervallo di tempo associato a ogni linea. Oltre ai multipath, le maggiori interferenze sofferte dai segnali a bassa frequenza sono dovute a elementi di terra e strutture artificiali, per cui l’accuratezza del LORAN è molto minore nelle acque interne, tanto che le carte nautiche di queste regioni non riportano le linee TD. I ricevitori LORAN tradizionali visualizzavano solo intervalli di tempo associati alle coppie master-slave, mentre oggi, con maggiore immediatezza, sono riportate direttamente le coordinate geografiche. Sono stati sviluppati vari tipi di sistemi LORAN, prima della definitiva adozione del LORAN-C, che però non andarono oltre lo stadio sperimentale: troviamo così il LORAN-A, -B, -D, -F e -S. Il LORAN-A è forse l’unico di interesse prima dell’arrivo del LORAN-C, che comunque lo soppiantò in fretta per via della maggiore accuratezza. Operava sulla banda della medium frequency MF, sulle quattro frequenze a 1.750, 1.850, 1.900 e 1.950 kHz. Il LORAN-A fu il sistema di radionavigazione usato nella guerra del Vietnam per la flotta aerea statunitense (C-124, C-130, C-97,
145
Il tempo è atomico
C-123, HU-16 Albatross ecc.), ma durante il secondo dopoguerra era molto presente sulle navi da pesca negli Stati Uniti, essendo un sistema installabile con ricevitori economici, accurati e reperibili facilmente. Questo sviluppo tecnologico, soprattutto per il basso prezzo degli apparati, fu forse il primo esempio di radionavigazione di massa, accessibile anche alle piccole navi da pesca, con un notevole aumento di sicurezza, sia per situazioni di deriva sia per la navigazione nei porti in condizioni di nebbia e assenza a bordo dei costosi sistemi radar. Passando dalle navi agli aeromobili, è interessante menzionare che la Pan American World Airlines utilizzava ricevitori LORAN-A nei primi voli con i Boeing 707. Negli anni Cinquanta il sistema si perfezionò nella forma pressoché attuale, quella del LORAN-C, con la trasmissione a 100 kHz e trasmettitori di potenza compresa tra 100 kW e qualche MW, comparabili con le stazioni di radiodiffusione sulle onde lunghe. Molti trasmettitori LORAN-C utilizzano torri di trasmissione isolate dal terreno, con altezze di circa 200 metri, che irradiano in ogni direzione e che non sono dotate di antenne di riserva, al contrario di quelle per radiodiffusione, visto che la posizione dell’antenna è insostituibile, essendo uno dei dati fondamentali del sistema di radionavigazione. Il sistema LORAN è influenzato sia dagli effetti elettrici del tempo atmosferico sia da quelli indotti da alba e tramonto, per le loro particolari condizioni ionosferiche. Infatti, il segnale più accurato è l’onda di terra che segue la superficie terrestre, soprattutto se compie un percorso sul mare; esiste tuttavia per le basse frequenze l’onda cosiddetta di cielo, che si riflette sulla ionosfera e compie un percorso diverso dall’onda di terra. Oltre a essere meno accurata, causa pure un’interferenza di disturbo (i multipath a cui si è accennato in precedenza), maggiore nelle
146
La disseminazione
condizioni di alba e tramonto, momenti di particolari reazioni ionosferiche. Per lo stesso motivo, anche le tempeste magnetiche producono effetti notevoli, alterando il contenuto di elettroni liberi in ionosfera e quindi la qualità delle riflessioni. Attualmente, il sistema LORAN è ancora attivo, anche se numerosi critici lo vorrebbero disattivare soprattutto per i costi di manutenzione rispetto al numero di utenti, sempre più piccolo, vista la migliore alternativa costituita dal GPS. Tuttavia, il LORAN sopravvive per almeno tre ragioni. Innanzitutto è molto più protetto rispetto al GPS contro le tecniche di sabotaggio di radio jamming. Queste consistono nel rendere inutilizzabile il segnale codificato accecando i ricevitori: per farlo, occorre produrre un segnale di frequenza uguale alla portante della trasmissione di radionavigazione, con un’elevata potenza, tale da saturare i ricevitori, accecandoli. Il sistema Loran, usando segnali a elevata potenza, implica una soglia di accecamento molto alta e non agilmente raggiungibile. In secondo luogo LORAN è un sistema indipendente, una sorta di back-up nel caso di malfunzionamenti del GPS o di un improvviso degrado del segnale per volontà del Dipartimento della Difesa degli Stati Uniti. Infine, i segnali LORAN possono essere combinati con il GPS per una maggiore precisione nel determinare la posizione. Per esempio è stato progettato il sistema Enhanced LORAN, E-LORAN o eLoran che incrementa l’accuratezza e l’utilità del LORAN tradizionale, portandolo a una risoluzione spaziale di 8 metri, in grado di competere con il GPS. I ricevitori E-LORAN si basano contemporaneamente sui segnali di tutte le stazioni ricevute, senza limitarsi a un’unica catena, e sono in grado di acquisire dati fino a quaranta stazioni differenti. Tali caratteristiche lo rendono un adeguato sostituto del GPS in situazioni dove questo non sia efficace o disponibile.
147
Il tempo è atomico
Nel 2007 il dipartimento dei trasporti del Regno Unito ha stipulato un contratto della durata di 15 anni per lo sviluppo e la fornitura di un moderno servizio E-LORAN finalizzato a migliorare la sicurezza della vita umana in mare nei territori britannici e dell’Europa occidentale. Inoltre, dal 2001 è attivo il LORAN Data Channel, LDC, progetto della Federal Aviation Administration e dalla United States Coast Guard per l’invio di dati a basso bitrate mediante il sistema LORAN. Le informazioni includono l’identificazione della stazione, il tempo assoluto e messaggi di correzione della posizione, in grado di avvicinare il sistema al Wide Area Augmentation System (WAAS) del sistema GPS, di cui parleremo a breve. Per quanto riguarda l’uso come mezzo di sincronizzazione e disseminazione di tempo, durante gli anni Settanta e Ottanta del Novecento il LORAN-C è stato il migliore strumento a disposizione dei laboratori metrologici per confrontare i propri orologi atomici e per costruire la scala di tempo internazionale. L’accuratezza nel confronto di frequenza offerta dal LORANC in quegli anni arrivava, per misure continue di un giorno, fino a livelli relativi di 10-12 se i confronti potevano disporre di un’onda di terra, o di circa 10-11 se invece gli orologi si confrontavano con un’onda di cielo, ossia riflessa dalla ionosfera. Solo i sistemi GNSS hanno permesso di migliorare queste prestazioni alla fine degli anni Novanta. Per quanto riguarda invece la disseminazione di tempo, piuttosto che il confronto di frequenza, la situazione si presentava un po’ più complessa, sicuramente meno immediata di quanto possa offrire il GPS oggi. Il LORAN-C offriva al meglio la possibilità di sincronizzare un orologio al microsecondo, e così come nel caso della frequenza, anche per il tempo era lo strumento migliore a disposizione dell’epoca pre-GNSS.
148
La disseminazione
Le complicazioni del sistema LORAN sono essenzialmente due: la prima è la banda del segnale, la seconda la sua architettura basata sul GRI. La banda disponibile per il segnale è pari a 20 kHz, che è un po’ stretta per codificarvi una modulazione con un codice di tempo. Il GRI, invece, dava al segnale una cadenza diversa dal secondo, così l’orologio remoto non poteva ricevere direttamente e in continuo un segnale che scandiva il tempo, ma a seconda della catena di stazioni, la sincronizzazione avveniva facendo coincidere un multiplo del GRI con l’intervallo di un secondo, coincidenza chiamata Time Of Coincidence o TOC. In pratica, il ricevitore LORAN-C per la sincronizzazione in remoto deve “contare” il numero di trasmissioni della stazione e prenderne solo una in un insieme definito dal TOC di quella stazione per usarla. Inoltre, un fattore non secondario ai fini di una sincronizzazione accurata, riguarda i ritardi accumulati dall’U.S. Naval Observatory (USNO) alla stazione master, a quelle secondarie e, infine, al ricevitore dell’utente. Tali ritardi devono essere corretti per ottenere una sincronizzazione accurata a UTC(USNO) e così a UTC internazionale. Tuttavia, questi ritardi non sono noti a priori e non sono neanche trasmessi insieme al segnale LORAN. Così, è necessario ricorrere a una apposita banda dati messa a disposizione dall’USNO dove sono presenti le misure di ritardo tra UTC(USNO) e le stazioni LORAN. Infine, occorre tarare il ricevitore per conoscere il ritardo tra le stazioni di riferimento e il ricevitore medesimo, con tecniche standard della metrologia del tempo. Infine, affermare che il LORAN permette la sincronizzazione a UTC è improprio, perché il segnale non porta con sé il secondo intercalare, introdotto nella prima parte del libro, e che l’utente deve introdurre da sé quando viene applicato.
149
Il tempo è atomico
Vedremo fra breve che il GPS consente con metodi molto più diretti delle prestazioni che sorpassano immediatamente il LORAN. Tuttavia, per ottenere il massimo di accuratezza, anche con i GNSS le complicazioni non mancano. Un altro sistema iperbolico di radionavigazione era Omega, inizialmente sviluppato negli anni Sessanta dalla marina militare statunitense per l’aviazione militare, ma che successivamente evolse in un sistema principalmente civile, fino alla sua chiusura nel 1997, completamente superato dal GPS e affossato dagli alti costi di mantenimento. Omega aveva soltanto otto stazioni di trasmissione e un’accuratezza raggiungibile sulla posizione di 6 km, che certo non era così interessante, anche solo rispetto al LORAN. Tuttavia, il segnale Omega era a bassissima frequenza (VLF), tra 10 e 14 kHz, composto da serie di quattro toni unici per stazione, ripetuti ogni dieci secondi. Le stazioni Omega utilizzavano antenne molto grosse per trasmettere i loro segnali a basse frequenze, posizionate a terra o su torri isolate con tiranti e con antenne a ombrello o a filo. Si trovano negli Stati Uniti (Isole Hawaii e North Dakota), in Argentina, Norvegia, Liberia, Francia (Isola de La Réunion), Giappone e Australia; il sistema operativo era gestito dagli Stati Uniti, ma la sincronizzazione dei segnale era compito del Giappone. L’interesse per questo sistema, che ci porta a descriverlo, era la sua vastissima copertura, tra i 7.000 e i 20.000 km, frutto anche dell’uso di frequenze così basse, ampiamente riflesse dalla ionosfera. Per la disseminazione di tempo, il segnale trasmesso era sincronizzato a meglio di 1 microsecondo e, rispetto a UTC (a meno del secondo intercalare), a meglio di 10 microsecondi; la ricezione poteva utilizzare, a differenza del LORAN, tecniche piuttosto immediate della metrologia di tempo, e la sincronizza-
150
La disseminazione
zione di frequenza raggiungeva un’accuratezza di 10-11 su tempi di misura di un giorno. Possiamo considerare il sistema Omega come il vero sistema globale di navigazione e sincronizzazione nell’era pre-GNSS e, per la sincronizzazione, le sue prestazioni non erano tanto peggiori del LORAN. Arriviamo così ai sistemi GNSS, i Global Navigation Satellite System, o sistemi satellitari globali di navigazione, un sistema di georadiolocalizzazione e navigazione terrestre, marittima o aerea, che utilizza una rete di satelliti artificiali in orbita e pseudoliti.5 Il GNSS ha una copertura globale e permette a ricevitori compatti ed economici di determinare le loro coordinate geografiche (longitudine, latitudine e altitudine) su un qualunque punto della superficie terrestre o dell’atmosfera con un’incertezza di pochi metri, elaborando segnali a radiofrequenza trasmessi in linea di vista dai satelliti del sistema. I sistemi GNSS, oltre alla radionavigazione e alla sincronizzazione degli orologi, hanno molte applicazioni, che pertanto sono da considerarsi come applicazioni indirette degli orologi atomici, come i location-based service, il monitoraggio, la gestione dei sistemi informativi territoriale (traffico di automobili, migrazioni di animali, controllo dei ghiacciai…), i servizi di ricerca e soccorso, la geofisica, la geodesia e le applicazioni topografiche e catastali, l’automazione in agricoltura e in generale nel movimento della terra, la sicurezza e le reti energetiche. I sistemi GNSS operativi o in fase di allestimento sono diversi. Il più celebre è sicuramente il sistema statunitense NAVSTAR Global Positioning System (GPS), pienamente operativo; al GPS si affianca il GLONASS russo, ripristinato completamente nel dicembre 2011 dopo il collasso dell’Unione Sovietica. Il sistema 5. Ibidem.
151
Il tempo è atomico
europeo Galileo è in fase iniziale di implementazione, con un obiettivo di operatività per il 2014-2015 e completamento nel 2019. Il Beidou cinese ha per ora una connotazione regionale, ma diversi passi sono stati fatti per renderlo globale. L’India, infine, sta sviluppando IRNSS, un sistema GNSS di nuova generazione operativo probabilmente nei prossimi anni. Questi sistemi in realtà sono classificati come GNSS puri, ma la combinazione dei loro segnali, resa sempre più possibile dall’interoperabilità dei sistemi e dei ricevitori, ha portato allo sviluppo di sistemi GNSS integrati, di cui sono presenti già due generazioni tecnologiche. La prima generazione ha combinato GPS e GLONASS con le informazioni provenienti da altre costellazioni di satelliti geostazionari, come il Satellite Based Augmentation System (SBAS), o da ulteriori collegamenti radio terrestri per distribuire agli utenti le informazioni correttive da applicare durante il calcolo della posizione, come il Ground Based Augmentation System (GBAS), migliorando nettamente le possibilità dei singoli sistemi puri. Realizzazioni di questo tipo sono il Wide Area Augmentation System (WAAS) negli Stati Uniti, lo European Geostationary Navigation Overlay Service (EGNOS), in Europa, e il Multi-Functional Satellite Augmentation System (MSAS) in Giappone. L’incremento di accuratezza mediante soli componenti a terra GBAS è dato da sistemi come il Local Area Augmentation System (LAAS). La seconda generazione di GNSS è costituita da un’emancipazione della proprietà militare dei sistemi satellitari di radionavigazione verso realtà completamente civili: ne è l’esempio Galileo. Attualmente si sta cercando di fornire al GPS per uso civile frequenze tali da renderlo un sistema indipendente dalla parte militare.
152
La disseminazione
Da un punto di vista storico, il primo sistema satellitare fu, negli anni Sessanta, il Transit dell’esercito statunitense. Il funzionamento si basava sull’effetto Doppler ed era piuttosto diretto: i satelliti su orbite note trasmettevano segnali a una frequenza specifica, che ricevuta al suolo differiva dalla nominale per via del moto del satellite rispetto al ricevitore. La misura della differenza di frequenza su un breve intervallo di tempo, permetteva il calcolo della posizione del ricevitore. Parte dei dati trasmessi da un satellite riguardano gli esatti parametri dell’orbita che sta compiendo, monitorata costantemente da Terra dallo U.S. Naval Observatory. L’evoluzione del Transit verso il NAVISTAR Global Position System, o semplicemente GPS, portò a un metodo di radionavigazione sferica, in quanto alla base del sistema si trova la misura del tempo impiegato da un segnale radio nel percorrere la distanza satellite-ricevitore. Nell’ipotesi di un ricevitore dotato di un orologio locale perfettamente sincronizzato con quello del satellite, ovvero nell’ipotesi di misurare con grande accuratezza il ritardo di propagazione τ del segnale, la distanza satellite-ricevitore R è pari a R=vt, con v velocità della luce nel mezzo tra satellite e ricevitore. Questa equazione fondamentale definisce anche il luogo geometrico di una sfera, da cui il nome di sistema di navigazione sferico. Sono necessarie tre misure indipendenti, cioè tre satelliti, per ottenere un’intersezione di tre sfere di segnale che conducono a individuare due punti nello spazio, di cui uno si troverà a una quota non compatibile con l’effettiva presenza del ricevitore, pertanto scartabile. In questo modo si determina in linea di principio la posizione. Ciascun satellite trasmette con segnali codificati diverse informazioni tra cui i dati orbitali, indispensabili al ricevitore per il calcolo della posizione del satellite, e un riferimento di tempo
153
Il tempo è atomico
per la determinazione degli istanti esatti di trasmissione dei segnali stessi. Se lasciamo cadere l’ipotesi che il ricevitore disponga di un orologio molto accurato, apriamo la tecnologia GNSS all’utenza di massa, permettendo la produzione di ricevitori compatti ed economici. Si dimostra che la richiesta sull’accuratezza dell’orologio del ricevitore può essere sostituita dall’uso simultaneo di quattro satelliti anziché tre, giustificato in principio dal fatto che un orologio poco accurato sul ricevitore introduce uno scarto Dt, ignoto, modificando l’equazione fondamentale in R=v(t+Dt), equazione con quattro incognite, ovvero la posizione tridimensionale e lo scarto di tempo, risolvibile senza ambiguità con quattro misure indipendenti, cioè con il segnale di quattro satelliti diversi. Per via dello scarto di tempo, le distanze misurate non sono quelle reali, e si parla quindi di misure di pseudorange. Il progetto GPS è stato sviluppato nel 1973 per superare i limiti di accuratezza del Transit, del LORAN e del sistema Omega. Realizzato dal Dipartimento della Difesa statunitense, divenne pienamente operativo nel 1994, ma già nel 1991 gli USA consentirono un uso civile del sistema con il nome di Standard Positioning System (SPS), con specifiche differenziate da quello riservato ai militari denominato Precision Positioning System (PPS). Il segnale civile era intenzionalmente degradato attraverso la Selective Availability (SA), introducendo un rumore additivo sul segnale che riduceva l’accuratezza della rilevazione, limitata ai 100-150 m. La SA era un rumore pseudo-causale, solo i militari avevano i codici per poter filtrare il segnale e ottenere la massima accuratezza di posizione. Nel maggio 2000, un decreto del presidente degli Stati Uniti Bill Clinton eliminò la SA, mettendo così a disposizione degli usi civili la precisione attuale sub-centimetrica. Nell’uso civile permangono alcune limitazioni, tra cui l’impos-
154
La disseminazione
sibilità di ricevere su oggetti in volo a più di 18 km di altezza e velocità maggiori di 515 m/s, il che esclude l’uso improprio su missili non statunitensi. Ciascun satellite emette su più frequenze portanti, le fondamentali sono denominate L1 (1.575,42 MHz), L2 (1.227,6MHz) e L5 (1.176,45 MHz), nella regione delle microonde dello spettro. Le portanti sono modulate in fase per trasmettere il segnale codificato in digitale con diversi dati: il codice identificativo del satellite, i dati di orbita, la scala di tempo del satellite, il suo scarto di tempo dal riferimento internazionale UTC, la correzione relativistica dell’orologio a bordo, il ritardo del segnale dovuto alla ionosfera, l’integrità del satellite e della costellazione. Ci interessa sottolineare come, a parte i dati di orbita e di integrità funzionale, il segnale riporta molte informazioni di tempo: una scala di tempo (la scala GPS del satellite), la sua differenza da UTC, gli effetti che introducono un errore rispetto al tempo “assoluto”, che nel caso satellitare sono soprattutto il ritardo ionosferico e quello di relatività. Il sistema di posizionamento si compone di tre segmenti: spaziale, di controllo e utente. L’Aeronautica militare degli Stati Uniti sviluppa, gestisce e opera il segmento spaziale e il segmento di controllo. Il segmento spaziale comprende da 24 a 32 satelliti. Il segmento di controllo si compone di una stazione di controllo principale, una stazione di controllo alternativa, varie antenne dedicate e condivise e stazioni di monitoraggio. Il segmento utente, infine, è composto dai ricevitori GPS. Attualmente sono in orbita 31 satelliti attivi nella costellazione GPS. I satelliti supplementari migliorano la precisione del sistema permettendo misurazioni ridondanti.
155
Il tempo è atomico
Dal 2010, il sistema è costituito da una costellazione di 31 satelliti NAVSTAR (Navigation Satellite Timing And Ranging), disposti su sei piani orbitali con una inclinazione di 55° sul piano equatoriale. Seguono un’orbita quasi circolare con raggio di circa 26.560 km, viaggiando in 11 h, 58 min, 2 s, o metà giorno siderale. Ciascun piano orbitale ha almeno 4 satelliti, e i piani sono disposti in modo tale che ogni utilizzatore sulla terra possa ricevere i segnali di almeno 5 satelliti. Ogni satellite, a seconda della generazione, possiede un certo numero di orologi atomici (al cesio o al rubidio). Le generazioni che si sono susseguite sono denominate: • Block I: i primi 11 satelliti del sistema, in orbita tra il 1978 e il 1985, dotati di orologi al cesio. Il loro compito principale era quello di convalidare il concetto di GPS. Oggi nessun satellite di questa generazione è ancora in uso; • Block II: i primi satelliti operativi GPS. Nove satelliti sono stati lanciati nel 1989 e nel 1990. Dal 2010, non è più attivo alcun satellite Block II; • Block IIA: vennero lanciati 19 satelliti di questo tipo tra il 1990 e il 1997. Sono dotati di due orologi atomici al cesio e due orologi al rubidio. Nel 2010 erano attivi 11 satelliti della generazione IIA; • Block IIR: messi in orbita tra il 1997 e il 2009, sono dotati di tre orologi atomici al rubidio. Il satellite IIR-M7 ha portato a bordo un emettitore sperimentale in grado di trasmettere sulla frequenza di 1.176,45 MHz, chiamata L5, che sarà adottata dai satelliti del Blocco F. I segnali L1 e L2 saranno inutilizzabili a causa di interferenze tra questi segnali e il segnale L5; • Block IIF: ne sono previsti 12 esemplari. Il primo della serie è stato lanciato nel maggio 2010, e il lancio di altri satelliti verrà effettuato gradualmente fino al 2014;
156
La disseminazione
• Block III: in fase di sviluppo, destinati a sostenere il sistema GPS almeno fino al 2030. Come si può notare, la configurazione di orologi a bordo dei satelliti è evoluta da orologi al cesio, a un insieme misto di orologi al cesio e al rubidio per poi assestarsi sulla dotazione di tre orologi al rubidio. L’evoluzione dal cesio al rubidio è motivata dal fatto che il rubidio ha sicuramente prestazioni inferiori all’orologio al cesio, ma le migliorate possibilità di comunicazione con il segmento di controllo permettono una frequente correzione della frequenza degli orologi. In altre parole, è diventato via via più semplice trasferire accuratezza e stabilità di una batteria di orologi al suolo verso gli orologi a bordo. Pertanto, si può diminuire la richiesta sulle prestazioni degli orologi a bordo e beneficiare dei vantaggi offerti dall’orologio al rubidio: maggiore compattezza, minori consumi, vita media più lunga. Gli orologi a bordo sono tre non solo per ragioni di ridondanza, ma perché tre è il numero minimo per eseguire alcuni test di diagnosi sull’integrità degli orologi stessi. Il segmento di controllo è composto da due stazioni di controllo (una principale e una di back-up), da quattro antenne di comunicazione e da sei stazioni secondarie che controllano specifici processi. Le traiettorie dei satelliti vengono rilevate da apposite stazioni dell’Aeronautica nelle Hawaii, su Kwajalein, nell’isola dell’Ascensione, nell’isola di Diego Garcia, a Colorado Springs e a Cape Canaveral, assieme alle stazioni dell’NGA condivise, in Inghilterra, Argentina, Ecuador, Bahrain, Australia e Washington DC. Le antenne comunicano regolarmente con i satelliti per sincronizzare gli orologi atomici a bordo dei satelliti a pochi nanosecondi l’uno dall’altro, e per aggiornare le effemeridi del mo-
157
Il tempo è atomico
dello orbitale interno. Gli aggiornamenti sono creati da un filtro di Kalman che utilizza i dati delle stazioni di controllo a terra, le informazioni della meteorologia spaziale e vari altri parametri. Le manovre satellitari non sono accurate per gli standard GPS. Così, durante il cambiamento dell’orbita di un satellite, il satellite viene messo fuori servizio (unhealthy), in modo che non venga utilizzato da un ricevitore. Poi, una volta terminata la manovra, l’orbita può essere controllata e acquisita da terra, e il satellite rimesso in servizio con le nuove effemeridi. Ogni volta che ciascun satellite nel suo moto orbitale sorvola il territorio americano, le stazioni di tracciamento ne registrano i dati Doppler che vengono avviati al centro di calcolo e qui valorizzati per la determinazione dei parametri orbitali. Per risolvere questo problema è stato necessario venire in possesso di un fedele modello matematico del campo gravitazionale terrestre. La costruzione di questo modello è stato uno dei problemi di più ardua soluzione nello sviluppo del progetto Transit da cui è derivato l’attuale Navstar. I parametri orbitali di ciascun satellite, appena determinati presso il centro di calcolo, sono riuniti in un messaggio che viene inoltrato al satellite interessato mediante una delle stazioni di soccorso. Il satellite registra i parametri ricevuti nella sua memoria e li irradia agli utenti. Il segmento utente è composto dalle centinaia di migliaia di ricevitori militari che usano il PPS e le decine di milioni di ricevitori degli utente civili, commerciali e scientifici che fanno uso del SPS. In generale, i ricevitori si compongono di un’antenna, un microprocessore e una sorgente di tempo (come un oscillatore al quarzo o un orologio atomico). Un ricevitore viene spesso descritto dal numero di canali di cui dispone che indica il numero di satelliti che è in grado di monitorare simultaneamente. Il numero di canali è stato incrementato progressivamente nel tempo. Tipicamente, un moderno ricevitore commerciale
158
La disseminazione
dispone di un numero di canali compreso tra 20 e 32 anche se sono disponibili ricevitori con un numero maggiore. Sempre più spesso i ricevitori GPS sono integrati all’interno di smartphone, PDA, Tablet PC, orologi e vari oggetti di uso consumer adatti all’uso in mobilità. Gli orologi satellitari sono affetti dalle conseguenze della teoria della relatività. Infatti, a causa degli effetti combinati della velocità relativa – che rallenta il tempo sul satellite di circa 7 microsecondi al giorno – e della minore curvatura dello spaziotempo a livello dell’orbita del satellite – che lo accelera di 45 microsecondi – il tempo sul satellite scorre a un ritmo leggermente più veloce che a terra, causando un anticipo di circa 38 microsecondi al giorno, e rendendo necessaria una correzione automatica da parte dell’elettronica di bordo. Questa osservazione fornisce un’ulteriore prova dell’esattezza della teoria einsteiniana in un’applicazione del mondo reale. L’effetto relativistico rilevato è, infatti, esattamente corrispondente a quello calcolabile teoricamente, almeno nei limiti di accuratezza forniti dagli strumenti di misura attualmente disponibili. Oltre agli errori compensati, derivanti dagli effetti relativistici, esistono altri tipi di errori del GPS di tipo atmosferico e di tipo elettronico. È di fondamentale importanza sottolineare che quello che permette al GPS di raggiungere la precisione cui tipicamente arriva (incertezze di pochi metri) sono proprio le correzioni di Relatività Generale (45 microsecondi) e quelle della Relatività Ristretta (7 microsecondi). In assenza di queste correzioni si otterrebbero incertezze dell’ordine del chilometro che renderebbero il sistema del tutto inutile o comunque molto meno preciso. L’analisi degli errori per il Global Positioning System è un aspetto importante per determinare quali errori ci si deve aspet-
159
Il tempo è atomico
tare e che entità dovrebbero avere. Gli errori dei GPS sono influenzati dalla diluizione geometrica della precisione e dipendono dagli errori di arrivo del segnale di tempo, da errori numerici, dagli effetti atmosferici, dagli errori delle effemeridi e altri effetti. La più grande fonte di disturbo della dinamica orbitale dei satelliti è la variabilità della pressione della radiazione solare. Il GLONASS russo, invece, comprende 31 satelliti Uragan, 24 operativi e quattro di scorta, disposti su tre piani orbitali, separati da 120°, e i satelliti di uno stesso piano sono a 45° tra loro. Le orbite sono quasi circolari, con una inclinazione di 64,8° e un semiasse maggiore di 25.440 km. I satelliti orbitano a una quota di 19.100 km, leggermente inferiore ai satelliti GPS; la rotazione dura 11 ore e un quarto. In questo modo, almeno cinque satelliti sono sempre in vista. Tutti i satelliti sono stati lanciati dal cosmodromo di Baikonur in Kazakhstan; i primi nell’ottobre 1982, resi operativi nel dicembre 1983, mentre il sistema è operativo dal 1995. A causa della grave situazione economica della Russia, nel 2002 erano ancora operativi solamente otto satelliti e la rete era pressoché inutilizzabile. Con il migliorare della situazione economica i satelliti operativi furono portati a 11 nel marzo del 2004, per poi progressivamente arrivare nel 2010 alla completa operatività di 24 satelliti in funzione su 24 più 4 riserve. L’accuratezza del segnale è leggermente inferiore a quella del GPS, ma la copertura è paragonabile. Sul mercato si trovano dispositivi elettronici di consumo che integrano ricevitori GPS+Glonass, tra cui gli smarthphone Apple, Samsung e Nokia. Nei laboratori specialistici, invece, il GLONASS è ormai utilizzato assai spesso, particolarmente in soluzioni di network con i segnali GPS. Il GLONASS usa a bordo dei satelliti tre orologi a fascio di cesio.
160
La disseminazione
Infine, il sistema di posizionamento europeo Galileo conterà 30 satelliti orbitanti su 3 piani inclinati di 56° rispetto al piano equatoriale terrestre e a una quota di circa 24.000 km. Il periodo orbitale è di circa 14 ore e 4 minuti con periodo di ripetizione della traccia al suolo di 10 giorni. Le ambizioni di Galileo sono di fornire una maggior precisione rispetto al GPS, aumentando la copertura globale soprattutto per le regioni a più alte latitudini (>75°) e nelle aree urbane, unita a elevate affidabilità e continuità di servizio indipendente dagli usi militari di un singolo Paese. Galileo non interferirà con il funzionamento del GPS (principio di compatibilità) e potrà essere usato congiuntamente con il GPS (principio di interoperabilità). Invece, è allo studio un’integrazione con il sistema GLONASS. Il programma Galileo è stato avviato nel 2003 con un accordo tra l’Unione Europea e l’Agenzia Spaziale Europea (ESA). Diversamente dal sistema GPS, Galileo è rivolto principalmente al settore civile-commerciale mondiale. Il sistema europeo sarà sempre disponibile sia ai civili sia ai militari e con la massima accuratezza. Tra il 2003 e il 2004 la Cina e Israele sono diventati partner del progetto, e nel 2005 l’Ucraina ha iniziato le trattative per l’adesione. Nel 2005 il primo satellite del programma, GIOVE-A, è stato lanciato dal Baikonur (Kazakistan) al termine del programma di prova del sistema Galileo, “GIOVE” (Galileo In-Orbit Validation Element), a cui ha partecipato anche l’INRIM di Torino. Anche il secondo satellite GIOVE-B è stato messo in orbita per effettuare prove sulle frequenze radio e sulla stabilità in orbita degli orologi così come, successivamente, gli altri quattro satelliti che completano il sistema di verifica e convalida in orbita di Galileo (fase IOV, In-Orbit Validation), rappresentativi dell’intera costellazione di 30 satelliti.
161
Il tempo è atomico
Il sistema Galileo, come il GPS, si compone di tre segmenti: spaziale, terrestre e utente. Le stazioni di monitoraggio ricevono continuamente i segnali emessi da tutti i satelliti della costellazione. I dati raccolti da ciascuna stazione comprendono il segnale di clock del satellite, le sue correzioni rispetto al tempo universale UTC (Tempo Coordinato Universale), le effemeridi del singolo satellite e vari altri segnali di stato. L’insieme degli orologi a bordo comprende due orologi atomici al rubidio in cella e un maser passivo all’idrogeno, al momento l’orologio più stabile mai installato su un satellite, con una stabilità di circa 5×10-13 a 10 secondi. Da un punto di vista logico-funzionale, il segmento terrestre del sistema Galileo è diviso in un segmento di controllo e in un segmento di missione, che dovranno svolgere le funzioni di controllo e di monitoraggio dei satelliti attraverso una serie di stazioni di controllo – telemetria e comando – la determinazione dell’orbita dei satelliti, il monitoraggio del timing e la determinazione e diffusione delle informazioni d’integrità. Nella struttura di controllo saranno presenti due Precise Timing Facility (PTF), che si occupano di generare una scala di tempo a terra stabile e accurata, a partire da orologi al cesio e maser attivi all’idrogeno di terra. Una PTF sarà in Germania e una in Italia, presso il Fucino. L’INRIM di Torino ha avuto un ruolo importante nella definizione dell’architettura di generazione della scala di tempo per il progetto e nel test delle performance della scala. I satelliti del sistema Galileo trasmettono tutti un segnale su 3 diverse portanti, cui corrispondono 3 bande diverse. Le portanti sono denominate E5 (1.191.795 MHz e larghezza di banda trasmessa di 92.07 MHz), E6 (1.278.750 MHz, 40.92MHz) e L1 (1.575.420 MHz, 40.92MHz).
162
La disseminazione
Da notare la sovrapposizione della banda L1 di Galileo con la stessa del GPS e quella tra E5 e L5 del GPS; queste bande sono parzialmente sovrapposte per garantire l’inter-operabilità tra i due sistemi. Infatti, i tipi di modulazione usati rendono i due sistemi a tutti gli effetti compatibili e il fatto che la frequenza centrale della banda sia la stessa garantisce all’utente finale l’accesso a entrambi i sistemi con un minimo incremento della complessità/costo del ricevitore. Le differenze con il GPS sono molteplici. Riguardano sia la struttura dei satelliti stessi sia soprattutto i servizi offerti. Le applicazioni e i servizi appena elencati richiedono delle caratteristiche particolari e purtroppo molte di queste mancano all’attuale sistema GPS. Un esempio dell’innovazione introdotta da Galileo riguarda l’affidabilità nella garanzia del servizio, l’autenticazione del segnale, l’integrità, la trasparenza delle operazioni, la possibilità di trattare dati grezzi o processati, l’accuratezza e l’affidabilità del sistema. Sono quattro i servizi principali che Galileo offrirà. L’Open Service (OS), o servizio base, fornirà servizi di posizionamento, temporizzazione e navigazione accessibili gratuitamente a chiunque, in concorrenza diretta col GPS. I ricevitori consentiranno un’accuratezza di 4 metri orizzontalmente e 8 metri verticalmente. Il Commercial Service (CS), o servizio commerciale, sarà un servizio criptato e a pagamento, con accuratezza inferiore al metro, fino a 10 cm, e con l’offerta di un servizio garantito di ranging e timing per usi professionali. Il Public Regulated Service (PRS) e il Safety of Life Service (SoL), criptati, offriranno un’accuratezza comparabile con il servizio Open Service, ma con un’affidabilità superiore e un sistema di segnalazione di errori di sistema entro i 10 secondi. Sono indi-
163
Il tempo è atomico
rizzati per operatori di sicurezza (polizia, militari ecc.) dell’Unione Europea e degli stati membri e applicazioni strategiche per la sicurezza nei trasporti. Il SOL garantirà anche l’integrità (Integrity) e l’ autenticazione (Authentication), ma solo su richiesta.
Radionavigazione: applicazione e strumento per gli orologi atomici I sistemi di radionavigazione sono basati su una rete sincronizzata di orologi atomici, pertanto dalla sincronizzazione di tempo riescono a trasferire un’informazione di spazio. Come si è detto, è una delle applicazioni più interessanti degli orologi atomici. A loro volta però, queste reti sincronizzate che con il loro segnale hanno una copertura globale, sono diventate gli strumenti fondamentali per la disseminazione del tempo e della frequenza, in particolare il sistema GPS, visto che per anni è stato l’unico affidabile disponibile; tuttavia, anche i segnali Glonass sono utili allo scopo e in futuro lo sarà anche il sistema Galileo. Esistono due approcci fondamentali per sincronizzare un orologio con il GPS, o per confrontare il proprio orologio con un altro remoto: sono il metodo a singola via e il metodo a vista comune (Common View).6 Nel metodo a singola via, o diretto, il segnale ricevuto dal GPS è usato direttamente per sincronizzare l’orologio dell’utente: si parla quindi di GPSDO, GPS Disciplinated Oscillator. Questo metodo è diffusissimo fuori dai laboratori metrologici per l’utenza che necessita un grado di accuratezza piuttosto spinto. Tuttavia, la tecnologia dei GPSDO è oggi piuttosto matura, tanto da aver abbattuto i costi, e così si trovano dei GPSDO da poche migliaia di euro in grado di sincronizzare un buon oscillatore anche 6. Una presentazione generale sui confronti di tempo e presenza, competente e articolata, si trova in J. Levine, “Time and frequency distribution using satellites”, Rep. Prog. Phys. 65, 1119–1164 (2002).
164
La disseminazione
a livello di 10-10-10-13 con circa una giornata di misura. Anche qui troviamo una certa varietà, sia per la qualità del ricevitore GPS, ma soprattutto per il tipo di Disciplinated Oscillator associato, che potrà essere un quarzo, ma anche molto spesso un orologio atomico al rubidio o un maser all’idrogeno. In quasi tutti i casi, gli oscillatori garantiscono una buona stabilità nel breve periodo (da qualche ora a un giorno) e poi il ricevitore “aggancia”, ovvero riferisce la frequenza dell’oscillatore a quello del segnale GPS, che permette a un giorno di raggiungere l’incertezza indicata prima; le migliori incertezze si ottengono con gli oscillatori più sofisticati (orologi atomici), ma anche in presenza di segnali GPS di buona qualità. L’incertezza assoluta di tempo raggiungibile è di circa 100 ns. Così, in quasi tutti i laboratori e le industrie del mondo che necessitano di un buon riferimento di tempo e frequenza troviamo un GPSDO a singola via.
Figura 3.2 Schema di principio della sincronizzazione con il GPS Common View.
165
Il tempo è atomico
Il metodo a vista comune è già più complesso, ma consente di raggiungere risultati ancora migliori; la Figura 3.2 mostra uno schema della tipica sincronizzazione GPS a vista comune. In questo caso, il segnale del GPS, o meglio ancora, il Tempo GPS, costituisce un riferimento comune per due orologi remoti, che misurando simultaneamente lo stesso segnale (satellite in vista comune, da cui il nome della tecnica) riescono a dedurre lo scarto di tempo tra loro. Questo metodo è molto utilizzato dai laboratori metrologici nazionali per confrontare i propri orologi e mandare i risultati dei confronti al Bureau International des Poids et des Mesures (BIPM) che elabora sulla base di quei dati la scala di tempo internazionale, una media pesata di tutti gli orologi dei laboratori metrologici nazionali. Per ottenerla, i laboratori si confrontano continuamente, tutti i giorni, con circa 40 sessioni di misure di confronto che durano 13 minuti ciascuna. Questa tecnica ha un raggio di copertura di svariate migliaia di chilometri e permette di raggiungere incertezze comprese tra 10-13 e 10-15, a seconda dei tempi di misura, della correzione dei ritardi ionosferici e dell’incertezza delle posizioni dei satelliti. Oltre all’architettura di misura, le tecniche di sincronizzazione GPS o GNSS si differenziano in base a quale segnale viene usato per estrarre l’informazione di tempo. Il segnale più semplice da usare, e dunque il metodo più diffuso, è quello della modulazione della portante con il codice digitale pseudo-casuale, ovvero il codice C/A su portanti a 1,5 GHz. Altrimenti, si può usare la portante stessa. In generale, il cammino dal satellite alla stazione di terra può essere diviso in due parti, una superiore in ionosfera e l’altra più basso in troposfera. Nella ionosfera, l’indice di rifrazione dell’onda elettromagnetica, e dunque la sua velocità e il ritardo con cui questa arriva al suolo, sono dominate dal contenuto di elettroni
166
La disseminazione
liberi, mentre nella troposfera domina l’interazione con l’aria secca, con contributi minori dal vapore acqueo e dalle tracce dei costituenti residui. Oltre a essere un errore indesiderato per la sincronizzazione, il ritardo atmosferico è anche instabile, perché sia il contenuto libero di elettroni sia le condizioni termodinamiche dell’aria in troposfera sono due parametri variabili e non predicibili a un livello adeguato. Il ritardo del segnale in ionosfera dipende dalla posizione e dalla frequenza del segnale, perché sono i due parametri fondamentali dell’interazione tra segnale ed elettroni liberi: la posizione influenza per via della disomogeneità nella distribuzione elettronica, la frequenza determina l’intensità dell’interazione tra elettroni e segnale e causa la dispersione del segnale. La dispersione può essere misurata, e così compensata, usando due segnali di frequenze diverse, che hanno una sensibilità diversa all’interazione con gli elettroni, che si propagano insieme lungo lo stesso cammino. I GNSS dispongono sempre di almeno due segnali portanti, per esempio nel GPS abbiamo visto la presenza di L1 e L2, pensati proprio per questo scopo. La dispersione si valuta e compensa attraverso il modello fisico della propagazione e la misura dell’apparente differenza di tempo misurato a terra usando le due frequenze. Tuttavia, nella pratica, la misura della dispersione utilizza comunque i codici tempo sulle due portanti, diremmo più precisamente che si combinano misure P1 e P2, cioè le misure di codice C/A su portante L1 e L2. Così si compensa l’errore del ritardo ionosferico, ma peggiora il rumore sul segnale, cioè migliora l’accuratezza ma peggiora la stabilità del confronto. Per questo motivo, quando si può evitare, per esempio se i due orologi a terra sono relativamente vicini e l’errore ionosferico si può trascurare, la misura di compensazione della dispersione si omette in favore di una
167
Il tempo è atomico
maggiore stabilità e, quindi, di misure di confronto più rapide. La distanza tra i due orologi è un parametro importante, perché distanze maggiori implicano che le regioni dove i due segnali si propagano (uno verso un orologio e il secondo verso l’altro) possano esprimere una differenza nel contenuto elettronico significativa, per esempio in quanto influenzata, per uno dei due cammini dell’approssimarsi di alba o tramonto, quando le interazioni tra sole e ionosfera sono molto intense. Un particolare algoritmo di combinazione delle misure P1 e P3, detto GPS-P3, realizzato agli inizi degli anni Duemila da Gerard Petit e Pascal Defraigne, è stato a lungo il metodo utilizzato dal BIPM per confrontare gli orologi dei vari laboratori metrologici e realizzare la scala di riferimento internazionale UTC. Gli effetti di troposfera sono minori di quelli ionosferici, anche perché il cammino fisico è molto minore: la ionosfera è spessa circa 400-500 km contro la decina di chilometri della troposfera. Tuttavia, gli effetti troposferici di dispersione non si compensano con il semplice uso di L1 e L2, perché la differenza di sensibilità sulla dispersione non è abbastanza grande per avere una misura precisa del ritardo indotto. Il ritardo troposferico si misura molto meglio alle frequenze ottiche, ma in generale i sistemi GNSS non sono attrezzati per misure simili, così l’allestimento di esperimenti paralleli con l’obiettivo della cancellazione dell’errore troposferico diventa piuttosto complesso. Nella pratica, quest’errore resta uno dei limiti fondamentali all’accuratezza dei sistemi GNSS di sincronizzazione e confronto, che come già detto arrivano al livello del nanosecondo. Un considerevole miglioramento in stabilità e accuratezza si raggiunge usando direttamente le portanti L1 e L2 (circa 1.500 MHz) al posto del codice tempo disseminato trasportato attraverso la modulazione digitale della portante con una frequenza equivalente (chipping del codice C/A) di circa 1 MHz.
168
La disseminazione
Avendo le portanti una frequenza caratteristica circa 1.500 volte maggiore della fondamentale frequenza di chipping, una misura delle portanti è in principio 1.500 volte più sensibile e precisa. I metodi di sincronizzazione che ne derivano si chiamano Carrier Phase (GPS-CP) e consentono le migliori prestazioni dei sistemi basati sui GNSS, al prezzo di una complessità del sistema molto maggiore, così che sono quasi esclusivamente limitati all’utenza dei laboratori metrologici. Il GPS Carrier Phase è nato in realtà in ambito geodetico, per migliorare al massimo le possibilità di geo-localizzazione, e solo successivamente si è imposto nella comunità di tempo e frequenza. L’idea è semplice: invece di misurare la differenza di tempo tra il segnale pps (pulse per second) dell’orologio a terra e del corrispondente segnale estratto dal codice pseudo-random trasmesso dal satellite, il ricevitore misura direttamente un confronto (tecnicamente, un confronto di fase) tra la portante trasmessa dal GPS e un oscillatore di riferimento a terra. Sebbene il concetto sia semplice, la realizzazione pratica lo è molto meno. Innanzitutto, occorre che i laboratori riceventi siano dotati di buone sorgenti a 1,5 GHz circa per confrontarle direttamente con il segnale GPS, sorgenti che poi vanno divise per ottenere i segnali di orologio (pps). Questa condizione ormai è facilmente realizzabile anche a costi contenuti, ma solo dopo uno sviluppo elettronico durato un ventennio. Inoltre, occorre avere uno strumento di confronto tra i due segnali a 1,5 GHz e questa rimane una condizione ancora delicata e/o costosa da realizzare. La misura che se ne ottiene è già ottima per le applicazioni geodetiche e i confronti di frequenza, ma per disseminare il tempo sussiste una complicazione in più dovuta a un cosiddetto
169
Il tempo è atomico
fattore di ambiguità della misura, una fase additiva multipla di 2 pi greco che va rimossa con una complicazione dell’analisi dati. L’analisi dati, a parte l’ambiguità di fase per le misure di tempo, resta complessa per ogni tipo di misura, anche per la frequenza e la geodesia. Infatti, un’altra sorgente di errore nel GPS-CP proviene dal movimento dei satelliti e dal conseguente effetto Doppler. Per compensare gli errori che ne derivano occorre conoscere le orbite con un grado di precisione che non è contenuto nel segnale di effemeridi del GPS stesso. Questi dati sono disponibili, ma solo ricorrendo a una cosiddetta soluzione di network, calcolata e distribuita sul proprio sito web dall’International GNSS Service (IGS),7 che è una rete globale di circa 350 stazioni di misura e di analisi dei segnali GPS. Così, la misura del GPS-CP diventa un procedimento complesso, che oltre alle misure del ricevitore necessita di dati esterni provenienti dall’IGS, che non sono dati in tempo reale, ma con un ritardo variabile e, maggiore è il ritardo, migliore è l’accuratezza del confronto di tempo e frequenza. A oggi, questo ritardo nell’acquisire il confronto desiderato non è limitante per gli utenti metrologici, ma resta il fatto che il processo non è in tempo reale. Inoltre, l’algoritmo di analisi di tutti i dati (misure di fase e orbitografia satellitare accurata) non è banale da implementare via software e ha un costo a parte da considerare con attenzione, tanto è vero che spesso ci si avvale della collaborazione di specialisti che hanno scritto un codice apposito, introducendo però al metodo un’altra complessità esterna. L’ultimo sistema di confronto sincronizzato sviluppato è sempre basato sull’uso delle portanti, dei ricevitori GPS detti geo7. Per conoscere tipo di prodotti e metodi d’analisi, consultare per esempio il sito dell’IGS: http://igscb.jpl.nasa.gov.
170
La disseminazione
detici e delle soluzioni IGS dei parametri orbitali, ed è noto come Precise Point Positioning (GPS-PPP).8 Anche questo sistema fu sviluppato in origine tra la fine degli anni Novanta e i primi del Duemila per usi geodetici (geo-localizzazione millimetrica delle antenne). Uno dei vantaggi del GPS-PPP rispetto al carrier phase è il codice di analisi semplificato, che permette una diffusione più estesa tra i laboratori con una gestione semplificata dell’elaborazione. Un altro vantaggio interessante è l’indipendenza del sistema dalla distanza tra gli orologi da confrontare. Entrambi i sistemi geodetici GPS-CP e GPS-CP sono capaci di garantire una risoluzione di tempo di circa 200-400 picosecondi al giorno, un’accuratezza di 1 nanosecondo o lievemente migliore, e una instabilità di frequenza di parti in 10-16 in una decina di giorni di misura. Il BIPM attualmente utilizza regolarmente il GPS-PPP per gli usi internazionali di sincronizzazione. Il GPSCP e il GPS-PPP sono lo stato dell’arte nella sincronizzazione globale di orologi, confrontabili con la soluzione più accurata attualmente disponibile, che però non usa le costellazioni GNSS, ma un satellite per le comunicazioni e un concetto diverso di sincronizzazione, già incontrato per la disseminazione via Web: il confronto a due vie.
Satelliti per le comunicazioni: il confronto di orologi Two Way Finora abbiamo visto i sistemi di radionavigazione che, fondati su orologi accurati e su segnali a essi sincronizzati, finiscono poi col diventare uno strumento per la disseminazione e il confronto di tempo. 8. Si può aprofondire la tecnica su F. Lahaye, G. Cerretto, P. Tavella, “GNSS geodetic techniques for time and frequency transfer applications”, Advances in Space Research 47, pp. 253-264 (2011).
171
Il tempo è atomico
A oggi, tuttavia, il sistema migliore per il confronto di orologi remoti, quello ufficialmente usato dal BIPM per i suoi dati migliori, è il Two Way Satellite Time and Frequency Transfer (TWSTFT), che non usa satelliti militari, ma satelliti civili per telecomunicazioni. Oltre a questo aspetto, la differenza fondamentale della tecnica di confronto risiede nel fatto che il Two Way coinvolge segnali che viaggiano in entrambe le direzioni tra i due orologi che si confrontano, e non come nei sistemi GPS, dove abbiamo una trasmissione unidirezionale, dal satellite verso terra. Da ciascun laboratorio parte un segnale in trasmissione, e il satellite si limita a essere un trasponder, che rimbalza i segnali in arrivo da un laboratorio verso l’altro. Così, lungo lo stesso cammino fisico, troviamo i segnali che vanno in una direzione dal primo al secondo orologio e quelli che percorrono il cammino inverso. In questo modo si correggono i ritardi che la ionosfera e la troposfera inducono sull’onda elettromagnetica unidirezionale, che limitano alla fine i segnali GPS diretti o in Common View. Uno svantaggio rilevante della tecnica è la complessità del sistema, molto maggiore rispetto al GPS. Infatti, ogni laboratorio si deve dotare di un sistema di trasmissione e ricezione; il segnale viene codificato su segnali in banda Ku (circa 11-14 GHz) con modulazioni pseudo-casuali generate da modem piuttosto costosi (svariate decine di migliaia di euro, a fronte delle migliaia di euro di un ricevitore GPS) a cui si deve aggiungere il costo della banda di trasmissione sul satellite, che dal 1995 è un satellite INTELSAT. Ovviamente, quest’ultimo costo non è uno svantaggio reale, nel senso che il sistema GPS in realtà è un’infrastruttura molto più costosa, ma i suoi costi sono coperti dal Ministero della Difesa U.S. e non si scaricano direttamente sull’utenza. Il TWSTFT utilizza satelliti commerciali per telecomunicazioni, per cui è l’utenza a dover pagare l’affitto della banda.
172
La disseminazione
Per questi motivi, il Two Way resta confinato ai soli impieghi di metrologia primaria, e lo utilizzano quasi esclusivamente gli istituti metrologici nazionali.9 In Figura 3.3 si può vedere una rappresentazione di questa tecnica di sincronizzazione.
Figura 3.3 Schema di principio della sincronizzazione con il Two Way.
Il segnale trasmesso è un’onda con periodo 1 secondo (1 pps, pulse per second) codificato modulando una frequenza intermedia a 70 MHz convertita a 14 GHz, mediante l’uso di modem di tipo spread-spectrum che usano una codificazione a rumore pseudo-causale e multiplazione Code Division Multiple Access, CDMA. Ogni modem, nei due laboratori remoti, ha il compito di codificare il pps del laboratorio locale per la trasmissione e di decodificare (demodulare) il pps dal segnale 9. Si vedano l’articolo e i riferimenti lì riportati: A. Bauch, J. Achkar, S. Bize, D. Calonico, R. Dach, R. Hlavac, L. Lorini, T. Parker, G. Petit, D. Piester, K. Szymaniec, P. Uhrich, “Comparison between frequency standards in Europe and the USA at the 10-15 uncertainty level”, Metrologia 43, pp. 109-120 (2006).
173
Il tempo è atomico
che arriva dal laboratorio remoto. Così, in ciascun laboratorio ci sono due segnali pps, uno prodotto dall’orologio atomico locale, e uno in uscita dal modem, decodificato dal segnale trasmesso, che rappresenta l’orologio atomico remoto. Lo scarto di tempo tra i due orologi è misurato applicando la coppia di pps a un contatore elettronico, che ne misura direttamente lo scarto. Una volta che i due laboratori hanno misurato indipendentemente i due scarti di tempo, si scambiano le rispettive misure, e la differenza di tempo DT tra i due orologi segue questa relazione:
DT =
DtA – DtB 2
+ Dt non reciproci
dove DtA e DtB sono le misure al contatore nel laboratorio, mentre Dt non reciproci tiene conto della non reciprocità dei cammini dei segnali da un laboratorio all’altro e viceversa, scarti dovuti all’effetto di rotazione della Terra (effetto Sagnac),10 all’apparecchiatura di terra, ai percorsi in atmosfera e al trasponder del satellite. Nella misura Two Way ideale, tutti i contributi non reciproci sono nulli e contano solo le misure dei contatori. Per tutti gli altri effetti, occorre una valutazione teorica e/o sperimentale, tenendo anche conto che le non reciprocità possono essere stabili nel tempo o cambiare. I ritardi di trasmissione e ricezione nell’apparecchiatura di Terra non sono in generale annullabili, perché causati da com10. L’effetto Sagnac è un effetto di Relatività Ristretta scoperto da Georges Sagnac nel 1913, che si manifesta quando due onde elettromagnetiche percorrono un cammino su un anello chiuso in due direzioni opposte. Se l’anello è in rotazione, allora le due onde accumulano dopo un giro una differenza di fase, che se osservata nel tempo si traduce in una differenza di frequenza, proporzionale alla velocità di rotazione dell’anello e alla sua area. Così, per la trasmissione di segnali in atmosfera, essendo la Terra un riferimento rotante, la propagazione su anelli chiusi determina errori di tempo e di frequenza. D’altra parte, invece, l’effetto Sagnac può essere usato per misurare la velocità di rotazione costruendo giroscopi che trovano grandi applicazioni in ambito civile, industriale e scientifico.
174
La disseminazione
ponenti e dispositivi materialmente diversi per la trasmissione e la ricezione; sono spesso il vero limite per l’accuratezza e la stabilità del metodo; per il confronto di tempo assoluto occorre una vera e propria taratura con una stazione di terra indipendente. I ritardi dovuti al satellite possono invece cancellarsi se il trasponder usato è lo stesso in andata e ritorno. Per i ritardi atmosferici, i cammini geometrici sono quasi identici, ma i collegamenti da Terra o da satellite avvengono a frequenza diversa (Terra-satellite a 14 GHz, viceversa a 11 GHz), pertanto la velocità di propagazione, soprattutto in ionosfera, è diversa, e questo genera una non reciprocità, mentre il ritardo dovuto alla troposfera ha minore importanza. Infine, rispetto ad altri sistemi radio, il Two Way è piuttosto immune ai cammini multipli delle radiazioni, mentre resta sensibile a eventuali sorgenti radiotelevisive presenti sulla direttrice tra satellite e antenna, che disturbano il segnale accoppiandosi alla frequenza di intermodulazione. La stabilità del TWSTFT sulla misura di 24 ore è di circa 200 picosecondi, mentre l’accuratezza di un sistema con apparecchiature appropriatamente tarate è di 1 ns. A oggi, la tecnica Two Way permette di valutare le non reciprocità e altre sorgenti di instabilità a un livello tale da confrontare due orologi remoti fino a poche unità per 10-16.
Il tempo perfetto delle fibre ottiche Per confrontare due fontane atomiche al cesio fino al loro livello di accuratezza, cioè 5×10-16, sono necessari 20 giorni di misure continue con il sistema satellitare più avanzato, il Two Way. La nuova generazione di orologi atomici, i cosiddetti orologi ottici, si collocano ormai su livelli di accuratezza di parti in 10-17, per quelli basati su atomi neutri, e parti in 10-18 per gli orologi ottici a
175
Il tempo è atomico
ioni. Per confrontare due orologi ottici in remoto a questi livelli non bastano 100 giorni di misure con il sistema Two Way. Appare evidente che confrontare due dispositivi per un periodo di tempo così lungo ha dei limiti e soprattutto comincia a perdere di significato a livello pratico e metrologico. Occorre qualcosa di nuovo per superare il limite imposto dal sistema di confronto. Secondo un principio che nel corso del libro si è manifestato più volte, se occorre maggiore precisione, bisogna cominciare dall’aumentare le frequenze fondamentali coinvolte. Questo principio è stato valido per gli orologi, passando dalle radiofrequenze alle microonde ai laser, e lo è anche per i sistemi di confronto a distanza. Storicamente, abbiamo visto in questo capitolo aumentare la precisione del confronto passando dalle basse frequenze del sistema radiotelevisivo a quelle a microonda dei sistemi satellitari, sia di radionavigazione sia per le comunicazioni. Non resta che fare il passo successivo, dalle microonde all’ottico, e usare il laser per confrontare orologi in remoto. Il concetto di usare portanti laser per trasferire l’informazione di tempo è stato avanzato in forme realistiche già da più di vent’anni, inizialmente considerando tecniche vicine a quelle dei LIDAR (Laser Imaging Detection And Ranging), e comunque considerando la propagazione della radiazione laser in spazio libero, come avveniva per le altre radiazioni elettromagnetiche. Si considerarono anche tecniche satellitari, in cui un satellite dotato di specchi fungeva da trasponder per un impulso laser lanciato da una stazione a terra e riflesso verso una seconda stazione. Contemporaneamente, la seconda stazione emetteva un proprio impulso realizzando a tutti gli effetti un sistema Two Way Satellitare Ottico. La dispersione della ionosfera alle frequenze ottiche diventa trascurabile, e la correzione solitamente omessa, sopra i 10 GHz;
176
La disseminazione
invece, l’effetto troposferico aumenta sensibilmente rispetto alle radiofrequenze, soprattutto per la presenza delle righe di assorbimento del vapore acqueo, tanto è vero che, come già discusso, le frequenze ottiche potrebbero essere usate per misurare il ritardo troposferico dei segnali radio dei sistemi GNSS. L’idea di trasferire il tempo e la frequenza con questa tecnologia risale al 1972, con il progetto LASSO (LAser Synchronization from Stationary Orbit) dell’Agenzia Spaziale Europea (ESA) e di quella francese Centre National d’Études Spatiales (CNES), che ha trovato i primi riscontri sperimentali nel 1992 con un confronto remoto tra l’Observatoire de la Côte d’Azur, Francia, e il McDonald Observatory, Texas, con una stabilità di frequenza di 10-13 su 1.000 s usando il satellite geostazionario Meteosat P2. La tecnica è ripresa con più ambiziosi traguardi dal progetto T2L2, che dopo alterne vicende di finanziamento, nel 2004 è rientrato nel programma spaziale congiunto dell’agenzia americana NASA e dello CNES, che prevede di usare la missione Jason-2, lanciata nel 2008 come proseguimento delle missioni Topex/Poseidon per lo studio via satellite degli ambienti oceanici e dell’evoluzione climatica. T2L2 è entrato nella sua fase operativa nel 2013 e ha come obiettivo una stabilità di trasferimento del tempo di 100 s, con accuratezza di circa 1,5 ns. Un altro link ottico satellitare per confrontare orologi è previsto per la missione ACES (Atomic Clock Ensemble in Space) dell’ESA e dello CNES con la partecipazione di molti Paesi europei, Italia compresa, il cui lancio è previsto nel 2016 e che porterà sulla Stazione Spaziale Internazionale un orologio ad atomi ultrafreddi di cesio e un maser all’idrogeno per eseguire alcuni test di fisica fondamentale sulla Relatività Generale e sui modelli di unificazione oltre il modello standard, come descriveremo più avanti nel libro.
177
Il tempo è atomico
Alcuni limiti importanti hanno impedito un’effettiva diffusione di queste tecniche. Su tutti, citiamo il fatto che la radiazione ottica interagisce fortemente con gli elementi opachi dell’atmosfera, come le nuvole, per cui l’utilizzo delle tecniche laser satellitari è fortemente ristretta ai giorni di tempo soleggiato. Una svolta decisiva è stata data dallo sviluppo delle comunicazioni in fibra ottica. Con lo sviluppo di questa tecnologia è stato possibile pensare di usare la fibra per disseminare in modo efficiente una radiazione laser che portasse con sé un’informazione accurata di tempo o frequenza. Inoltre, come per tutti gli altri sistemi, radiotelevisione, telefono, Internet o radionavigazione, le comunicazioni ottiche hanno avuto una diffusione così capillare da garantire anche alla comunità di tempo e frequenza un’infrastruttura da utilizzare per il confronto a distanza e la disseminazione. Ancora non disponiamo di un sistema effettivo funzionante in modo continuo permanente e per una vasta classe di utenti. Abbiamo solo realizzazioni sperimentali limitate a un ristretto numero di laboratori, come vedremo, ma questa tecnica è in grande e veloce sviluppo, la fibra può offrire una certa capillarità, ma soprattutto le possibilità offerte in termini di stabilità e accuratezza sono davvero impressionanti, visto che la disseminazione in fibra ottica offre una precisione 10.000 volte maggiore dei sistemi satellitari più performanti. Il primo passo è disporre di un laser ultra-stabile alla frequenza adatta, cioè intorno ai 1.550 nm, dove c’è un’importante banda di frequenze ottiche per la fibra, dal momento che a quella lunghezza d’onda si ha il minimo di attenuazione del segnale, diminuendo il numero di amplificatori necessari. Per laser ultrastabile si intende un laser che ha un’emissione concentrata in una banda di pochi hertz, a fronte delle decine di kilohertz propri dei laser commerciali più performanti in quel senso.
178
La disseminazione
Un laser ultra-stabile per la disseminazione in fibra ottica si ottiene con tecniche del tutto analoghe a quelle usate per i laser degli orologi ottici, cioè i laser che eccitano la transizione atomica di riferimento. Si parte da un buon laser commerciale, con una riga spettrale già larga al massimo qualche decina di kilohertz, e si confronta la sua frequenza con quella di un riferimento passivo, una cavità risonante di Fabry-Perot ad altissima finezza, a cui il laser sarà poi “agganciato” con una tecnica standard nota come Pound-Drever-Hall.11 La cavità di Fabry-Perot è composta da una coppia di specchi tenuti a una certa distanza da uno spaziatore. La lunghezza della cavità determina le frequenze a cui può risuonare, che sono poi le frequenze di riferimento. La lunghezza della cavità deve essere stabile a livello della stabilità di frequenza desiderata. Nel caso dei laser in esame, l’obiettivo è una stabilità di qualche parte in 10-15, pertanto anche la lunghezza della cavità deve essere costante a quel livello. Per una cavità tipica di lunghezza 10 cm, significa costruire un manufatto che non si allunghi né si accorci di più di 10-15×10 cm=10-16 m, equivalente a circa un capello rispetto alla distanza Terra-Sole. Per riuscirci, occorre “immunizzare” la cavità dalle variazioni termiche e dalle vibrazioni sismiche. Si usa un materiale molto insensibile alle fluttuazioni di temperatura, un vetro speciale “Ultra Low Expansion” ULE® della Corning, o il silicio cristallino a temperature criogeniche. Dopodiché, il tutto è messo sotto ultra alto vuoto e controllato in temperatura. Per le vibrazioni meccaniche, invece, si usa un sistema che viene dalla fisica ottocentesca, ma che è stato “riscoperto” in 11. Per approfondire i concetti ottici fondamentali di cavità Fabry-Perot e finezza, qualsiasi manuale di ottica aiuterà; le tecniche di aggancio in frequenza come la Pound-Drever-Hall per i laser ultra-stabili sono invece un po’ più specialistiche. Per tutti questi temi, si può consultare il testo di W. Demtroder, Laser Spectroscopy: Basic Concepts and Instrumentation, Springer, 1995.
179
Il tempo è atomico
anni recenti da Till Rosenband del NIST di Boulder, Colorado: si sospende la cavità su punti molto particolari, calcolati con le simulazioni meccaniche agli elementi finiti, che hanno la proprietà di scaricare le vibrazioni su tutto il manufatto tranne che sull’asse ottico, dove passa il laser, e dove si crea una zona neutrale, particolarmente tranquilla, che è in effetti la lunghezza che il laser “vede” per la sua stabilizzazione. Il laser così sviluppato ha una stabilità di parti in 10-15 (ma si arriva anche sotto 10-16), e viene accoppiato alla fibra ottica e inviato al laboratorio remoto. In Figura 3.4 si può vedere come appare una di queste cavità per realizzare laser ultra-stabili.
Figura 3.4 Esempio di cavità Fabry-Perot in vetro a espansione termica ultraridotta (Corning ULE) per la generazione di sorgenti laser ultra-stabile. A sinistra: la cavità dentro la struttura che sarà posta sotto vuoto; si vede lo schermo di rame per la stabilizzazione termica. A destra: la cavità poggiata su un supporto specifico che permette la sospensione nei punti di massimo smorzamento rispetto all’asse ottico.
La sua frequenza, tramite un pettine ottico di frequenza, è misurata direttamente verso un orologio atomico, e siccome il pettine ottico non aggiunge incertezza di misura a livello di 10-18, possiamo dire che la frequenza del laser in partenza porta con sé l’accuratezza dell’orologio atomico di riferimento.
180
La disseminazione
Al laboratorio di arrivo, la frequenza del laser può essere convertita con un secondo pettine ottico nei segnali a radiofrequenza (per esempio, 10 MHz) usati in genere nei laboratori e nelle industrie come riferimenti. Altrimenti, si può modulare la frequenza portante del laser con una radiofrequenza e in remoto usare un dispositivo demodulatore. Una terza strada è quella di usare direttamente la portante ottica, ma è un’alternativa al momento riservata ai laboratori più avanzati. A questo punto, arrivano i punti chiave per l’infrastruttura in fibra. Innanzitutto, deve essere di nuova generazione e prevedere un percorso completamente ottico. Questo significa che non ci deve essere mai un punto della fibra dove il segnale del laser viene convertito in un segnale elettrico e poi di nuovo in uno ottico, tecnica tipica delle prime generazioni di reti di comunicazione in fibra, ma l’infrastruttura deve essere full-optical. Quando subisce la conversione ottico-elettrico-ottico, l’accuratezza del laser è perduta. La tecnologia attuale delle comunicazioni, tuttavia, è matura per questa richiesta, altrimenti sarebbe necessario sempre allestire delle fibre dedicate per la disseminazione di frequenza. Un secondo punto molto delicato è che la fibra cambia la sua lunghezza per le fluttuazioni ambientali di temperatura e per le vibrazioni. Queste variazioni si traducono in un rumore sulla frequenza del laser disseminato. Nel 2007, tuttavia, un gruppo del NIST guidato da Nathan Newbury12 dimostrò come si potesse compensare quel rumore aggiunto dalla fibra con una tecnica concettualmente semplice, rappresentata in Figura 3.5. Una volta arrivato nel laboratorio remoto, parte del laser viene riflesso verso la stazione di partenza, e una volta tornato a casa, 12. Leggete per esempio N. R. Newbury, P. A. Williams, W. C. Swann, “Coherent transfer of an optical carrier over 251 km”, Optics Letters, 32, 3056-3058 (2007).
181
Il tempo è atomico
viene confrontato con il segnale del laser di partenza. Il rumore aggiunto dalla fibra può così essere rivelato e misurato, e si può applicare una correzione al laser di partenza affinché il rumore della fibra venga esattamente cancellato al punto di arrivo.
Figura 3.5 Schema di principio della sincronizzazione laser coerente in fibra ottica (si confronti il testo).
La tecnica è nota come cancellazione Doppler, e viene usata anche nelle cuffie stereofoniche hi-fi per cancellare i rumori dell’ambiente circostante, o anche da alcuni modelli di telefono Apple per migliorare la qualità dell’audio in ambienti rumorosi. Così come descritta, la tecnica di cancellazione necessita di poter andare avanti e indietro sulla fibra, e di avere cioè un’infrastruttura bidirezionale, che purtroppo non è presente sulla rete standard di comunicazione in fibra, anche nel caso di trasmissioni full-optical. Infatti, nelle comunicazioni ottiche si utilizzano sempre due fibre unidirezionali, una di trasmissione e una di ri-
182
La disseminazione
flessione. Si può modificare l’infrastruttura esistente, ma occorre inserire degli opportuni elementi bidirezionali, in particolare gli amplificatori, con una certa lievitazione dei costi. D’altra parte, invece, le realizzazioni finora presenti hanno dimostrato la possibilità di operare su fibra dedicata, ma anche di poter utilizzare le fibre già occupate dal traffico Internet, il che rende la tecnica molto accattivante per un suo sviluppo futuro, pensando che possa a un certo punto arrivare ovunque arrivi Internet. La convivenza tra laser ultra-stabile per il tempo e traffico Internet è garantita sulle reti di nuova generazione tramite una multiplazione nota come DWDM, Dense Wavelenght Division Multiplexing, che divide tutta la banda di frequenza disponibile in canali da 100 GHz e assegna canali diversi a utenti diversi. I diversi canali possono essere divisi e trattati separatamente quando serve, e per il resto viaggiano sulla stessa fibra, ma si è dimostrato che non si influenzano mai, anche se si trovano su canali a 100 GHz adiacenti. Magari il futuro ci riserverà un servizio di Tempo & Frequenza on-demand. Attualmente, l’attività di ricerca sulla disseminazione in fibra è molto attiva, e l’Europa sta giocando un ruolo molto importante, anche grazie ai lavori pionieristici del gruppo di Giorgio Santarelli in Francia e di Harald Schnatz in Germania.13 Infatti, l’Europa vanta il maggior numero di link ottici attivi: dopo le prime prove su qualche decina di chilometri, oggi possiamo disporre di un collegamento di 900 km in Germania, uno di 500 km in Francia, uno di 640 km in Italia, 500 km tra Svezia e Finlandia, 400 km in Polonia e 800 km tra Praga e Vienna. 13. Due importanti lavori di questi gruppi sono descritti in K. Predehl et al., “A 920-Kilometer Optical Fiber Link for Frequency Metrology at the19th Decimal Place”, Science 336, 441 (2012) e in O. Lopez et al., “Cascaded multiplexed optical link on a telecommunication network for frequency dissemination”, Opt. Express 18, 16849 (2010).
183
Il tempo è atomico
Figura 3.6 Mappa del progetto italiano LIFT di collegamenti in fibra ottica per il tempo e la frequenza, linea principale di disseminazione. INRIM: Istituto Nazionale Ricerca Metrologica; POLITO: Politecnico di Torino; IFN-CNR: Istituto di Fotonica e Nanotecnologia, Consiglio Nazionale delle Ricerche; INAF: Istituto Nazionale di Astrofisica; UNIFI: Università di Firenze; LENS: Laboratorio Europeo di Spettroscopia Non Lineare; INFN: Istituto Nazionale di Fisica Nucleare; INO-CNR: Istituto di Ottica, Consiglio Nazionale delle Ricerche. Come si vede, si tratta di un’infrastruttura sinergica tra i principali centri di ricerca italiani.
L’Italia partecipa attivamente a questa “corsa alla fibra”, avendo messo in opera nel maggio 2013 un link tra l’INRIM di Torino e i laboratori dell’Università di Firenze a Sesto Fiorentino, per un totale di 640 km, secondo un percorso mostrato in Figura 3.6. Partner del progetto, per quanto riguarda l’infrastruttura di base in fibra, è il Consortium GARR.14 La stabilità del segnale trasmesso è pari a 1×10-14 per un solo secondo di misura, che scende poi in modo inversamente proporzionale al 14. Il Consortium GARR ha lo scopo primario di progettare, implementare e operare un’infrastruttura di rete atta a fornire alla comunità scientifica e accademica italiana gli strumenti di comunicazione idonei allo svolgimento delle proprie attività istituzionali di ricerca e insegnamento in ambito nazionale e internazionale. Consultate il sito www.garr.it.
184
La disseminazione
tempo. Così, in soli 1.000 secondi il sistema scende sotto 10-17, dove il confronto tra orologi ottici non è più limitato dal sistema di disseminazione. In Germania è stata già dimostrata la possibilità di scendere sotto il livello di accuratezza di 1×10-19, mentre esperimenti di disseminazione di tempo in Francia, Germania e Polonia hanno dimostrato di poter portare un segnale di sincronizzazione a poche decine di picosecondi, contro il nanosecondo del miglior sistema satellitare Two Way. Il link tra Torino e Firenze è la dorsale principale di un sistema a rete che vuole costituire nei prossimi anni il primo network italiano di disseminazione ad alta accuratezza, e raggiungerà nel 2014 i laboratori di radioastronomia di Medicina, Bologna, dell’Istituto Nazionale di Astrofisica, e poi i laboratori di Milano del Centro Nazionale delle Ricerche. Intanto, si stanno studiando dei metodi di disseminazione più capillare e secondaria, che magari non raggiungono la precisione dei link primari, ma che dovrebbero abbondantemente sorpassare le esigenze attuali di utenza, permettendo un salto tecnologico che potrà essere di supporto a nuovi sviluppi di produzione industriale e a un miglioramento delle misure tout court. Anche l’Europa si sta muovendo verso la creazione di una rete, innanzitutto unendo gli Istituti Metrologici Nazionali, a partire dai collegamenti già realizzati, menzionati prima e mostrati in Figura 3.7.15
15. In Europa, lo sviluppo di un network di link ottici a partire da quelli esistenti, da estendere e consolidare, è l’obiettivo del progetto NEAT-FT della Comunità Europea e dell’Associazione Europea di Metrologia Euramet, attraverso lo European Metrology Research Program (www.emrponline.org). L’EMRP è finanziato congiuntamente dagli stati che partecipano all’EMRP attraverso Euramet e l’Unione Europea.
185
Il tempo è atomico
Figura 3.7 Mappa dei principali link ottici europei attualmente presenti (linee continue), e in sviluppo (tratteggiate). Sono indicati gli anni di realizzazione (il punto interrogativo indica un valore previsionale). Gli acronimi individuano i principali istituti metrologici d’Europa.
L’Europa dispone già di una trentina di orologi ottici e di una decina di fontane atomiche al cesio; una volta messo in rete con i link in fibra ottica, questo insieme potrà costituire una piattaforma metrologica assolutamente nuova, con ricadute dirette sulla generazione dei riferimenti internazionali di tempo, sulle capacità tecnologiche del continente, e anche sulla ricerca in fisica di base, visto che darà accesso a un gran numero di confronti accurati di orologi che si trovano in luoghi diversi e si basano su atomi diversi, caratteristiche importanti per alcuni test di fisica, come verrà spiegato più avanti. Rispetto ai sistemi satellitari, la fibra deve scontare ancora l’impossibilità pratica di realizzare confronti transoceanici o transcontinentali, ma anche qui le capacità di amplificare i se-
186
La disseminazione
gnali in fibra sta crescendo, e non è da escludere che questi sviluppi o qualche nuova tecnica rendano possibile in qualche anno un confronto tra Europa e Stati Uniti, separati da 4.000 km di fibre già presenti e utilizzate sui fondali dell’Atlantico. Per concludere questa parte, riassumiamo le differenti prestazioni per i sistemi di confronto e gli orologi atomici in termini di stabilità di frequenza nel grafico di Figura 3.8.
Figura 3.8 Incertezza dei metodi principali di sincronizzazione, confrontata con quella degli orologi, che nel grafico incorpora sia la stabilità (una componente d’incertezza che diminuisce col tempo di misura) sia l’accuratezza (che resta costante). Il link ottico è il solo a garantire un adeguato livello per confrontare gli orologi ottici.
187
4. Orologi per la scienza
New Physics happens at the next decimal place. La nuova Fisica è alla prossima cifra decimale. Stephen Chu, premio Nobel per la Fisica 1997
Gli orologi atomici hanno tratto enormi benefici dalle scoperte della fisica fondamentale. Il loro stesso funzionamento si basa sulla meccanica quantistica, mentre l’evoluzione degli orologi, della loro accuratezza e stabilità, è saldamente legata alle scoperte della fisica di frontiera, come l’emissione maser e laser, le risonanze magnetiche nucleari, il raffreddamento laser e i pettini ottici di frequenza. Dal punto di vista opposto, gli orologi atomici sono dispositivi così precisi e legati a una grandezza tanto fondamentale, il tempo, da essere candidati naturali per la ricerca sulle leggi fondamentali della fisica. La più celebre teoria fisica che dice cosa sia e come si comporti il tempo è la Relatività Generale formulata da Einstein,
Il tempo è atomico
così gli orologi atomici hanno consentito una sua verifica e la misura del ruolo della forza di gravità nel modellare lo spaziotempo. D’altro canto, gli orologi atomici hanno natura quantistica, e permettono alcune verifiche sulle teorie che cercano di andare oltre il modello standard delle interazioni fondamentali. Infatti, la fisica moderna si fonda su due teorie fondamentali, una sulla gravitazione (la Relatività Generale), e l’altra che descrive le ulteriori tre interazioni fondamentali, la teoria quantistica di campo del modello standard. Quando consideriamo i risultati delle teorie fisiche fondamentali, rimaniamo affascinati e sorpresi dal grado di precisione delle previsioni e dai molti successi nell’interpretazione del mondo reale. Si potrebbe pensare che non siano più necessari ulteriori esperimenti di verifica. In parte è così, ma in realtà molti test non hanno come vero scopo quello di provare la bontà delle due teorie. Il vero motivo per cui i fisici continuano a testare la Relatività e la meccanica quantistica è che sono a caccia di una nuova fisica. In effetti, quello che forse lascia perplessi nella maniera più assoluta è l’impossibilità di combinare le due teorie in un’unica formulazione coerente. I tentativi “canonici” di una teoria quantistica della gravità o di un’interpretazione classica del mondo subatomico, magari geometrica, hanno portato finora a inesorabili fallimenti, con numeri e previsioni in evidente dissonanza con il mondo reale. Rimane la convinzione che una teoria unificatrice debba esistere, così le verifiche sulle teorie sono un tentativo di guardare oltre il velo, per cogliere qualche indizio su una possibile teoria del tutto. Prima di capire in quale modo gli orologi atomici possano aiutare gli scienziati a trovare una teoria del tutto, cerchiamo di capire, molto rapidamente, da dove nasca questa esigenza.
190
Orologi per la scienza
Modello standard, relatività e supersimmetria L’infinitamente grande e l’infinitamente piccolo sono studiati da scienze a prima vista molto diverse tra loro. L’universo viene scrutato dagli astronomi e interpretato dai cosmologi, mentre l’atomo è l’oggetto di indagine dei fisici di particelle. Fisica e cosmologia, però, tendono sempre di più a confondersi e a sovrapporsi. Perché? Qualche anno fa, a un incontro avvenuto a Milano tra diversi premi Nobel, Sheldon Glashow, lo scienziato americano premio Nobel per la Fisica nel 1979, rispondeva così: “Nei fenomeni che avvengono all’interno dell’atomo troviamo la spiegazione di come funzionano le stelle; nei primi attimi della storia dell’universo, nella fase iniziale del Big Bang, sono avvenute trasformazioni che descrivono allo stesso tempo come si siano originati la materia e l’universo. Chi studia la fisica delle particelle vuole capire che cosa sia accaduto in quei primi momenti. Ed è quindi assolutamente naturale per lui porsi anche il problema di come si sia formato l’universo. È da questo presupposto che nella comunità scientifica, a partire proprio dagli anni Settanta, ha cominciato ad affermarsi la necessità di sviluppare una teoria del tutto, in grado cioè di spiegare al tempo stesso cosa succede all’interno degli atomi e quali siano i meccanismi macroscopici che regolano l’universo. Il tentativo di costruire questo edificio teorico parte dal modello standard, che descrive tutte le particelle elementari oggi note e tre forze fondamentali: elettromagnetismo, forza nucleare debole e forza nucleare forte. Gli atomi sono in sostanza costituiti da particelle dette quark, di cui esistono sei tipi (i fisici li chiamano “sapori”): combinati in maniera diversa, i quark danno origine a protoni e neutroni e a un grande numero di altre particelle. Oltre ai quark gli atomi sono formati anche da elettroni e da neutrini. Esistono poi altre particelle come i fotoni, che si formano ogni qualvolta da un atomo ci sia un’emissione di energia, o come i bosoni W e Z
191
Il tempo è atomico
(individuati da Carlo Rubbia) e i gluoni, attraverso i quali si esprime la forza necessaria a tenere unito il nucleo dell’atomo. Tutte queste particelle sono state individuate in laboratorio. All’appello si è aggiunto recentissimamente il bosone di Higgs, la particella che, secondo il modello standard, dovrebbe essere il “portatore di massa” e che a lungo è stato cercato dai fisici fino alla sua individuazione, avvenuta nel 2012 al CERN di Ginevra, che ha portato al Nobel per la fisica 2013 Peter Higgs e François Englert, che ne proposero l’esistenza negli anni Sessanta. L’astrofisico Corrado Lamberti, nel suo libro Capire l’universo, spiega come nacque l’idea della teoria del tutto: “Negli anni Settanta del Ventesimo secolo, l’unificazione delle forze compì un grande passo in avanti quando Sheldon Glashow, Steven Weinberg e Abdus Salam proposero una descrizione unificata delle interazioni elettromagnetica e debole, basata su una particolare simmetria matematica. La teoria unificata si rivelò così potente da prevedere l’esistenza delle tre particelle di scambio dell’interazione debole (responsabile della radioattività), e di indovinarne la massa, 15 anni prima che queste venissero effettivamente scoperte al CERN di Ginevra.” Da questa teoria, definita della “grande unificazione” rimane però esclusa la gravità. “La natura quantistica è assodata per tre delle quattro forze – dice ancora Lamberti – ma non per quella gravitazionale: per esempio, la carica elettrica, protagonista delle interazioni elettromagnetiche, è una grandezza quantizzata (multipla intera della carica elementare, quella dell’elettrone e del protone) mentre, per quello che se ne sa finora, non esiste il quanto della carica gravitazionale.” La gravità continua a essere descritta solo con la relatività. In realtà esiste chi propone l’esistenza di un quanto gravitazionale, attraverso la teoria della gravitazione quantistica a loop (o ad anelli), sviluppata inizialmente dal fisico italiano Carlo Rovelli. L’idea affascina molti fisici perché consentirebbe di elaborare una teoria del tutto in grado di comprendere anche la gravitazione.
192
Orologi per la scienza
Giusto per capire in che cosa consista l’idea, sentiamo cosa dice la ricercatrice Francesca Vidotto, una delle più strette collaboratrici di Rovelli impegnata al Centro di fisica teorica di Luminy in Francia: “L’idea consiste nel trasferire alla gravità i concetti della fisica quantistica ormai dimostrati, per esempio, per l’elettromagnetismo o per le forze forti (quelle che si manifestano all’interno degli atomi). Nella meccanica quantistica, i processi che regolano i campi di forze possono essere descritti in termini di scambi di quanti o particelle. La gravitazione quantistica a loop è il tentativo di applicare lo stesso concetto al campo gravitazionale e, quindi, allo spazio.” Secondo l’idea di Rovelli il cosmo sarebbe un reticolo di campi di spazio, dalla forma ad anello, dotati di una dimensione minima, al di sotto della quale non potrebbero esistere e nulla potrebbe esistere. Questi quanti di spazio sono insomma incomprimibili. Ne consegue che l’intero universo non può essere compresso al di sotto di una certa dimensione. Se questa compressione avvenisse, secondo la teoria, darebbe origine a un’enorme forza repulsiva, in grado di dar vita a una deflagrazione cosmica simile al Big Bang. Secondo i teorici della gravitazione quantistica a loop, però, non si deve parlare di Big Bang, ma di “Big Bounce”, di grande rimbalzo, nella concezione di un universo pulsante che periodicamente si espande e si contrae, e che può così avere un numero infinito di vite. Lungo il percorso verso la formulazione di una teoria del tutto, un passo fondamentale è stato la scoperta dei fisici Sheldon Glashow, Steven Weinberg e Abdus Salam che le forze elettromagnetiche, nucleare debole e nucleare forte sono simmetriche: vedono cioè entrare in gioco lo stesso numero di particelle, che svolgono funzioni identiche, ma all’interno di campi di forze di ordini diversi. L’interazione forte, quella che tiene uniti protoni e neutroni nel nucleo dell’atomo, ha un valore 100 volte superiore a quello della forza elettromagnetica e circa 105 volte
193
Il tempo è atomico
maggiore della forza debole. Secondo i teorici del tutto, esiste quindi un ulteriore grado di simmetria, che comprende anche la gravità e che viene definito “supersimmetria”. Questa idea, se dimostrata, includerebbe finalmente anche la gravità in una teoria che, a quel punto, a buon ragione potrebbe essere definita “del tutto”. Ma questo salto in avanti prevede l’esistenza di una serie di particelle “supersimmetriche” che ancora non sono state individuate nei laboratori, perché si originerebbero a livelli di energia talmente elevati che le attuali tecnologie non consentono di riprodurre. Le particelle conosciute sono suddivise in due categorie, i “fermioni”, come elettroni o quark, che hanno la caratteristica di non poter sovrapporre i loro stati, cioè di essere impenetrabili tra loro. I “bosoni”, invece, come i fotoni, possono sovrapporre i loro stati quantici, si possono “condensare” come dicono gli esperti. Secondo i fisici, nella supersimmetria, a ogni fermione corrisponde un’analoga particella bosonica e a ogni bosone una particella fermionica. Gli scienziati le chiamano con nomi strani: ai fermioni aggiungono una “s” (l’elettrone supersimmetrico è il selettrone, e il quark diventa squark), mentre i bosoni sono descritti con un diminutivo (fotino, gluino ecc.). Le particelle supersimmetriche avrebbero tutte massa elevata, che le candiderebbe anche a dare una spiegazione della materia oscura, e sarebbero individuabili soltanto dopo collisioni di particelle ad altissima energia, ancora non raggiungibili negli acceleratori di particelle, a parte forse LHC (il Large Hadron Collider del CERN di Ginevra), operativo dal novembre 2009. Le equazioni matematiche che originano dalla supersimmetria hanno però una caratteristica particolare: presuppongono l’esistenza di 11 dimensioni (ben 7 in più di quelle che percepiamo nella nostra vita di tutti i giorni: larghezza, altezza, profondità e tempo). Curiosamente, esiste una teoria sviluppata dai fisici,
194
Orologi per la scienza
quella delle stringhe, che, in un suo particolare sviluppo, definito Teoria M, prevede proprio l’esistenza di 11 dimensioni. “La Teoria M – spiega Maurizio Gasperini, fisico teorico dell’Università di Bari – nasce dall’unificazione delle 5 teorie delle stringhe sviluppate dai fisici tra gli anni Ottanta e Novanta. Ognuna di queste teorie prevede 10 dimensioni e, possiamo dire, descrive la stessa realtà vista da cinque posizioni diverse. Si è però scoperto che, considerando le stringhe non più come dei filamenti a una dimensione, ma come delle fettucce, delle membrane a due dimensioni, si aggiunge un’undicesima dimensione alle varie teorie delle stringhe ottenendo una super teoria che le descrive e le comprende tutte.” A rendersi conto di questo artificio matematico è stato nel 1995 Edward Witten, fisico dell’università americana di Princeton. La sua Teoria M, o M-Teoria, per quanto difficile da capire intuitivamente, visto che prevede l’esistenza di 11 dimensioni, ha però la straordinaria caratteristica di riuscire a spiegare, attraverso le sue equazioni, anche i fenomeni della gravitazione in accordo con le altre tre forze fondamentali. Sono stati descritti (sempre con la Teoria M) anche aspetti dell’universo finora rimasti senza risposta, come per esempio la struttura interna dei buchi neri. Allo stato attuale, pur in attesa di verifiche sperimentali ancora di là da venire, la Teoria M sembra ai fisici il miglior candidato per diventare la teoria del tutto.
Conferme sperimentali per la Relatività Generale Fatta questa rapida introduzione all’affascinante mondo della ricerca estrema che cerca di penetrare nei più recessi estremi della materia, quale può essere il ruolo degli orologi atomici nell’aiutare gli scienziati? Forti della loro grande accuratezza e del loro naturale coinvolgimento nel mondo della gravitazione
195
Il tempo è atomico
e della meccanica quantistica, intanto questi strumenti possono dare una mano nel confermare l’esattezza delle teorie già considerate acquisite. Trovare un’eventuale violazione della relatività equivarrebbe ad aprire nuove frontiere di ragionamento e di pensiero, in grado di indirizzare i fisici in una precisa direzione. Non trovare alcuna violazione diventa uno stimolo ulteriore per proseguire con ricerche sempre più precise e minuziose, in cui gli orologi atomici possono svolgere un ruolo primario. Il concetto di “Relatività Sperimentale”, ovvero dei test sperimentali per la gravità, ha avuto una storia discontinua, soprattutto dopo le evidenze portate nei primi anni a conferma della validità della proposta teorica di Einstein, come per esempio le campagne di misura di Sir Eddington sulla deflessione della luce o la spiegazione delle discrepanze significative tra dati osservativi e modello newtoniano, come nel caso del perielio di Mercurio.1 In seguito a questi successi, fino agli anni Sessanta si assistette all’assenza di un vero e proprio fermento sperimentale sulla relatività, che continuava a consolidare i propri successi. Dall’altro lato, la meccanica quantistica nasceva negli anni Trenta, e successivamente Paul Dirac vi incorporava la Relatività Ri1. Quella del perielio di Mercurio è stata la prima dimostrazione concreta dell’esattezza della teoria della relatività. Fin dagli inizi della fisica newtoniana era evidente che il pianeta Mercurio costituiva un’anomalia: il suo perielio, cioè il punto dell’orbita più vicino al Sole, non cade sempre nello stesso punto, come teorizzava la legge di Keplero, ma avanza a ogni orbita, per uno spostamento complessivo di 5.600 secondi d’arco ogni secolo. La precessione del perielio di Mercurio non è di per sé un’eccezione. La fisica newtoniana spiega questo fenomeno con l’attrazione gravitazionale esercitata anche dagli altri pianeti del sistema solare, e non solo dal Sole, sull’oggetto esaminato. Il fatto è che la precessione del perielio di Mercurio viene spiegata solo in parte dalla fisica newtoniana. Uno spostamento di 43 secondi di arco ogni secolo sfugge a ogni tipo di dimostrazione dei fisici newtoniani. Nell’Ottocento molti studiosi cercarono di motivare questa anomalia, arrivando perfino a ipotizzare la presenza di un pianeta sconosciuto, chiamato Vulcano, tra Mercurio e il Sole. Fu Albert Einstein a fornire un’equazione che spiegava il fenomeno con la relatività generale e gli effetti sullo spazio-tempo generati dall’elevata massa del Sole in combinazione con la piccola massa e l’elevata velocità di Mercurio. Negli anni Settanta osservazioni astronomiche, supportate anche dai dati forniti dalla sonda Mariner 10, dimostrarono in maniera inequivocabile l’esattezza dell’equazione di Einstein e costituirono la prima prova sperimentale della teoria della Relatività.
196
Orologi per la scienza
stretta con l’evidente e rivoluzionario risultato di introdurre l’antimateria, scoperta poi sperimentalmente in quegli anni, mentre successivamente si ebbero le scoperte sui nuclei, sull’energia nucleare e sui suoi impieghi civili e militari. A partire dagli anni Sessanta, con il progressivo affermarsi di un modello standard per le interazioni quantistiche, diventava sempre più stringente l’incompatibilità delle due teorie, così che l’interesse per i test fondamentali di relatività ripresero un maggiore interesse. A partire dagli anni Ottanta, cominciò ad affermarsi un nuovo paradigma per i test sulla relatività: invece di concentrarsi sulla verifica di previsioni sempre più sottili, nella comunità scientifica si impose uno sguardo più opportunista, che tentava di estrarre informazioni e test sulla teoria della gravitazione da nuove tecniche, nuove idee e modelli, cercando di ottenerli come risultati collaterali di altri tipi di esperimenti. In effetti, in questo paradigma ricadono anche gli orologi atomici, che cominciarono proprio negli anni Settanta ad avere la giusta accuratezza e stabilità per tentare di dare un contributo alla Relatività Sperimentale. L’attenzione in questi termini si è spostata allora dagli effetti ai principi della relatività, e in particolare su uno dei capisaldi: il principio di equivalenza.2
Principio di equivalenza e invarianza di posizione locale Il principio di equivalenza ha avuto un ruolo preminente nello sviluppo della teoria della gravitazione, a cominciare da Newton, che lo riteneva un caposaldo della meccanica, per arrivare ad Einstein che ne fece uno dei pilastri della Relatività Generale. Oggi lo consideriamo un postulato, non tanto per la teoria della 2. Una trattazione chiara e molto interessante si trova in C. M.Will, “Einstein’s relativity and everyday life”, American Physical Society, (2000), www.physicscentral.com/writers/ writers-00-2.html.
197
Il tempo è atomico
gravitazione, quanto per l’idea stessa di uno spaziotempo curvo, approccio che è largamente attribuibile a Robert Dicke – negli anni Sessanta – e che condusse al cosiddetto Principio di Equivalenza di Einstein (Einstein equivalence principle, EEP). Un principio di equivalenza elementare è quello newtoniano, noto come Principio di Equivalenza Debole (in seguito PED), per cui la massa di un corpo è proporzionale al suo peso. Una formulazione abbastanza comune è quella che “la traiettoria di un corpo in caduta libera (cioè non soggetto ad altre forze come l’elettromagnetismo) è indipendente dalla struttura interna e dalla composizione del corpo”. Questo vuol dire che due corpi in caduta hanno la stessa accelerazione, concetto anche noto come Universalità della Caduta Libera. Il Principio di Equivalenza di Einstein include il PED, ma ha portata più alta, affermando che: 1. PED è valido. 2. Il risultato di qualsiasi esperimento locale non gravitazionale (per esempio: la forza elettrica tra due corpi carichi) è indipendente dalla velocità del sistema di riferimento in caduta libera in cui è condotto. Questo assunto è detto Invarianza Locale di Lorentz (ILL). 3. Il risultato di qualsiasi esperimento locale non gravitazionale è indipendente da quando e dove si svolge all’interno dell’universo, il che è detto Invarianza Locale di Posizione (ILP). Il principio di Equivalenza è il cuore della teoria della gravitazione e implica che la gravitazione dev’essere un fenomeno di curvatura dello spaziotempo o, altrimenti detto, l’effetto della gravitazione è del tutto equivalente a quello di vivere in uno spaziotempo curvo: praticamente, la vera rivoluzione di Einstein è racchiusa qui.
198
Orologi per la scienza
Inoltre, si dimostra che se EEP è valido, allora nei sistemi in caduta libera le leggi che regolano gli esperimenti sono indipendenti dalla velocità del sistema di riferimento (ILP), e che le diverse costanti atomiche sono effettivamente costanti universali, così da essere indipendenti dalla posizione. Tali leggi sono inoltre compatibili con la Relatività Speciale, come per esempio le leggi di Maxwell dell’elettromagnetismo. Esistono molte teorie che rispettano il Principio di Equivalenza, che pertanto non è un’esclusiva della Relatività Generale; tutte insieme costituiscono la classe delle cosiddette teorie metriche della gravitazione. Ma accanto alle teorie metriche, ne esistono altre che prevedono la variazione delle costanti non gravitazionali, che così, a stretto rigore non sarebbero più chiamate “costanti”. Tra le teorie più famose di questo tipo troviamo quella delle corde o delle stringhe.
Test del Principio Debole Il Principio di Equivalenza Debole si verifica in modo diretto confrontando l’accelerazione nel campo gravitazionale di due corpi di composizione, in altre parole, è il classico esperimento concettuale della palla di cannone e della piuma che cadono per gravità (nel vuoto). Se il principio è violato, allora le accelerazioni della palla di cannone e della piuma sono diverse. Se vogliamo poi confrontare i risultati di questo esperimento con altri di diversa natura conviene mettere le cose in questi termini: distinguiamo una massa inerziale mI e una massa gravitazionale mG per ciascun corpo e vediamo se le due masse sono la stessa cosa, cioè andiamo a verificare l’equazione mI a=mG g, dove a e g sono rispettivamente l’accelerazione inerziale (quella della seconda legge di Newton, F=ma) e quella gravitazionale (indotta cioè dalla forza di attrazione tra corpi). La massa inerziale in genere è la somma di diversi tipi di massa-energia (nel
199
Il tempo è atomico
senso della Relatività Ristretta, ossia della celebre E=mc2): energia di riposo, energia elettromagnetica, energia d’interazione elettrodebole e così via. Se una soltanto di queste contribuisce diversamente a mI e mG , allora PED è violato: mp = mI + ΣA
(1)
ηA EA c2
dove EA è l’energia interna del corpo generata dall’interazione A, ηA è un parametro adimensionale che misura la violazione del principio d’equivalenza, e c la velocità della luce. Considerando la differenza relativa tra l’accelerazione sperimentata dai due corpi, si ottiene un parametro noto come “rapporto di Eötvös” (in onore del barone von Eötvös che condusse per primo questo tipo di test nel XIX secolo con bilance di torsione): (2)
η≡2
⎢a1 ‒ a2⎢ = EA ηA a1 + a2
(
E A1 m1 c
‒ 2
E A2 m2 c2
)
dove si è omesso l’indice I dalla massa inerziale. Così, è η il parametro che universalmente devono misurare questi esperimenti, parametro che sarà nullo nel caso di validità assoluta di PED. A oggi, non si è osservata nessuna nuova fisica al livello di 3×10-14; test migliori saranno basati su esperimenti a bordo di satelliti nello spazio, con l’obiettivo di indagare la regione compresa tra 10-14 e 10-17.
Test per l’Invarianza Locale di Lorentz L’Invarianza Locale di Lorentz è ormai incorporata in quasi tutto l’edificio della fisica moderna, dall’elettromagnetismo alla fisica delle particelle. Di nuovo, i test che ancora conduciamo su questa proprietà sono mirati non tanto a mostrare una fallacia nelle teorie di relatività, ma piuttosto nella ricerca di andare oltre queste teorie e di esplorare nuove frontiere, come quelle
200
Orologi per la scienza
suggerite dalle teorie quantistiche di gravità.3 Infatti, la gravità quantistica afferma che esiste una lunghezza fondamentale nota come Lunghezza o Scala di Planck, LP =(ħG/c3)1/2=1.6×10−33 cm, tuttavia la lunghezza non è un’invariante in relatività (contrazione di Lorentz-Fitzgerald), pertanto ci dovrebbe essere una violazione del principio di equivalenza incorporato in modo fondamentale nella gravità quantistica. Anche negli scenari di grande unificazione (per esempio le cosiddette teorie di corda o di membrana) che postulano l’esistenza di molte altre dimensioni oltre alle quattro dello spaziotempo, l’invarianza di Lorentz può anche essere data nello spazio a molte dimensioni, ma viene poi violata se ci si riduce a osservare le sole quattro dimensioni dello spaziotempo ordinario. In particolare, nei modelli si stringa la presenza di alcuni oggetti fisici aggiuntivi che se si accoppiano alla materia standard inducono violazioni. Tutti questi sforzi teorici hanno motivato una seria riconsiderazione dell’invarianza di Lorentz e degli esperimenti per testarla. Un modo semplice per interpretare gli esperimenti che cercano tale violazione è il formalismo c2, dove si suppone che una violazione dell’invarianza di Lorentz porti a un cambio delle interazioni elettromagnetiche attraverso un cambio nella velocità della luce. Di conseguenza, la variazione dell’interazione elettromagnetica porterà a uno spostamento nei livelli energetici degli atomi e quindi delle frequenze di risonanza a essi associate. Così, gli orologi atomici sono ottimi candidati a vedere queste violazioni, sia nel tempo sia usando atomi diversi a confronto. Perché ciò avvenga l’idea è mettere a confronto tra loro atomi o transizioni in cui uno dei due elementi a confronto sicuramente non sia toccato dalla violazione, oppure in cui i due elementi siano entrambi sensibili alla possibile violazione, ma in maniera diversa. Due esempi classici sono: quello di guardare i livelli 3. Una trattazione estesa della ILL si trova in D. Mattingly, “Modern Tests of Lorentz Invariance”, Living Rev. Relativity, 8, lrr-2005-5, (2005), www.livingreviews.org/lrr-2005-5.
201
Il tempo è atomico
energetici di un atomo che normalmente sarebbero equi spaziati, oppure il confronto tra un atomo complesso come il cesio con i livelli di un atomo molto più semplice, come l’idrogeno. In altre parole, un ottimo test è il confronto di frequenza tra un orologio al cesio e un maser all’idrogeno. L’anisotropia di orologio in questi confronti sarà proporzionale a δ ≡|c-2-1|. Per la fisica moderna, pertanto, δ è nullo. I primi esperimenti di questo tipo furono quelli di HughesDrever, nel 1959-1960, fatti in modo indipendente da Hughes alla Yale University e da Drever alla Glasgow University. Enormi progressi furono possibili dopo l’applicazione del raffreddamento laser, e i migliori limiti sono quelli provenienti dagli esperimenti del NIST, dell’Università di Washington e di Harvard, arrivando a precisioni di 10-22 su δ. Niente nuova fisica, purtroppo. In realtà, il modello c2 considera soltanto l’elettrodinamica classica. Un altro modello fu introdotto alla fine degli anni Novanta da Alan Kostelecky all’Università dell’Indiana, USA, che propose una “Standard Model Extension” (SME),4 in cui il modello standard delle particelle elementari veniva modificato con l’introduzione di numerosi parametri, tutti causa di violazione per l’invarianza di Lorentz, aprendo un filone sperimentale piuttosto ampio e prolifico. Usando gli orologi atomici più diversi, sono stati condotti davvero numerosi test per raffinare la conoscenza sperimentale dei parametri di SME.
Test dell’Invarianza Locale di Posizione Il principio dell’Invarianza Locale di Posizione si può verificare con un esperimento di redshift gravitazionale. Il redshift è un fenomeno per cui la luce emessa da un corpo celeste lontano nello spazio tende a spostarsi verso le frequenze del rosso per 4. Per una documentazione più curata, visitate il sito dello stesso Kostelecky all’indirizzo www.physics.indiana.edu/~kostelec.
202
Orologi per la scienza
effetto di qualcosa che interviene nello spazio-tempo tra il corpo celeste e l’osservatore, cioè noi. Il redshift può essere causato dal rapido allontanamento dell’oggetto osservato, per esempio una galassia, rispetto al punto di osservazione. E il fatto che accomuni tutte le galassie più periferiche ha per esempio consentito di capire che il nostro universo è in forte espansione. Accelerazione e gravità sono strettamente correlate, per cui la comparsa del redshift indica anche che l’oggetto osservato è soggetto a un campo gravitazionale maggiore rispetto a quello a cui è sottoposto l’osservatore. Ecco perché si parla di redshift gravitazionale. Quello del redshift è il primo test sperimentale per la gravitazione proposto da Einstein, che lo considerava cruciale per la Relatività Generale. In realtà, oggi abbiamo dimostrato che questa verifica non è in grado di distinguere tra una qualsiasi teoria che sia parte del gruppo delle teorie metriche della gravità; così il redshift è un test per la validità del Principio, ma non della Relatività Generale. Il tipico esperimento del redshift gravitazionale misura la differenza di frequenza tra due orologi atomici a riposo posti ad altezze diverse in un campo gravitazionale statico. Lo spostamento di frequenza è la conseguenza dell’effetto Doppler tra i due sistemi di riferimento, che si possono considerare in moto uno rispetto all’altro, poiché si trovano in un punto dello spaziotempo con curvature diverse. La struttura dell’orologio non ha alcun ruolo. Il risultato è una differenza (o shift) Dn: (3)
Dn = DU/c2
in cui DU è la differenza del potenziale gravitazionale newtoniano. Se ILP non fosse valida, lo shift si potrebbe scrivere come: (4)
Dn = (b1-b2)DU/c2 = DbDU/c2
203
Il tempo è atomico
in cui il parametro b potrebbe dipendere dal tipo di atomo su cui si basa l’orologio. Allora: (5)
Db = 0 ⇔ Principio di Equivalenza vero ⇔ Teorie metriche (Relatività Generale) valida.
Le prime misure accurate di redshift furono fatte da PoundRebka-Snider nel 1960-1965,5 considerando fotoni gamma emessi da isotopi radioattivi del Ferro 57Fe, mentre venivano trasportati su e giù dalla torre del Jefferson Physical Laboratory della Harvard University. L’accuratezza era dell’1%, raggiunta grazie al cosiddetto effetto Mössbauer che garantiva risonanze estremamente strette di cui riconoscere con facilità gli spostamenti. Sempre durante gli anni Sessanta, si misurarono gli spostamenti delle righe spettrali del Sole e come cambiava il ritmo degli orologi atomici a bordo di aeroplani, missili e satelliti. Con gli orologi, uno dei test standard finora più celebre è stato l’esperimento di Robert Vessot e Martin Levine del giugno 1976, noto anche come Gravity Probe A.6 Un maser all’idrogeno fu lanciato su un razzo fino all’altezza di circa 10.000 km, mentre la sua frequenza era monitorata in continuo verso un orologio analogo ma lasciato a terra. Il razzo, uno Scout, restò in volo per 1 ora e 55 minuti prima di schiantarsi nell’Atlantico. L’esperimento mirava a sfruttare al massimo il vantaggio dato dalla grande stabilità dell’orologio atomico a idrogeno, che così poteva dare un’informazione accurata della 5. Potete leggere degli esperimenti di Pound e Rebcka sui resoconti della Società Americana di Fisica, http://physics.aps.org/story/v16/st1, o sul’articolo originale Pound, R.V., Snider J. L. “Effect of Gravity on Nuclear Resonance”, Phys.l Rev. Lett. 13 (18): 539-540 (1964). 6. Il sito della NASA riporta una descrizione dell’esperimento e dei risultati all’indirizzo http://funphysics.jpl.nasa.gov/technical/grp/grav-probea.html. La descrizione e i dati dell’esperimento sono stati pubblicati la prima volta in R.F.C. Vessot et al. “Test of Relativistic Gravitation with a Space-Borne Hydrogen Maser”, Physical Review Letters 45 (26): 2081-2084, (1980).
204
Orologi per la scienza
variazione di frequenza in funzione dell’altezza. A quella quota, la relatività predice che l’orologio in volo deve ticchettare più velocemente, precisamente 4,5 parti in 1010 più veloce di un orologio al suolo. Come si legge su un articolo del 1976 di Joyce B. Milliner: “L’interazione dell’elettrone con il protone nell’idrogeno genera un segnale a microonda (1,42 miliardi di cicli al secondo) stabile come una parte in diecimila miliardi (1x1015)”, cioè l’equivalente di un orologio che perde meno di due secondi ogni 100 milioni di anni. L’effetto Doppler del moto del razzo era tenuto in conto cancellandolo con un sofisticato metodo di acquisizione dati, mentre i dati d’inseguimento servivano a monitorare posizione e velocità del missile nel suo volo balistico, in modo da poter misurare anche le variazioni di potenziale. La stabilità del maser permise di misurare con un’incertezza di 1 parte in 1014 per misure di 100 secondi ciascuna. La misura diede un limite di |Db|