321 85 2MB
Italian Pages 552 [277] Year 2008
MARCO DE PAOLI
LA RELATIVITÀ E LA FALSA COSMOLOGIA Nuova edizione ampliata
Manni
© 2008 Piero Manni s.r.l. Via Umberto I, 51 - San Cesario di Lecce
Sommario
e-mail: [email protected] www.mannieditori.it
11
Premessa PARTE PRIMA: LA TEORIA DELLA RELATIVITÀ Considerazioni epistemologiche
33
I. Per un bilancio critico La relatività e i suoi critici, p. 35 - I postulati relativistici, p. 46
51
II. Velocità della luce e moto della sorgente La discussione sugli esperimenti Michelson-Morley e la relatività, p. 52 La relatività della costanza di c, p. 57
63
III. La contrazione, la massa e la velocità Le strane metamorfosi della massa in contrazione, p. 65 - Le strane metamorfosi della massa crescente, p. 70
81
IV. La velocità e il “tempo rallentato” Rilievi sul paradosso dei gemelli, p. 84 - I ritmi e le frequenze, p. 90
97
V. Le colonne d’Ercole della velocità della luce I falsi paradossi della velocità superluminale, p. 99 - Il superamento del limite fittizio, p. 106
117
VI. La relatività degli antichi e la relatività dei moderni Rappresentazioni poliparametriche e monoparametriche, p. 118 - L’equivalenza inverosimile dei sistemi di riferimento, p. 125
135
VII. Analisi della simultaneità I misteri del treno relativistico, p. 135 - Lampi e tuoni, p. 143
In copertina: Collisione fra le galassie NGC 2207 e NGC 2163 Progetto grafico di Vittorio Contaldo
4
149
VIII. Inerzia-gravitazione: l’equivalenza ambigua Strani ascensori e dischi rotanti secondo Mach, p. 152 - La falsa coincidentia oppositorum, p. 161
5
165
IX. La “curvatura dello spazio”, la gravitazione e le altre forze Gravitazione classica e gravitazione relativistica, p. 165 - Rilievi critici sulla gravitazione e lo spazio curvo, p. 172 - L’impasse di Einstein, p. 180 - Equazioni del campo e reificazione dello spazio, p. 187 - Verso una unificazione elettromagnetica delle forze, p. 194
209
245
361
375
405
429 XIII. Gli invarianti e la conchiglia vuota
489
Tema: le domande di Olbers, p. 273 - L’universo infinito come soluzione al paradosso, p. 275 - La dispersione della luce e il cielo buio, p. 279
Red shift e modelli di universo, p. 290
295
III. Lo spostamento verso il rosso diversamente interpretato Red shift, chimica della sorgente e campi magnetici, p. 295 - Red shift e debolezza energetica della sorgente, p. 300 - La luce debole e il red shift gravitazionale della sorgente, p. 306 - La luce incostante e il red shift gravitazionale esterno alla sorgente, p. 312 - Red shift Doppler e principio di Mach, p. 327
6
IX. Quale immagine dell’universo? La metamorfosi dell’ipotesi in dogma, p. 489 - Fenomenologia del dato e interpretazione: una critica humeana, p. 493 - Il dilemma fra creazione o eternità, p. 501
I. Sul paradosso di Olbers
II. Edwin Hubble e l’espansione dell’universo
VIII. Le interazioni galattiche e l’espansione impossibile La formazione degli elementi senza Big Bang, p. 429 - Condensazioni, agglomerati e scontri in un universo non espanso, p. 436 - L’invenzione dell’inflazione, le velocità fluttuanti e gli universi a tavolino, p. 451 - L’invenzione della Dark Matter, l’Antimatter e la pesca miracolosa delle particelle, p. 464
Relatività e relativismo, p. 259 - La relatività e la determinazione dell’oggettività convergente, p. 263
273
VII. La radiazione di fondo diversamente interpretata Le previsioni prevedibili e la sincronizzazione dei valori, p. 407 - L’equilibrio termodinamico dell’universo, p. 413 - Equilibrio termodinamico e assorbimento luminoso, p. 419
XII. Riflessioni sul tempo
PARTE SECONDA: CONTRO LA FALSA COSMOLOGIA Per una critica alla legge di Hubble e alla teoria del Big Bang
VI. L’ineffabile singolarità e la sua strana esplosione La cosmologia dinamista, p. 375 - La contrazione illimitata della massa, p. 381 - Il matematismo e il fantasma del collasso gravitazionale, p. 388 - L’Esplosione, e più non dimandare, p. 394
La riduzione del tempo al movimento, p. 245 - La riduzione del tempo allo spazio e i viaggi nel tempo, p. 249 - La riduzione del tempo al divenire, p. 256
259
V. L’anomalia dei Quasar La strategia del diniego e l’occultamento dei quasar, p. 363 - Le censure scientifiche e la ricerca di alternative, p. 369
XI. La gravitazione e il “rallentamento del tempo” I ritmi, le frequenze e il tempo, p. 234 - La relatività e il tempo biologico, p. 240
IV. Le galassie in eccesso di velocità e gli effetti relativistici Moti propri e moti impropri, p. 344 - Lo spazio reificato e il cortocircuito fra velocità e distanza, p. 351 - Gli effetti relativistici e l’incostante H, p. 355
X. La deflessione e il perielio diversamente interpretati La deflessione della luce secondo Einstein e secondo Newton, p. 209 L’interpretazione relativistica del perielio di Mercurio, p. 217 - Un’ipotesi alternativa: moto del Sole e perielio, p. 222
231
343
513
Appendice: Fra creazione ed eternità I princìpi di conservazione: analisi storico-critica e posizione del problema I princìpi di conservazione nell’antichità e la loro radice esistenziale, p. 515 - I princìpi di conservazione nella fisica classica, p. 519 - I princìpi di conservazione nella fisica delle particelle, p. 530 - La crisi dei princìpi di conservazione, p. 541
7
Le idee che si azzardano sono come pezzi che si muovono sulla scacchiera: possono essere perduti, ma hanno iniziato una partita che sarà vinta. W. Goethe, Massime e riflessioni
8
9
Premessa Quand nous citons les autheurs nous citons leurs demonstrations, pas leurs noms. (B. Pascal, Lettre à Noël, 29 Ottobre 1647) Una nuova verità scientifica non trionfa perché i suoi oppositori si convincono e vedono la luce, quanto piuttosto perché alla fine muoiono, e nasce una nuova generazione a cui i nuovi concetti diventano familiari. (M. Planck, Autobiografia) Larvatae nunc scientiae sunt: quae, larvis sublatis, pulcherrimae apparerent. (Cartesio, Cogitationes privatae)
Fa riflettere la frase di Martin Heidegger: «die Wissenschaft denkt nicht», «la scienza non pensa». Non si intende qui reiterare un anacronistico e obsoleto ripudio della conoscenza scientifica, volto a demonizzarla e a farne la sentina di tutti i mali, né pensiamo che a questo sia riducibile la riflessione heideggeriana sulla metafisica, sulla scienza e sulla tecnica quale progressivo oblio dell’essere in favore di una strategia di manipolazione teorico-pratica dell’ente ai fini del dominio del mondo. Né tantomeno, ricordando l’aforisma di Heidegger – poiché è un aforisma –, intendiamo dubitare dell’intelligenza di grandi uomini di scienza come Einstein o Bohr. Certo noi rifiutiamo di assolutizzare la scienza vedendo in essa il culmine e il vertice della conoscenza e dell’esperienza umana, secondo le vecchie – e queste sì, anacronistiche – procedure scientiste o positivistiche, e facciamo nostra la classica distinzione fra filosofia prima e filosofia seconda, o fra sa10
11
pientia e scientia: però amiamo il pensiero scientifico e nella autentica, grande scientia vediamo una effettiva e reale conoscenza del mondo per quanto parziale e comunque per propria natura non tale da elevarsi alla sapientia. Senonché, proprio qui subentra l’aforisma di Heidegger sulla scienza che – tutta presa dall’ente e dimentica dell’essere – non pensa: sempre più infatti la scienza si allontana da una residua finalità conoscitiva e sempre più sembra risolversi in una ratio puramente operazionistica, calcolante e funzionale, pragmatica e strumentale, meramente convenzionalistica e ipotetica. Tutta volta alla misurazione e alla quantificazione, la scienza veramente non sembra più voler conoscere almeno parzialmente il mondo: per essa è importante che i calcoli si applichino e funzionino in qualche modo, anche a costo di farli funzionare a forza, e resta sospeso il giudizio sull’effettivo valore di verità delle teorie proposte. Nell’epoca del sapere scientifico altamente specializzato il ricercatore è trincerato fin dagli studi universitari nel proprio ambito disciplinare e per lo più è privo financo dell’energia per interessarsi ad altri rami del sapere: egli opera spesso in tutta fretta ed in spietata concorrenza con gli altri gruppi di ricerca; semplicemente non ha il tempo per riflettere, e dice spesso expressis verbis e con orgoglio che egli si rifiuta di leggere qualunque testo il cui contenuto fuoriesca dal proprio ambito specialistico. La scienza dunque «non pensa» perché troppo spesso lo scienziato non vede e non è nelle condizioni di poter vedere le implicazioni profonde del suo stesso procedere, ciò che il suo procedere chiama in causa e che continuamente travalica il campo strettamente scientifico. Per questo il maestro di Heidegger, Edmund Husserl, proprio nel momento del massimo trionfo apparente delle scienze, nel momento in cui relatività e meccanica quantistica sembravano mietere allori, poteva parlare di una Krisis der europäischen Wissenschaften, di una crisi delle scienze europee: essa, diceva Husserl, si manifesta principalmente laddove una fitta rete e una complessa trama costituita da un simbolismo logico-formale puramente astratto ricopre come un tessuto accuratamente ricamato di segni criptati il mondo dell’esperienza e la stessa immagine della natura e del reale, occultandola e celandola. E poiché Husserl era un matematico allievo di Weierstrass, nessuno 12
vorrà confonderne la posizione con il lamento di chi non riesce a star dietro alle astruserie scientifiche. Agli albori del XX secolo gli epistemologi del Wiener Kreis, del Circolo di Vienna, costituenti il cosiddetto neopositivismo o empirismo logico, hanno esposto un rigido criterio di demarcazione attraverso cui discriminare fra ciò che è dotato di senso e quindi scientifico e ciò che invece è privo di senso e quindi non scientifico: una proposizione, se intende avere un significato scientifico come nel caso di un’ipotesi (e non essere ad esempio solo l’espressione di uno stato d’animo soggettivo), deve essere sottoposta – essi hanno detto – ad una verifica empirica o logica. Di conseguenza, un enunciato non suscettibile di tale verifica apparve “privo di senso” dal punto di vista scientifico. Ben presto però i neopositivisti compresero che la verifica, intesa come experimentum crucis decisivo e risolutivo in senso baconiano, è spesso impossibile in quanto risulta impossibile tradurre e ridurre una intera teoria scientifica – con i suoi coefficienti astratti o convenzionali – in linguaggio osservativo e descrittivo, anche perché lo stesso dato osservativo o il “fatto” dell’esperienza pur inteso in senso logico come esperimento ideale galileiano, che dovrebbe verificare o smentire una volta per tutte e per sempre una determinata teoria o ipotesi scientifica, si rivela non neutro ma anzi esso stesso costituito all’interno ed in funzione di una determinata teoria, spesso strutturalmente ambiguo e suscettibile di diverse interpretazioni pro o contro la suddetta teoria. In seguito l’epistemologo K. Popper ha rovesciato i termini della questione: scorgendo un atteggiamento dogmatico nello scienziato che cerca in tutti i modi di comprovare e giustificare, egli ha ravvisato un atteggiamento più “liberale” e tollerante nello scienziato che cerca non di comprovare bensì al contrario di falsificare le proprie conjectures, non semplicemente prendendo atto delle smentite che le inficiano ma addirittura cercandone egli stesso a bella posta (verrebbe da dire quasi masochisticamente) tutti i punti deboli e tutte le possibili refutations. In tal modo il criterio di demarcazione, atto a discriminare se una teoria è scientifica o non lo è, si rovesciò da un atteggiamento verificazionista (volto a giustificare una teoria) a un atteggiamento falsificazio13
nista (volto a smentirla): preso atto della difficoltà di comprovare definitivamente una teoria, e considerato che la sua mancata verifica non equivale ad una smentita, si dirà allora che una teoria è scientifica quando è possibile indicarne qualche falsificatore potenziale e che è una buona teoria quando passa indenne tutti i tentativi di dimostrarla falsa, mentre invece essa è non scientifica non quando di fatto è smentita bensì quando si rivela per principio non suscettibile di smentita. In questo modo, come si vede, pur nel rovesciamento popperiano permase un criterio di demarcazione, atto a discriminare se e quanto una teoria sia scientifica: una teoria metafisica non sarà priva di senso (sinloss), ma non sarà scientifica. I. Lakatos ironizzò su questa rigida demarcazione volta a separare – come diceva – gli eletti e i reprobi, i buoni e i cattivi, i libri giusti e quelli da bruciare. In effetti le posizioni neopositivistiche e similari risultano unilaterali e riduzioniste, perché conducono ad eliminare (e non solo dal punto di vista scientifico) come priva di senso o almeno come inutile ridondanza – in quanto non passibile né di verifica né di smentita – tutta la metafisica e la stessa filosofia, riducendola a epistemologia, filosofia della scienza, metodologia e infine a discorso ancillare sulla scienza: la riduzione della significazione a verificazione (o a falsificazione) è fallace in quanto, evidentemente, un enunciato può avere senso del tutto a prescindere dal fatto che sia verificato (o falsificato) e perfino del tutto a prescindere dal fatto che sia vero o falso (infatti già per verificarlo o falsificarlo occorre prima comprenderne il senso). In realtà lo stesso neopositivismo non seguiva queste sue rigide procedure, e finiva per avallare direttamente teorie scientifiche (come la relatività e la meccanica quantistica) le cui fondamenta epistemiche venivano invece molto discusse in campo scientifico, ma comunque si comprende che almeno in linea di principio si cercasse di delimitare in qualche modo ciò che possa dirsi un discorso scientifico, distinguendo e definendo scientifica una teoria se supportata, se comprovata, se compatibile con l’osservazione, se non contraddetta dall’esperienza comunque intesa. Qui non è tanto questione di buoni o di cattivi, di libri da venerare o da bruciare, perché un libro non scientifico di metafisica pura può essere molto più pro14
fondo e denso di pensiero del miglior libro scientifico. Si tratta però di capire cosa possa dirsi scientifico e, dal punto di vista scientifico, le posizioni neopositivistiche, pur riduttive e unilaterali, hanno avuto l’indubbio merito di dire che la specificità del discorso scientifico consiste nel fatto che una teoria scientifica, alla fin fine, si legittima in quanto trova un qualche aggancio (pur a definirsi) con la realtà e l’esperienza in cui essa sia verificata o falsificata. È vero che lo scienziato ideale dei neopositivisti e di Popper in realtà non sussiste da nessuna parte: se uno scienziato dovesse abbandonare una teoria solo perché non immediatamente comprovata oppure alla prima anomalia o “falsificazione” riscontrata all’esperienza, allora tutte le teorie morirebbero in fasce in quanto – come ha detto Lakatos – quasi tutte sono “cariche di anomalie” (anomaly laden) e tutte si sono affermate per lungo tempo in un “oceano di contraddizioni” (si pensi al nascente calcolo infinitesimale), senza “prove” e con molti punti deboli e “falsificati”, soltanto in seguito rivelando la loro plausibilità. Noi sappiamo (lo sappiamo da Duhem ancor prima che da Popper) che la verifica decisiva ed esente da dubbi è difficile o impossibile da trovare e parimenti sappiamo che non ci si deve fermare alla prima anomalia falsificante. Comprendiamo quindi che, poiché non si trova la teoria perfetta e ben comprovata che dissolve tutte le oscurità e anomalie, allora è lecito cercare di difendere una teoria entro certi limiti. Parimenti vediamo quanto sia contraddittoria la teoria di Popper, visto che essa conduce alla paradossale tesi per cui una qualsiasi affermazione falsa e smentibile (“io sono nato nel 2341”) rischia di passare per scientifica solo in quanto sia dimostrata falsificabile. Ma, quali che siano i difetti cui nessuna metodologia epistemologica sfugge, è indubbio che, sia pur in modo duttile e flessibile, rimane imprescindibile per la scienza l’esigenza di cercare se una teoria sia in qualche modo e almeno parzialmente suffragata e corroborata e/o se non sia troppe volte smentita e falsificata almeno nei suoi punti nodali. Pur respingendo il falsificazionismo ingenuo e pur non ritenendo che la scienza sia fatta soltanto di conjectures edificate su palafitte, un elemento ci appare valido nella metodologia popperiana: l’invito a non salvare a tutti i costi teorie insostenibili, l’invito a 15
smascherare e individuare gli errori presenti nelle teorie più accreditate e accettate, l’invito a distruggere spietatamente i dogmi e le false certezze scientifiche. In questo modo, per esempio, Popper ha potuto smascherare la falsa pretesa del marxismo e della psicoanalisi di presentarsi come scienza; ha dichiarato concettualmente insoddisfacente la formulazione della meccanica quantistica data dalla scuola di Copenaghen; ha detto non scientifica la cosmologia del Big Bang; e, certo senza alcuna concessione al fondamentalismo americano, ha financo ritenuto non scientifico l’evoluzionismo darwiniano in quanto non comprovato e non falsificabile. Senonché, proprio questa consapevolezza metodica è in seguito venuta progressivamente meno sia nell’epistemologia che nella scienza. Così Lakatos, rivalutando come già Popper il ruolo parzialmente positivo della metafisica nel promuovere determinati “programmi di ricerca” scientifici (nell’inespressa convinzione che evidentemente la sola metafisica di qualche valore sia quella che possa servire alla scienza), ha non solo proclamato infalsificabile per definizione il “nucleo metafisico” delle teorie scientifiche ma ha anche aggiunto che lo scienziato ha pieno diritto di provvedere a che attorno a tale cuore metafisico infalsificabile sia opportunamente predisposta una sorta di cintura di castità, ovvero una “cintura protettiva” che, continuamente riadattata e ristrutturata, consente di preservare e proteggere, di salvare e mantenere artificiosamente in vita non tanto il “nucleo metafisico” della teoria – che non abbisogna di protezione alcuna in quanto non falsificabile per “decreto metodologico” – quanto piuttosto, di contro alle anomalie insorgenti, le stesse teorie scientifiche che ne promanano. I punti strategici costituenti tale “cintura protettiva” possono in realtà risultare alquanto simili ad argumenta ad hoc, cioè a quegli argomenti (spesso molto complicati e inverosimili, e alquanto sospetti soprattutto quando si moltiplicano e proliferano) appositamente costruiti non per comprendere la realtà ma unicamente allo scopo di difendere e salvare con opportuni accorgimenti una teoria che traballa nel suo vano tentativo di comprendere la realtà: senonché, il fatto che tali argomenti possano svolgere per un periodo anche lungo un ruolo positivo nella scienza (come ad esempio gli inverosimili epicicli 16
che consentivano calcoli delle orbite discretamente approssimati) non toglie che essi, soprattutto se sovrabbondanti, siano comunque l’indizio di un deficit originario della teoria o, perfino, della sua erroneità (come, nell’esempio di cui sopra, l’erroneità del postulato geocentrico). Ne abbiamo così, nell’epistemologia del XX secolo, una situazione paradossale e inaccettabile: lo scienziato, difeso e spalleggiato dall’epistemologo, rinuncia all’abito critico e difende ad oltranza e in modo dogmatico le proprie teorie in tutti i modi possibili, moltiplicando gli argumenta ad hoc e ormai insensibile a tutte le contraddizioni e falsificazioni. In questo modo la filosofia della scienza non rende un buon servizio alla scienza, perché si risolve in un invito allo scienziato a lasciar andare a briglia sciolta la propria immaginazione. Vi sarà infatti a questo punto, dice Lakatos, una libera e democratica competizione fra “programmi di ricerca” rivali in cui vincerà il migliore, ovvero il programma capace di essere più predittivo, meno falsificato, più verificato, meno bisognoso di cattive ipotesi ad hoc: senonché non si capisce bene se, in quella che fatalmente si configurerà come una gara fra gruppi di potere, il programma migliore sia quello euristicamente più fecondo e innovativo, ovvero il programma “progressivo” che supera quello “regressivo” o, più prosaicamente, quello imposto come progressivo dall’élite dominante che, disponendo dei maggiori mezzi di finanziamento e dei maggiori agganci politico-istituzionali, farà terra bruciata ai programmi alternativi qualificati come regressivi difendendo ad oltranza il proprio programma occultandone e censurandone ogni possibile smentita. Al riguardo P. Feyerabend ha poi finito col dire che nella scienza “tutto va bene” (anything goes, letteralmente “qualunque cosa va”) in quanto lo scienziato in realtà non segue nessun metodo (né baconiano né cartesiano né galileiano né quale che sia), bensì segue il proprio intuito, la propria immaginazione, il proprio estro o perfino il proprio pregiudizio, spesso falsando o torcendo i dati pur di seguire la propria via, e talora propagandando come un retore o un imbonitore (come avrebbe fatto anche Galileo) la propria merce. E Feyerabend ha in gran parte ragione: la scienza procede contro il metodo, lo víola sistematicamente e spregiudicatamente, e almeno entro certi limiti è comprensibile che 17
faccia così. Ma Feyerabend dimentica che comunque, presto o tardi, i nodi teoretici irrisolti – per quanto a lungo occultati – vengono al pettine della spietata scepsi che infine chiede conto della permanenza di certi ibridi arlecchineschi, autentici patchwork che non sembrano conservare più nessuna traccia di una teoria scientifica. Allora si vede che il dadaismo e l’anarchismo cui si richiama Feyerabend non bastano più. Ci sembra infatti errato guardare con troppa condiscendenza, come da troppo tempo avviene, certe vecchie e magari un po’ ingenue regole metodologiche: in particolare ci sembra errato difendere ad oltranza una teoria quando le anomalie e le falsificazioni si moltiplicano a dismisura. Tutti ricordiamo l’immagine di O. Neurath della scienza paragonata ad una nave che deve forzatamente essere riparata non in un porto sicuro bensì in mare aperto durante la navigazione, e tuttavia questa immagine non ci convince del tutto. Certo se la nave si guasta in mare aperto allora vista l’emergenza bisognerà cercare di aggiustarla sul momento alla bell’e meglio ma poi, una volta arrivati in un porto (ovvero pensando con un po’ di calma alle questioni), sarà bene procedere ad una riparazione più accurata: così se la mia auto si ferma per strada potrò anche gentilmente chiedere ai passanti di spingerla per farla partire, però poi sarà meglio portarla dal meccanico. Con questo si intende dire, fuor di metafora, che la scienza non può accontentarsi sempre e soltanto di riparazioni provvisorie, di aggiustamenti, di ritocchi rabberciati, ovvero di aggiustamenti ad hoc. Tanto più che di fatto oggi, cosa che certo Neurath non avrebbe approvato, l’insensibilità metodologica e l’indifferenza alle verifiche o alle smentite dell’esperienza ha condotto infine al prevalere di un arbitrio teorico pressoché totale. Ormai i fisici e gli astrofisici continuano a ripetere che la loro scienza è in realtà un’arte e che le loro più fantastiche teorie saranno sicuramente confermate… domani, cosicché a chi chiede uno straccio di elemento per crederle si risponde di ripassare domani proprio come risponde il droghiere quando gli manchi il prosciutto. Sempre più così la scienza, spalleggiata da una filosofia della scienza in posizione di sudditanza ancillare, appare risolversi in una fantasmagoria di modelli e di teorie altamente formalizzate e puramente ipotetiche, sempre più derealizzanti rispetto all’esperienza. Troppo 18
spesso oggi la scienza appare fondata su teorie pseudoscientifiche o addirittura fantascientifiche, mille volte confutate ma ogni volta mantenute in piedi attraverso rattoppi e rabberci al limite dell’imbroglio e della truffa intellettuale volutamente ignorando le anomalie, le falle logiche, le contraddizioni e financo censurando i pochi ricercatori non allineati a cui vengono bloccate le pubblicazioni, i finanziamenti, le carriere scientifiche. Ormai teorie esoteriche espresse in cifrato linguaggio matematico, spesso al limite dell’assurdo e clamorosamente confutate su punti essenziali, ma immancabilmente connesse alla richiesta di cascate di finanziamenti per le più improbabili “verifiche sperimentali”, vengono avallate da una ristretta casta di iniziati e mandarini detentori del “sapere scientifico” e presentate ai non addetti ai lavori e ai profani creduli e adoranti come verità di fede circondate da un’aureola di sacralità, di mistero e di superiore intelligenza, attraverso un’accorta opera di indottrinamento chiamata “divulgazione scientifica” o “filosofia della scienza”. L’opinione pubblica, per non dire la società tutta, imbonita e soggiogata, e come istupidita in uno stato ipnotico e catatonico, priva di mezzi per discutere e obiettare o anche solo per capire, benché molte volte basterebbe il semplice buon senso e un minimo spirito critico per sceverare il grano dal loglio, avidamente beve tutto ciò che le viene propinato e tanto più vi crede quanto più è paradossale e meno lo capisce: universi paralleli, viaggi nel tempo, particelle materiali prive di massa, materia oscura, antigalassie e anticosmi, big bang misteriosi con l’universo ridotto ad un puntino, galassie che viaggiano alla velocità della luce, spazi curvi in 11 dimensioni, e chi più ne ha più ne metta. Così le teorie si susseguono di settimana in settimana, tutte puramente speculative e arbitrarie, totalmente gratuite e assolutamente inverificabili o impossibili da falsificare stante il gioioso proliferare delle decantate strategie ad hoc. Ormai si spacciano per teorie scientifiche le più incredibili, le più inverosimili, le più assurde fantasie che trasformano la scienza in fantascienza e – talora – in una specie di gara a chi la spara più grossa. Questo è il caso, in cosmologia, della cosiddetta teoria del Big Bang. Ampiamente diffusa anche dai mass-media, in pratica accetta19
ta dalla Chiesa cattolica che vede in essa una trascrizione laica della creazione, luogo comune per chiunque si avvicini all’astronomia, è diventato ormai difficile ricordare – senza essere zittiti o ignorati o accusati di lesa maestà – le anomalie, i punti deboli, le contraddizioni, le cose inspiegate che questa teoria sempre più evidenzia nel mentre sempre più cerca di puntellarsi con ipotesi ad hoc. Ma la critica riguarda anche e forse ancor più il correlato logico e per così dire il pendant della teoria del Big Bang: vale a dire la teoria dell’espansione dell’universo, quale pretesa conseguenza della pretesa esplosione inaugurale. È incredibile come l’inverosimile espansione dell’universo, in realtà assai mal supportata da dati unilateralmente e malamente interpretati, sia condivisa pressoché all’unanimità all’interno della comunità scientifica. Del resto, si sa: sono poche le voci critiche nei confronti delle teorie scientifiche dominanti. È anzi diventato addirittura difficile presentare una posizione critica verso una teoria scientifica dominante, soprattutto quando tale teoria – pur inizialmente presentata come ipotesi – di fatto si sia ormai involuta in una opinio communis e in un dogma comunemente accettato e indiscutibile. Perché veramente sembra che all’interno della scienza non si sappia ormai vedere nemmeno le più stridenti contraddizioni logiche. Si apra d’altra parte un qualsiasi manuale di scienza ad uso liceale: vi si vedrà la teoria del Big Bang e la teoria dell’espansione dell’universo presentate non come teorie, oltretutto quanto mai incerte e problematiche, bensì sic et simpliciter quali dati di fatto e verità oggettive da studiare e mandare a memoria. Viene allora da sorridere pensando al vecchio Kant, che giustamente nella Critica della ragion pura diceva impossibile in linea di principio dimostrare per via razionale che l’universo abbia avuto un inizio nel tempo, così come peraltro diceva impossibile dimostrarne l’eternità, in quanto in entrambi i casi trattasi di pensieri antinomici o comunque non cogenti della ragione quando pretende di fuoriuscire dall’ambito dell’esperienza. Viceversa invece, quanta sicumera nel dare praticamente per certo che l’universo abbia avuto un inizio – e che inizio! davvero “esplosivo”! – nel tempo o addirittura con il tempo. Da qui, da questo originario lavoro di critica alle gracili fonda20
menta epistemiche della cosmologia moderna, è stato naturale e del tutto consequenziale riandare ad Einstein e alla teoria della relatività che ha in non piccola misura posto le premesse stesse e il punto di partenza della cosmologia moderna, perlomeno da quando la cosmologia einsteiniana è andata saldandosi alle precedenti cosmologie evolutive e dinamiste. Sono così apparse certe equivocità concettuali nella teoria della relatività (ristretta e generale) che di fatto hanno consentito certe inverosimili filiazioni cosmologiche. Dunque non possiamo minimamente condividere l’affermazione di Tullio Regge quando scrive testualmente che «la possibilità che un dubbio sulla teoria della relatività possa essere accolto è la stessa che avrebbe un dubbio sul sistema copernicano». Viceversa i dubbi sussistono e questa perentoria affermazione (come l’altra assai simile del celebre cosmologo per il quale «che la teoria del Big Bang sia vera è più certo del Sole») è soltanto un indice paradigmatico del clima di dogmatismo plumbeo che ormai permea la scienza contemporanea. Eppure, una precisazione va posta: come il lettore vedrà, mentre la critica alla teoria del Big Bang e dell’espansione dell’universo appare radicale e integrale, invece la critica epistemologica alla relatività, per quanto essa pure radicale su taluni punti decisivi, è comunque più volta a sceverare il grano dal loglio, a precisarne il senso più autentico e profondo al di là delle volgarizzazioni e dei fraintendimenti. Certo, una questione qui si pone. Infatti io non sono un astrofisico né uno scienziato di professione: la mia formazione è filosofica, e indubbiamente questo mio può apparire anzitutto come un lavoro di epistemologia o di filosofia della scienza. Donde un problema che si compendia nella solita e vecchia domanda: tu chi sei? Ovvero: quale qualifica, quali credenziali, quali carte in tavola hai per prendere la parola e parlare di queste cose? Chi sei tu, per osare contestare la cosmologia e la scienza del XX secolo nei suoi massimi e celebrati esponenti? Incredibile dictu, queste sono praticamente le sole e uniche “obiezioni” che io mi sono sentito rivolgere da quasi tutte le persone – pur non prive di cultura scientifica e in taluni casi anche “quotate” – con cui ho avuto modo di discutere (si fa per dire) le mie tesi. Vale a 21
dire: dopo molti anni di studi e di riflessioni si propone una certa lettura di un dato scientifico, si propone una rivisitazione critica, un’ipotesi alternativa, o anche semplicemente si formula una domanda o un dubbio, ma anziché sentirmi dire dove e perché sbaglio la risposta è sempre quella – ma come ti permetti? Un’altra obiezione classica, che non coglie minimamente il piano di discorso su cui mi muovo, è il ricatto dello specialista che suona così: ma tu sai svolgere un esercizio di calcolo tensoriale? Se no, statti zitto: sutor, ne ultra crepidam, calzolaio, non andare oltre la tua scarpa (filosofo, non andare oltre la filosofia). Anche se per il mio discorso non serve molto, bisognerà pur che mi decida a trovare un po’ di tempo e imparare a svolgere qualche esercizietto di calcolo tensoriale (se ci riesce un qualsiasi studente normodotato ai primi anni del corso di matematica, a cui ho insegnato filosofia fino a poco prima, allora con un po’ di buona volontà dovrei riuscirci anch’io): sennò mi toccherà tacere per sempre. Senonché, tutto questo non stupisce. Lo scarso livello di quelle “critiche” non è dovuto semplicemente allo scarso acume e all’arroganza di chi le muove. C’è qualcosa di più. In effetti M. Foucault aveva ben mostrato che in ogni società (ma particolarmente nella società moderna che è oggetto della sua disamina) vige un vincolante ordre du discours che è anzitutto un discorso di potere: «dans toute société la production du discours est à la fois contrôlée, sélectionnée, organisée et redistribuée par un certain nombre de procédures [...]. Dans une société comme la nôtre, on connaît, bien sûr, les procédures d’exclusion. La plus évidente, la plus familière aussi, c’est l’interdit. On sait bien qu’on n’a pas le droit de tout dire, qu’on ne peut pas parler de tout dans n’importe quelle circostance, que n’importe qui, enfin, ne peut pas parler de n’importe quoi. Tabou de l’object, rituel de la circostance, droit privilégié ou exclusif du sujet qui parle: on a là le jeu de trois types d’interdits qui se croisent [...]»1. Vi sono dunque – ovunque disseminate ancor prima che consapevolmente esercitate da 1 M. Foucault, L’ordre du discours (Leçon inaugurale au Collège de France prononcée le 2 décembre 1970), Paris 1971, Gallimard, pp. 10-11.
22
qualche malvagia cricca al potere – «procédures de contrôle et de délimitation du discours», «procédures qui permettent le contrôle des discours», «procédures d’assujettissement du discours»2, regole inconsce e sotterranee non dette che stabiliscono quali sono le pratiche discorsive ammesse: Foucault considera al riguardo, dopo l’interdetto, l’opposizione fra ragione e follia, fra vero e falso, e poi via via il commentario, l’autore, la disciplina, il rituale, le società dei discorsi, la dottrina. Da qui, fra l’altro, l’abitudine delle citazioni in esubero: una cosa non ha alcun valore se la dice Tizio che non è nessuno, ma potrebbe anche acquistare valore se Tizio nel dirla e stando al suo posto cita a supporto una auctoritas qualificata e legittimamente riconosciuta, nella forma (per rifarci a Foucault) di un “commentario” inserito all’interno di una certa “disciplina” secondo un dato “rituale” e una data “dottrina” al fine di evitare il discorso “falso” e “folle”. Per parte nostra non ce ne scandalizziamo più di tanto e noi avremmo ben voluto citare tutte le auctoritates possibili e immaginabili per supportare e rendere forte il nostro discorso, anziché scardinare quello altrui legalmente riconosciuto, ma il fatto è che purtroppo siamo un pochino degli orfanelli soli perché normalmente le auctoritates si muovono per l’appunto proprio all’interno di quella dottrina, di quella disciplina, di quel rituale in cui noi invece operiamo trasversalmente in modo piuttosto nomade e anarchico. Alla fin fine si direbbe che sia soltanto una questione di rango, come nel mondo animale: chi – fra le galline o le taccole – ha il “diritto di beccata”, il diritto cioè di beccare per prima le parti migliori del cibo o di beccare gli inferiori? Quella che si conquista un rango: ella ha il diritto di beccare, mentre le altre devono prendersi le beccate. Ma c’è, nella società umana, una differenza rispetto a quella animale: mentre in quest’ultima il rango viene stabilito dalla forza, dal coraggio, dalla risolutezza, dalla combattività, invece in quel particolare tipo di società animale che è la società umana (e an-
2
Ivi p. 23, 38, 46.
23
cor più in quella particolarissima società che è quella italiana) tutto è rovesciato e il rango è spesso costituito non tanto dal valore quanto piuttosto dalla capacità di tessere relazioni, dalla capacità di inserirsi in un contesto come una scuola o un’accademia spesso per via di nepotismo, dalla capacità di tenere a freno l’orgoglio, in tal modo conquistandosi con il rango il “diritto di beccata”. E, come nelle società animali, l’intruso che invade un territorio altrui non è amato. Così volente o nolente mi sento un ba´ rbaroj, “colui che parla una strana lingua”; mi sento come Ovidio che in lontano esilio diceva: «in questo paese sono un barbaro, perché nessuno capisce il mio linguaggio»; mi sento un po’ come lo Straniero di Elea nel Sofista di Platone, che produce sospetto perché destinato proprio per la sua estraneità ai codici e ai consessi a commettere una sorta di parricidio nei confronti delle auctoritates. Se dunque vediamo – come si dice in francese – «qui de droit», ovvero chi ha il diritto di parlare (insomma chi ha il diritto di beccata), allora certo noi non dovremmo, non potremmo parlare: e invece, convinti di aver qualcosa da dire, facciamo un bel baffo – non il greve e teutonico baffo alla Nietzsche bensì piuttosto un baffo daliniano o alla Duchamp – alle procedure di esclusione e, armati di un solido Blechtrompel, di un solido tamburo di latta come in quel noto film che Schlöndorff trasse dal romanzo di Günter Grass, diamo qualche beccatina e parliamo egualmente generando un libero discorso che si sottrae alle partizioni disciplinari e dicendo, come il bambino della fiaba, che il Re che avanza pieno di sussiego è nudo. Peraltro questo libro ha un altro difetto, grave e imperdonabile nella nostra cultura accademica: esso non è scritto in un linguaggio ostico e incomprensibile ma – diciamolo pure senza tanti giri di parole – è scritto abbastanza bene. Di conseguenza coloro che non capiscono la difficoltà dello stile, coloro che non capiscono che in realtà la cosa più improba e difficile non è lo “scrivere difficile” (poiché “scrivere difficile” è la cosa più facile del mondo) bensì è invece il cercare, nei limiti consentiti dalla difficoltà dell’argomento, un linguaggio se non semplice almeno chiaro, costoro – poiché l’autore (forse a torto) ha cercato di sbrogliare la matassa per loro rendendola più comprensibile – non percepiranno le no24
tevoli difficoltà semantiche che possono celarsi sotto uno stile non involuto quando l’argomento sia tutt’altro che semplice, non capiranno quanto una frase apparentemente semplice e scorrevole sia in realtà il frutto di un lento e faticoso costrutto più volte cercato e ricercato, e avranno l’erronea impressione di andare in una facile discesa quando invece si tratta di una salita. Donde la facile accusa di superficialità rivolta a chi nell’espressione cerca la chiarezza, mentre invece la superficialità è in questo caso solo in chi legge: «la maggior parte delle persone, per le parole che non riesce a comprendere, prova un sacro rispetto – scriveva Einstein –, e taccia invece di superficialità chi ha il torto di parlar chiaro» (Lettera a M. Solovine del 25 novembre 1948). Potrei così rispondere alle critiche con la semplice ammissione di Husserl: sì, lo ammetto, sono solo ein wirklicher Anfanger, «un vero e proprio principiante» o meglio un amateur. E, a proposito di amateurs, converrà ricordare quanto scritto da H. Arp, un grande eretico della cosmologia contemporanea: «mi sembra che la moltitudine crescente dei non professionisti e degli appassionati [...] sia al momento ciò che maggiormente può alimentare la speranza di condurci a una revisione nella cosmologia e nella scienza»3. Certo, anche qui si tratterà di sceverare il grano dal loglio, ovvero di distinguere fra la «moltitudine crescente dei non professionisti» quelli che – forzatamente assai pochi – hanno veramente qualcosa da dire. Se io appartenga ai secondi o ai primi, non spetta a me dire ma certamente a chi ci dice: nec ultra, a chi ci dice (come nel poema Plein ciel di Victor Hugo) pas si loin, pas si haut!, noi semplicemente facciamo spallucce e diciamo: no, piuttosto invece plus ultra, plus loin, plus haut. Dunque, si osa: si potrebbe dire del resto che se la scienza ha rinunciato a pensare, allora qualcuno dovrà pur cercare di farlo. E magari servirà per questo un poco di filosofia per cercare di pensare
3 H. Arp, Cosmologia: una ricerca per il passato e per il futuro, in AA.VV., Origini, Padova 1994, Il Poligrafo.
25
in profondità oltre gli specialismi settoriali, un poco di logica per cercare di ben ragionare e smascherare le fallacie pseudoinduttive o puramente circolari e tautologiche, e un poco di storia della scienza perché si tratterà anche di andare a rovistare nella pattumiera della storia per vedere un po’ meglio alcune idee degli sconfitti. Certo, siamo consapevoli di muoverci in una specie di terra di nessuno fra filosofia e scienza: non intendiamo rinserrarci in un sapere scientifico chiuso nella sua specializzazione, ma nemmeno intendiamo ricalcare l’obsoleta figura dell’epistemologo e del filosofo o storico della scienza che di scienza non capisce niente e rimane esterno al lavoro scientifico credendo che la pur utile storia della scienza o filosofia della scienza sia la scienza, per non parlare poi di coloro che pontificano dall’esterno sulla scienza spiegando allo scienziato come deve fare il suo lavoro. Cercheremo invece di fornire un contributo dall’interno e non dall’esterno della scienza, convinti che la vera filosofia della scienza non deve ridursi al ruolo di ancilla scientiarum e con sudditanza e senso di inferiorità attendere che il convento della scienza porga le sue pietanze per poi sempre dire quanto esse sono squisite così prendendo necessariamente per buone tutte le teorie scientifiche che si impongono come dominanti, chiosandole e propagandandole e cercando da un lato di fondarle, legittimarle, giustificarle, e dall’altro di inserirle nei propri quadri concettuali di volta in volta neokantiani, convenzionalisti, neopositivisti etc.: perché sostanzialmente questo e non altro ha fatto la filosofia della scienza nel XX secolo, soprattutto nei confronti della relatività e della meccanica quantistica. Ma la filosofia, nella fattispecie la filosofia della scienza, abdica al proprio compito se si accontenta di essere una ancilla scientiae dopo essere stata per secoli ancilla theologiae. In questo senso non a torto Feyerabend diceva che la filosofia della scienza è una disciplina inutile, in quanto meramente apologetica e ideologica, che potrebbe e dovrebbe semplicemente essere lasciata morire. Invero la sola filosofia della scienza che potrebbe avere un qualche senso è quella che sappia esercitare una funzione critica interna alla scienza stessa, discutendo e vagliando epistemologicamente le teorie ed entrando nel vivo delle questioni. Ma ancora meglio, sembra chiaro, è riuscire a fare della buona scienza e non della filosofia della scienza. 26
In questo senso il presente lavoro, più che orientato nel solco delle procedure consuete della filosofia della scienza, è semmai liberamente e con ogni libertà ispirato al metodo della de-costruzione attuato da Jacques Derrida: si è trattato cioè per noi di esaminare un plesso di teorie scientifiche, quali si sono configurate in un certo numero di testi scientifici – specialistici ma anche divulgativi – riconosciuti come rappresentativi e significativi costituenti un’ortodossia comunemente accettata fatta di discorsi apparentemente solidi, inattaccabili, unanimemente riconosciuti e spacciati per veri, e di de-costruirne e smontarne in disiecta membra gli elementi costitutivi in base ad una data strategia di lettura, insinuando il sospetto e il dubbio su ciò che appare assiomatico, cercando di incunearsi in questi discorsi per aprire in essi un varco, delle brecce, facendone emergere ed anzi esplodere le contraddizioni latenti e taciute, esaminando con attenzione – dei testi – i bordi, i margini, le lacune, i passaggi solo apparentemente incidentali e minori, nonché i silenzi e le omissioni, disarticolando e smembrando l’ordre du discours accettato, ricostruendone la dimenticata genealogia, ripercorrendo al contrario i passaggi della catena significante, rilevando e smascherando i“vizi procedurali” delle tautologie e delle fallacie, mostrando come un dato preteso quale appoggio univoco ad una teoria non lo è necessariamente essendo esso una matrice polisemica passibile di altre letture, cercando di far parlare una teoria (come quella relativistica) anche oltre le sue consuete interpretazioni fino a farle dire altro da ciò che espressamente dice, in tal modo costringendo a rivedere pratiche e tecniche discorsive consolidate e spesso istituzionalizzate: questo non per lasciar riemergere il caos e la follia soggiacente all’ordre du discours, non per indulgere ad una forma di scetticismo radicale, e nemmeno solo per mostrare tutto l’irrisolto e il problematico di certe costruzioni così apparentemente salde e sicure, ma soprattutto per tentare di rimontare e ricombinare in modo nuovo e diverso quegli elementi onde rigenerarne il senso, onde ottenere nuove e per noi più plausibili significazioni lasciando intravedere una diversa possibile struttura semantica. L’autentica déconstruction – per quanto sia anche indubbiamente una demolizione e un abbattimento di idoli – in real27
tà non distrugge semplicemente, non è una Destruktion né un vano e compiaciuto gioco intellettuale fine a se stesso che si arresta alla pars destruens, proprio in quanto fa vivere diversamente gli elementi decostruiti, anche se non si pretende di far seguire alla decostruzione (alla Abbau) una totale ed esaustiva ricostruzione (Aufbau). Questo dunque noi cercheremo di fare, pur certamente consapevoli che lo scienziato (o sedicente tale) ci accuserà di essere troppo filosofi mentre invece il filosofo (o sedicente tale) ci accuserà di essere troppo scientisti: speriamo solo che almeno qualcuno non confonda la critica a una teoria scientifica con un attacco tout court alla scienza. Presentiamo così una discussione epistemologica sulla teoria della relatività e una critica radicale ma motivata al modello cosmologico dominante, precisando dunque che questa critica, che pur naturalmente si vuole il più possibile attenta al contenuto scientifico da cui mai prescinde e ad esso interna, è nella sua impostazione di fondo essenzialmente filosofica: il problema ineludibile è infatti comprendere e decifrare filosoficamente i dati forniti dalla scienza, nella convinzione che filosofica (e non solamente settoriale e specialistica) sia la discussione sui princìpi e contenuti di fondo delle scienze stesse, e nella convinzione che la libertà di critica e di dissenso abbia ancora un senso e che anzi possa essere momento utile se non imprescindibile della stessa impresa scientifica. Resterà qualcosa, di questo libro che nega un modello cosmologico quasi centenario e accreditato dietro a cui campeggia addirittura la teoria della relatività? Proprio non lo so, sebbene nell’intimo non ne dubiti. Nel presente a dire il vero mi aspetto più che altro silenzio e indifferenza, ma si può anche ragionare pensando a tempi più lunghi. Infatti gli antichi dicevano: habent sua fata libelli. Per ora, posso soltanto concludere con l’invito con cui Diderot apriva la sua Interprétation de la Nature, dedicata «aux jeunes gens qui se disposent à l’étude de la philosophie naturelle», e dire semplicemente: «Jeune homme, prends et lis».
Vorrei ringraziare Vittorio Banfi (Centro di Astrodinamica Giuseppe Colombo, Torino): anche se egli non può condividere in tutto le mie posizioni in tema di relatività, io gli sono grato per i nostri dialoghi scientifici e per l’interesse che ha manifestato per il mio lavoro fin da quando (con Dario Generali del Centro Nazionale della Ricerca e Fabio Minazzi dell’Università di Lecce) accettò di presentare alla Casa della Cultura di Milano il 14 Aprile 2003 un mio breve testo di critica alla teoria del Big Bang, pubblicato da Corrado Minervini per Noctua (Molfetta 2002). Le mie prime riflessioni sulla cosmologia erano state pubblicate come articoli in “Emmeciquadro” (Ravenna 2000, Itaca n. 8) e per interesse del prof. Mario Quaranta in “Il Novecento” (Padova 2000, Edizioni Sapere n. 12); il lavoro sul paradosso di Olbers presentato nella seconda parte del libro sviluppa un articolo pubblicato in “Kos” (Milano 2002, Ed. Europa n. 199). Ringrazio anche Franco Selleri (Università di Bari) per i rilievi critici che mi hanno consentito di rivedere e migliorare il testo. Mia resta la responsabilità delle posizioni teoriche espresse in questo libro. Tengo anche a dire che Maria Maddalena Cusati ha seguito partecipe, se non l’ideazione che risale a molto tempo addietro, certamente tutta la gestazione e l’elaborazione del libro: la sua attenta e scrupolosa rilettura ne ha consentito un ulteriore affinamento sia per la precisione di talune citazioni latine e letterarie sia dal punto di vista stilistico. A lei il libro è dedicato. Addendum. Questa è la seconda edizione del libro. La prima edizione, pur non avendo avuto nessuna recensione (e sì che siamo in un paese dove si recensiscono tonnellate di libri), ha comunque avuto i suoi lettori. Ora il libro appare completamente rivisto, approfondito e molto ampliato poiché in questi anni non ho mai smesso di studiare e riflettere sull’argomento: per parte mia credo dunque di poter dire che, se prima il libro poteva essere un buon libro, ora è un libro migliore.
Milano, gennaio 2008
28
29
PARTE PRIMA LA TEORIA DELLA RELATIVITÀ
Considerazioni epistemologiche
30
31
I Per un bilancio critico «Papà, adesso siamo soli. Nessuno ci può vedere o sentire. Ora me lo puoi dire sinceramente: questa storia della relatività è tutta una balla?» (Hans Albert Einstein, a otto anni, rivolto al padre)*
Albert Einstein è un’icona del XX secolo, anzi l’emblema stesso della scienza. I suoi contributi sull’effetto fotoelettrico e le sue ricerche sui “quanti di luce” o fotoni (Lichtquanten), che dopo Planck hanno spianato la strada alla meccanica quantistica, sarebbero bastati a collocarlo tra i massimi scienziati del Novecento. Ma, naturalmente, è stata soprattutto la sua teoria della relatività (ristretta del 1905 e generale del 1916) a riplasmare completamente la scienza classica attraverso nuovi paradigmi addirittura proiettandone l’autore (e il personaggio) nell’aura del mito.1
* E.R. Einstein, Hans Albert Einstein: Reminiscences of his Life and our Life Together, Iowa 1991, University Press, p. 39. 1 I cinque fondamentali lavori di Einstein riguardanti il moto browniano, l’effetto fotoelettrico e la teoria della relatività ristretta (il celebre Zur Elektrodynamik bewgter Körper: Sull’elettrodinamica dei corpi in movimento) furono pubblicati nel 1905 sugli “Annalen der Physik” (ora in Collected Papers of Albert Einstein, Princeton, University Press, vol. II: The Swiss Years: Writings 1900-1909; tr. it. in A. Einstein, Opere scelte, Torino 1988, Bollati Boringhieri, pp. 109-180). La teoria della relatività generale è stata invece presentata nel 1916 ancora negli “Annalen der Physik” n. 49 (in una memoria dal titolo Die Grundlage der allgemeinen Relativitätstheorie, tr. it. I fondamenti della teoria della relatività generale in Opere scelte, cit. pp. 282-343). In seguito Einstein ha illustrato in vari testi la teoria della relatività, sia ristretta che generale: v. Über die spezielle und allgemeine Relativitätstheorie, 1917 (tr. it. Relatività: esposizione divulgativa, Torino 1967, Boringhieri e Opere scelte cit.); Vier Vorlesungen über Relativitätstheorie, 1922, (tr. it. Il
32
33
La teoria della relatività ristretta – come è noto – prende anzitutto il suo nome dalla messa in discussione dei princìpi classici (in particolar modo newtoniani) sull’assolutezza dello spazio, del tempo e del moto, in favore di una ridefinizione in base alla loro variabilità “relativa” a determinati osservatori inerziali nello spazio e nel tempo: essa intende relazionare tutti gli spazi, i tempi, i moti a un determinato punto di osservazione, a un determinato sistema di riferimento di volta in volta scelto fra tanti o infiniti punti possibili, reali o ideali, nessuno dei quali possa dirsi privilegiato rispetto a un altro. Questa “relatività” dello spazio e del tempo viene rintracciata in una loro dipendenza reciproca, per cui un dato tempo per un osservatore dato appare “relativo” a un dato spazio e viceversa, cosicché (come fece notare il matematico H. Minkowski) non possa più parlarsi di spazio e di tempo come di due entità distinte bensì di un peculiare intreccio spazio-temporale detto “cronotopo”. In tal modo la teoria della relatività, nel porre in primo piano la funzione dell’osservatore, sembra veramente convergere verso le risultanze cui perviene la fisica quantistica novecentesca con il principio di indeterminazione pur da Einstein sempre rifiutato. Infatti sia la fisica relativistica sia la fisica quantistica stabiliscono che le condizioni di un osservatore influiscono sull’osservazione: la teoria della relatività dichiara impossibile in linea di principio ogni misurazione di uno spazio, un tempo, un moto oggettivo, reale e assoluto, così rapportando ogni spazio, ogni tempo, ogni moto come funzioni variabili e relative a un osservatore e a un sistema di riferimento; parallelamente la fisica quantistica con il principio di indeterminazione afferma l’inconoscibilità e financo l’indeterminazione
reale dello status ontologico della particella, di cui è possibile determinare con certo grado di probabilità la velocità oppure la posizione ma non entrambe contemporaneamente, stante l’influenza dello stesso osservatore che nell’atto stesso del vedere perturba tale velocità e dunque tale posizione. Da entrambe le teorie sembra conseguire che il soggetto, interagendo con il fenomeno osservato, non possa pervenire alla determinazione di una realtà oggettiva: si vuole inessenziale il definire ad esempio se un corpo sia in moto a prescindere dall’osservatore così come il definire se in realtà la particella abbia una posizione e velocità data in un momento dato. In pari tempo la prima teoria einsteiniana pone la lunghezza apparente e la massa di un corpo quali variabili in funzione della velocità della luce, di cui si fornisce una nuova teoria. Quindi subentrò la teoria della relatività generale che aboliva la gravitazione come forza riducendola a inerzia passibile per via della massa di curvare lo spazio e di rallentare il tempo, così nuovamente facendone delle entità relative; infine la teoria della relatività, con la sua ridefinizione della metrica spaziale e le sue equazioni del campo cosmologico, spianò la strada alla cosmologia del XX secolo.
significato della relatività, Roma 1997, Newton Compton); The Evolution of Physics. The Growth of Ideas from Early Concepts to Relativity and Quanta, scritto con L. Infeld, 1938 (tr. it. L’evoluzione della fisica. Sviluppo delle idee dai concetti iniziali alla relatività e ai quanti, Torino 1965, Boringhieri). In italiano v. anche L’anno memorabile di Einstein, Bari 1998, Dedalo (con i cinque articoli del 1905), nonché AA.VV., Cinquant’anni di relatività, Firenze 1955, Ed. Giuntine (contiene anche una scelta delle principali memorie scientifiche di Einstein). Una edizione italiana delle opere complete di Einstein non è ancora stata approntata.
2 H. Weyl, Raum Zeit Materie. Vorlesungen über allgemeine Relativitätstheorie, Berlin 1918, Springer; M. von Laue, Die Relativitätstheorie, Braunschweig 1921; A.S. Eddington, Space, Time and Gravitation. An Outline of the General Relativity Theory, 1920 (tr. it. Spazio, tempo e gravitazione. La teoria della relatività generale, Torino 1971, Boringhieri) e The Mathematical Theory of Relativity, Cambridge 1924, University Press; M. Born, Die Relativitätstheorie Einsteins, 1920, poi Einstein’s Theory of Relativity, 1962 (tr. it. La sintesi einsteiniana, Torino 1969); W. Pauli, Relativitätstheorie, 1921 (tr. it. Teoria della relatività, Torino 1974, Boringhieri).
34
La relatività e i suoi critici La teoria della relatività ebbe sostenitori convinti sia fra gli scienziati (M. Planck per la relatività ristretta, A.S. Eddington, H. Minkowski, H. Weyl, e poi tutti i padri fondatori della meccanica quantistica: N. Bohr, W. Heisenberg, M. Born, W. Pauli etc.)2, sia fra i fi-
35
losofi (É. Meyerson, E. Cassirer, B. Russell, neopositivisti come M. Schlick, R. Carnap, H. Reichenbach)3. Ma vi furono anche eminenti scienziati, comprese alcune fra le menti più acute dell’epoca, che la criticarono severamente. Così E. Mach4, che pur aveva molto influenzato Einstein criticando prima di lui (sulla traccia di Leibniz e Berkeley) i concetti newtoniani di spazio, tempo e moto assoluti in base a un sostanziale fenomenismo empiristico (per il quale ci si deve attenere alle relazioni quantitative risultanti fra fenomeni direttamente misurabili senza andare oltre), rifiutò decisamente la teoria della relatività che – disse – stava diventando «sempre più dogmatica» e, nella prefazione al suo ultimo libro (pubblicato postumo nel 1921) su Physikalische Optik, scrisse (o, secondo alcuni, scrisse per lui il figlio Ludwig): «devo smentire con fermezza di essere un precursore della relatività». P. Duhem nella prefazione alla seconda edizione di La théorie physique prese le distanze dalla nuova scienza: essa, nella sua «corsa sfrenata e disordinata all’inseguimento dell’idea
3 É. Meyerson, La déduction relativiste, Paris 1925, Payot; E. Cassirer, Zur Einstein’schen Relativitätstheorie, 1920 (tr. it. Sulla teoria della relatività di Einstein, Firenze 1973, La Nuova Italia); B. Russell, The ABC of Relativity, 1925 (tr. it. L’ABC della relatività, Milano 1960, Longanesi); M. Schlick, Raum und Zeit in der gegenwärtigen Physik, 1917 (tr. it. Spazio e tempo nella fisica contemporanea. Un’introduzione alla teoria della relatività e della gravitazione, Napoli 1979, Bibliopolis); H. Reichenbach, Relativitätstheorie und Erkenntnis apriori, 1920 (tr. it. Relatività e conoscenza a priori, Bari 1984, Laterza); Von Kopernicus bis Einstein. Der Wandel unseres Weltbildes, 1927 (tr. it. Da Copernico a Einstein. Il mutamento della nostra immagine del mondo, Bari 1985, Laterza); Philosophie der RaumZeit-Lehre, 1928 (tr. it. Filosofia dello spazio e del tempo, Milano 1977, Feltrinelli); Der gegenwärtiger Stand der Relativitätsdiskussion, 1921 (tr. it. Lo stato attuale delle discussioni sulla relatività in Modern philosophy of science, 1959, tr. it. La nuova filosofia della scienza, Milano 1968, Bompiani, pp. 9-68). 4 E. Mach, Die Mechanik in ihrer Entwicklung historisch-kritisch dargestellt, 1883 (tr. it. La meccanica nel suo sviluppo storico-critico, Torino 1977, Bollati Boringhieri). Sul cosiddetto “sensismo” di Mach v. Die Analyse der Empfindungen und das Verhältnis des Physischen zum Psychischen, 1896 (tr. it. L’analisi delle sensazioni e il rapporto fra fisico e psichico, Milano 1903, Bocca Editori). Cfr. G. Boniolo, Mach e Einstein, Roma 1988, Armando.
36
nuova ha sbaragliato il campo delle teorie fisiche e ne ha fatto un vero caos dove la logica non ha più voce in capitolo e il buon senso sfugge spaventato»5; parimenti, nel suo libro su La science allemande6, rileggendo la distinzione pascaliana fra esprit de géométrie e esprit de finesse in chiave nazionalistica (era in corso il conflitto franco-tedesco nella prima guerra mondiale) e attribuendo allo spirito tedesco una prevalenza ipertrofica dell’esprit de géométrie (nonché allo spirito inglese un prevalente empirismo attento al concreto ma privo di metodo), Duhem vide nella physique nouvelle e nella teoria della relatività l’espressione di un «impérialisme algébrique» – figlio si direbbe dell’imperialismo militare – che da postulati arbitrari (come l’insuperabilità della velocità della luce) deduce paradossali concatenazioni logiche senza timore di sconvolgere e distruggere le basi stesse della fisica e in totale spregio al sens commun, al bon sens che Duhem rivaluta collegandolo all’intuizione e all’esprit de finesse: ove, pur riconoscendo l’impossibilità per la scienza di mantenersi sempre fedele al buon senso (al quale appare ovvia l’immobilità della Terra), sembra però colpire nel segno la critica all’impérialisme algébrique. Lo stesso É. Meyerson, pur in una valutazione ampiamente positiva della teoria della relatività che suscitò l’encomio di Einstein, disse però nel suo libro al riguardo che la déduction relativiste, ovvero la deduzione puramente logica e matematica che la teoria della relatività traeva da princìpi posti puramente a priori, e la connessa riduzione della materia e della gravitazione nonché infine della fisica a geometria e a coordinate spaziali, conduceva allo svanimento (évanouissement) e alla perdita del reale (cui pur la teoria intendeva ricollegarsi) nella trama delle equazioni, cosicché le réel opponeva (come peraltro per Meyerson sempre avviene nella scienza e nel pensiero) un residuo irrazionale, una resistenza al tentativo aprioristico di una sua razio-
5 P. Duhem, La théorie physique, son object, sa structure, 1906 (tr. it. La teoria fisica: il suo oggetto e la sua struttura, Bologna 1978, Il Mulino, p. 5). 6 P. Duhem, La science allemande. Quatre leçons, Paris 1915, Hermann (in particolare sulla relatività pp. 134-139).
37
nalizzazione forzata: «le relativisme – scriveva Meyerson – […] est tout entier mathématique, et il n’est que cela»7; essendo «une forme trés avancée de la mathématisatíon du réel»8, esso non è che un «systéme de déduction globale»9 nel quale «la matière disparaît»10. A. Michelson, stupefatto dell’esito negativo dei suoi famosi esperimenti volti a misurare la variazione della velocità della luce e a dimostrare l’esistenza dell’etere, non per ciò abbandonò il «vecchio, amatissimo etere» e mai accettò le conseguenze che da tali risultanze aveva tratto Einstein giungendo a definire la teoria della relatività come un «parto mostruoso» della fisica. M. Abraham in polemica con la relatività ristretta mantenne l’etere e i sistemi di riferimento assoluto, assunse la velocità della luce non come una costante ma come una variabile, criticò la teoria gravitazionale di Einstein e le sue equazioni del campo sviluppando (in cinque articoli del 1912) una teoria della gravitazione alternativa e infine (in un articolo del 1914 sulla rivista Scientia) promise un «funerale onorevole» alla teoria della relatività inadeguata a dare «un’immagine completa del mondo». Fra le teorie gravitazionali alternative a quella einsteiniana occorre ricordare (oltre a quella di Abraham) quella del matematico D. Hilbert, quella di G. Mie, ma soprattutto quella del matematico e filosofo A.N. Whitehead che accettava la teoria della relatività ristretta ma confutava il paradosso dei gemelli, negava l’invarianza della velocità della luce e rifiutava lo “spazio curvo” della relatività generale11. In tema di rela-
7 É. Meyerson, La déduction relativiste, cit. p. 217. Cfr. S. Marcucci, Émile Meyerson. Epistemologia e filosofia, Firenze 1962, Le Monnier. 8 É. Meyerson, La déduction relativiste, cit. p. 253. 9 Ivi p. 124. 10 Ivi p. 135. 11 A.N. Whitehead, Space, Time and Relativity, 1916; The Principle of Relativity, 1922; The Problem of Simultaneity, 1923 (v. M. Bramé, L’altra relatività. La fisica di Whitehead, in Secretum, n. 9, marzo 2007 e Dalla metafisica alla fisica: la relatività di Whitehead, tesi di dottorato poi in Isonomia, n. 21, dicembre 2005. V. anche J. Singe, Relatività Theory of A.N. Whitehead, Baltimore 1951, University Press).
38
tività generale va ricordato E. Milne che, dimostrando possibile una cosmologia newtoniana e non relativistica, scrisse che «la relatività generale è un giardino nel quale crescono insieme fiori ed erbacce». Poi vanno ricordate le critiche alla teoria della relatività di P. Lenard e J. Stark, entrambi premi Nobel per la fisica, in nome delle esigenze della fisica sperimentale (sebbene la critica scientifica appaia qui offuscata dall’opzione ideologica per la Deutsche Physik contro la “fisica ebrea” vista come strutturalmente astratta e irreale). Anche per quanto riguarda i grandi scienziati che più di tutti preannunciarono i temi della teoria della relatività (ristretta), l’appoggio alle teorie di Einstein non fu affatto scontato. Così H.A. Lorentz che, con l’ipotesi della contrazione delle lunghezze e con le sue “trasformazioni” volte a correlare matematicamente le rilevazioni compiute in diversi sistemi di riferimento tramite determinate coordinate spaziotemporali, aveva anticipato molti risultati della teoria della relatività fra cui il cosiddetto aumento di massa con la velocità, rimase critico nei confronti della teoria einsteiniana e sempre mantenne l’etere, la simultaneità oggettiva, nonché lo spazio e il tempo assoluto (allgemeinen Zeit) quale sfondo dell’artificiale e convenzionale “tempo locale” (Ortzeit), parimenti ritenendo temerario il veto relativistico di una velocità superiore a quella della luce e ripudiando i “quanti di luce” di Einstein come incompatibili con gli aspetti ondulatori12. J.H. Poincaré, che parimenti influenzò molto Einstein e fu egli stesso autore di una teoria della relatività13 contemporaneamente ad Einstein (in cui poneva la relatività dello spazio, del tempo, del moto e della simultaneità, nonché la costanza della velocità della luce quale ipotetica velocità limite), non lo seguì del tutto dopo la sua prima formulazione della relatività ristretta affermando che le nuove vie einstei-
H.A. Lorentz, Das Relativitätsprinzip, Leipzig und Berlin 1914, Teubner. J.H. Poincaré, Sur la dynamique de l’électron, memoria conclusa nel giugno 1905, presentata all’Accademia delle Scienze di Parigi e pubblicata nel 1906 nei Rendiconti del Circolo matematico di Palermo, 21 (poi in J.H. Poincaré, Oeuvres, Paris 1916-1956, Gauthier-Villars, IX, pp. 389-493). 12 13
39
niane sarebbero in gran parte finite in vicoli ciechi. M. Grossmann, che pur aiutò Einstein nell’elaborazione della matematica atta a esprimere la relatività generale studiando prima di lui e per lui il calcolo tensoriale, criticò aspramente la teoria di Einstein. Anche Planck, che fra i primi sostenne la relatività ristretta, non fu però convinto della relatività generale (così come non condivise i “quanti di luce” di Einstein). Parimenti un critico molto severo della teoria della relatività fu il fisico Dingler, che non trovava in essa quella fondazione assiomatica della scienza che egli perseguiva: «le considerazioni generali, da cui la teoria della relatività ha tratto le sue formule fondamentali – scriveva Dingler –, sono straordinariamente manchevoli, arbitrarie e improvate».14 Nell’Unione Sovietica dell’era staliniana la teoria della relatività (come peraltro la meccanica quantistica, la cosmologia espansionista e la genetica) era spesso condannata in modo riduttivamente ideologico come “scienza borghese”, “idealistica” e “reazionaria”, ma (prima che la condanna ideologica prevalesse) non mancò un dibattito specifico fra sostenitori e detrattori che coinvolse direttamente i fisici e in cui le critiche (come ad esempio la difesa dell’assolutezza dello spazio e del tempo newtoniani, la denuncia dello “spazio curvo” come concettualmente ibrido, la stigmatizzazione della procedura einsteiniana accusata di «sostituire la materia con le equazioni») rivelavano non poche convergenze con analoghe istanze critiche da più parti emergenti fra i critici occidentali15. Per quanto riguarda la discussione italiana, C. Burali-Forti criticò severamente la teoria della relatività16, come peraltro A. Righi e Q. Majorana: vari scienziati italiani mantennero il dubbio sulla assoluta insuperabilità della velocità della luce, criticarono il concetto einsteiniano di gravitazione e l’idea ad esso connessa di “spazio
14 H. Dingler, Die Methode der Physik, 1937, tr. it. Il metodo della ricerca nelle scienze, Milano 1953, Longanesi, p. 606. 15 Cfr. S. Tagliagambe, Scienza, filosofia, politica in Unione Sovietica (19241939), Milano 1978, Feltrinelli, pp. 116-132. 16 C. Burali-Forti, Espaces courbes. Critique de la relativité, Torino 1924, Sten.
40
curvo”, con conseguente riproposizione delle forze e della teoria balistica newtoniana della luce nonché del referente fisico reale di contro a un matematismo ritenuto puramente deduttivo. A questo proposito l’astronomo italiano G. Boccardi, in un articolo pubblicato su La Stampa il 18 Ottobre 1921 (Il procedimento logico della teoria di Einstein e l’allarme degli astronomi) stigmatizzava proprio il tentativo einsteiniano di «far passare mezzi algebrici per leggi della natura». In particolare Q. Majorana, presidente della Società Italiana di Fisica, scriveva che le vantate conferme delle teorie relativistiche «lasciano scettico il fisico sperimentatore. Egli, ancorché ammetta la verità di tali fatti, pensa, spesso non dicendolo, che altre teorie più semplici possano spiegarle»; in particolare Majorana dubitava del principio della costanza della velocità della luce17. Invece il fisico sperimentale M. La Rosa scriveva che «chi si provi a spogliare la teoria [della relatività] dalla ricca veste matematica e a tradurre in linguaggio concreto, cioè in idee e concetti, i mirabolanti risultati nascosti nelle formule abbaglianti, non riesce ad altro che a provare le vertigini». Non a caso Abraham, critico della relatività, insegnò in Italia trovandovi un ambiente più consono alle sue idee che non in Germania. T. Levi Civita ancora nel 1912 stroncava severamente la relatività ristretta dicendola costruita su «baraccamenti provvisori» nonché arbitrarie e gratuite ipotesi ad hoc e anche quando in seguito, dopo aver visto il calcolo tensoriale di Ricci Curbastro (da lui sviluppato e applicato) portato a notorietà internazionale dall’uso che ne fece Einstein, divenne un sostenitore acceso delle teorie einsteiniane, cercò comunque il più possibile di ricondurle nel solco della meccanica classica come a stemperarne l’effetto dirompente, così correggendone le equazioni gravitazionali, considerando uno spazio classico tridimensionale senza introdurre la “quarta dimensione” e senza utilizzare il tempo «proprio» e «locale», nonché guardando con interesse alle riserve sulla relatività espresse dal fisico francese Guillaume. L’anziano Ricci Curbastro, che 17 Q. Majorana, Critica della relatività di Einstein, Memorie dell’Istituto dell’Università, Bologna, 1947-1948.
41
aveva offerto ad Einstein su un piatto d’argento il calcolo tensoriale atto ad esprimere la relatività generale, prese posizione contro gli attacchi dilettanteschi alla relatività e ne difese lo spessore matematico quale suo nucleo imprescindibile, ma mai la accettò apertamente in toto come vera teoria fisica18. In Italia va anche ricordato V. Tonini che lungo vari decenni ha criticato il postulato della costanza della velocità della luce e opposto un tempo unico ai tempi relativistici19. Particolarmente interessante fu il dibattito in Francia, dove il fisico E. Guillaume abbandonò il principio della costanza della velocità della luce e sostenne la compatibilità della teoria della relatività con l’idea di tempo assoluto esprimibile con un solo parametro t, così sostituendo una rappresentazione monoparametrica del tempo alla rappresentazione poliparametrica di Einstein20. Dal punto di
R. Maiocchi (Einstein in Italia. La scienza e la filosofia italiane di fronte alla teoria della relatività, Milano 1985, Angeli, pp. 22-26, 36-45, 93-94) mostra la sostanziale e perdurante riserva iniziale di molti scienziati e filosofi italiani alle teorie einsteiniane attribuendola soltanto a incomprensione, a conservatorismo, a chiusura provinciale, mentre viceversa molte critiche provenienti da scienziati di indubbia levatura appaiono sensate e motivate nonché pienamente convergenti con le critiche che anche al di fuori della “provincia” italiana si muovevano alla relatività. Favorevoli alla relatività – a riprova di un dibattito che fu vivo e non riducibile a mera chiusura provinciale – furono invece alcuni matematici (come si è detto il secondo Levi Civita, nonché E. Castelnuovo, G. Fubini e F. Severi) e fisici (R. Marcolongo, il giovane E. Fermi). 19 Tonini discusse la teoria della relatività dapprima in alcuni saggi (Relatività non-einsteiniana del 1946, Relatività strutturale del 1947, Fondamenti metodologici della relatività strutturale del 1950) e poi nel libro Einstein e la relatività, Brescia 1981, La Scuola. 20 Le tesi di Guillaume, pur contestate da P. Langevin, furono diffuse soprattutto in area francese. Ad esempio L. Fabre nel suo libro sulla relatività (Les théories d’Einstein, Paris 1921, Payot) accolse come appendice uno scritto di Guillaume, e probabilmente anche per questo, oltre che per una prefazione indebitamente costruita con lettere private di Einstein, il padre della relatività si distanziò pubblicamente da Fabre (cfr. A. Genovesi, Il carteggio fra Albert Einstein ed Edouard Guillaume. “Tempo universale” e teoria della relatività ristretta nella filosofia francese contemporanea, Milano 2000, Angeli). 18
42
vista filosofico inoltre una critica severa venne da H. Bergson, filosofo ampiamente competente in campo matematico (nel 1877 vinse un concorso nazionale in matematica e risolse il problema dei tre cerchi di Pascal) e scientifico (come rivelano le sue ampie cognizioni in neurologia e biologia rispettivamente in Matière et mémoire e in L’évolution creatrice). Influenzato prima e difeso poi da Guillaume, Bergson discusse la teoria della relatività (particolarmente la relatività ristretta) in Durée et simultanéité21. Nonostante un errato convincimento alquanto diffuso, in questo libro – che non è minimamente, come è stato ritenuto, un penoso infortunio nel percorso intellettule di Bergson – il filosofo francese non contestava minimamente la teoria della relatività sul piano scientifico poiché ne rispettava pienamente l’autonomia e la specificità. In realtà Bergson era fin troppo cauto al riguardo e (per quanto possa sembrare paradossale dirlo) fin troppo “einsteiniano”: a differenza di molti scienziati, egli non contestava né la costanza e l’insuperabilità della velocità della luce né l’abolizione dell’etere né lo “spazio curvo” né la teoria relativistica della gravitazione. La sua critica non verteva sui postulati e sull’apparato matematico relativistici, bensì riguardava esclusivamente l’interpretazione delle conclusioni cui perveniva il padre della relatività. Egli così vide nei tempi relativistici e nelle rotture delle simultaneità il risultato di effettive e indubbie misurazioni matematiche di osservatori dati, ma ne rifiutava le conseguenze che ne traeva Einstein in termini di reali variazioni temporali con rallentamenti o accelerazioni relative: egli non vedeva alcuna coincidenza fra queste misurazioni e il tempo reale e difendeva la realtà di un tempo assoluto, intendendolo come flusso di coscienza irraggiungibile alla scienza e divenire creativo assolutamente separato dallo spazio posto come mera esteriorità. Vi fu anche al riguardo uno storico dibattito fra Bergson e Einstein, tenutosi il 6 aprile 1922 alla Société de Philosophie di Parigi, ma (a partire da un arti21 H. Bergson, Durée et simultanéité. A propos de la théorie d’Einstein, Paris 1922, Alcan.
43
colo di A. Metz del 1924) Bergson fu oggetto di attacchi tali da parte della comunità scientifica («Gott verzeih ihm», Dio lo perdoni, disse Einstein con condiscendenza) che egli non tornò più pubblicamente sull’argomento, rifiutando a partire dal 1931 ulteriori edizioni del testo che nemmeno comparve nell’edizione postuma delle sue opere complete, benché in realtà documenti privati e una lunga nota inserita in La pensée et le mouvant (1934) non facciano affatto pensare a una ritrattazione.22 La discussione sulle teorie della relatività fu certamente complessa23: infatti alcuni autori (fra i quali, come si è detto, Planck e Whitehead) accettavano la relatività ristretta ma rifiutavano quella generale, mentre altri accettavano la teoria generale ma rifiutavano quella ristretta. Il fatto stesso che il premio Nobel fosse infine consegnato ad Einstein nel 1922 solo dopo anni di reiterate insistenze e solo per la fondamentale memoria del 1905 sull’effetto fotoelettrico ma non per la teoria della relatività, lungi dal dimostrare come spesso si dice l’ottuso conservatorismo della commissione preposta, dimostra invece quanto in quegli anni e per lungo tempo ancora la teoria sia apparsa ancora ipotetica e non sufficientemente suffragata. Anche gli ultimi e sostanzialmente infruttuosi decenni dell’attività di Einstein, che invano cercò una saldatura fra campo elettromagnetico e campo gravitazionale, unitamente alla vana ricerca (perseguita anche da P. Dirac) di un accordo fra relatività e fi-
22 Vari filosofi intervennero nel dibattito o lo ripresero (C. Nordmann 1924, A. D’Abro 1927, A. George 1930, H. Barreau 1973, M. Cˇapek 1980). Vedi A. Genovesi (Bergson e Einstein, Milano 2001, Angeli, sebbene l’autore difenda in modo eccessivo Einstein contro Bergson) e P. Taroni (Bergson, Einstein e il Tempo, Urbino 1998, Quattro Venti). L’ostracismo contro Bergson fu tale che ancor oggi sono rarissime le traduzioni in italiano di Durée et simultanéité (dopo una traduzione a Bologna nel 1997 presso l’editore Pitagora, si registra nel 2004 Durata e simultaneità da parte di Cortina). 23 Una panoramica (pur non completa) sul dibattito è in U. Giacomini, Esame delle discussioni filosofico-scientifiche sulla teoria della relatività (in L. Geymonat, Storia del pensiero filosofico e scientifico, Milano 1972, Garzanti, vol. VI pp. 439-468).
44
sica quantistica, sembrano dimostrare non tanto uno scacco senile quanto piuttosto il vicolo cieco (a suo tempo previsto da Poincaré) in cui fatalmente sembrava arenarsi infine la relatività stessa. Non a caso Einstein ritenne che il volume collettaneo a lui dedicato per il settantesimo compleanno24 risultasse infine, viste le numerose critiche, non tanto un omaggio quanto piuttosto «un atto d’accusa». La cosa impressionante è che tutta questa lunga, intensa, seria discussione, che ovunque in campo internazionale vide coinvolti i maggiori scienziati e filosofi interessati alla scienza, è stata a un certo punto semplicemente messa da parte. Non voglio dire censurata d’autorità, intendo proprio dire: dimenticata, obliata, rimossa come qualcosa di inutile e di vano. Quando i tolemaici hanno respinto la teoria eliocentrica di Aristarco da Samo, hanno spiegato perché: non si trattava semplicemente (come sempre banalmente si ripete) di mantenere il ruolo centrale della Terra nel cosmo e la posizione privilegiata dell’uomo, bensì (per fare un solo esempio) del fatto che non si rilevava alcuna parallasse in cielo quale conseguenza del moto terrestre. E quando secoli dopo, quando stava nascendo la fisica classica, i tolemaici continuarono a obiettare ai copernicani che la Terra non poteva essere in moto perché in tal caso sarebbero cadute le torri, i copernicani hanno risposto dicendo perché quell’obiezione era una falsa obiezione. Ma da allora qualcosa deve essere cambiato nella scienza perché nessuna delle obiezioni e dei rilievi mossi alle teorie einsteiniane ha mai ricevuto una risposta, anche a distanza di decenni: si è semplicemente detto che la duplice teoria della relatività, ristretta e generale, andava benissimo ed era stata brillantemente confermata dagli esperimenti come se ciò chiudesse definitivamente la partita. La maggior parte di quelle obiezioni, di quei rilievi, di quelle domande ha oggi lo stesso valore di settanta o cento anni fa ed in alcuni casi anche un rilievo maggiore: ma,
24 AA. VV., Albert Einstein: Philosopher-Scientist, 1949 (tr. it. Albert Einstein scienziato e filosofo, Torino 1958, Einaudi).
45
semplicemente, quelle obiezioni, quei rilievi, quelle domande non si pongono più. Nessuno le pone più. Sul carro del vincitore, assunto a figura mitica, sono saliti tutti. È questo un procedimento sempre più consueto nella scienza: avremo modo di vedere come l’intensa e interessante discussione svoltasi nella comunità scientifica negli anni venti circa l’interpretazione del cosiddetto red shift galattico è stata a un certo punto (nel 1929) troncata di netto dalla spiegazione ufficiale di Hubble, nonostante che ai dubbi e alle riserve non si fosse data una vera risposta. Oggi la big science funziona così: a quanto pare, anche se lo nega, vuole certezze ed è disposta anche a contrabbandare le sue ipotesi per certezze. Per quanto ci riguarda non intendiamo ovviamente ripescare e riproporre tale e quale quel dibattito sulle teorie einsteiniane (che oltretutto conosciamo in modo sommario) sganciandolo dal suo contesto come se nulla fosse stato nel frattempo. Il nostro primo intendimento è teorico e non storico, e da parte nostra si tratta di dire qualcosa di più e di diverso sulle teorie relativistiche: vogliamo però ricordare che vi fu una discussione, poi lasciata impolverire negli archivi e cancellata dagli annali della scienza. I postulati relativistici Numerosi appaiono i problemi teoretici di fondo irrisolti nella teoria della relatività, sia ristretta che generale, nonostante le apparenti conferme scientifiche. Si suol dire che la teoria della relatività ingloba e comprende in sé superandola la fisica newtoniana, questa valendo nel nostro mondo quotidiano e per velocità modeste e quella invece mostrando le sue proprietà in presenza di masse in prossimità della velocità della luce, ma in realtà le due teorie sembrano proprio opposte e inconciliabili sotto molti aspetti e la fisica classica è di fatto abbandonata dalla teoria della relatività, visto che essa serve solo più pragmaticamente e approssimativamente onde evitare il ricorso – quando sia possibile – ai più complessi calcoli relativistici. Per la teoria newtoniana la massa di un corpo rimane la 46
stessa e così appare nel secondo principio newtoniano, mentre per la teoria della relatività essa cresce asintoticamente con la velocità laddove il secondo principio non vale più; per la teoria newtoniana lo spazio e il tempo sono assoluti, fissi e inalterabili, mentre per la teoria della relatività sono variabili e relativi; per la teoria newtoniana lo spazio è euclideo, per la teoria della relatività è curvo; per la teoria newtoniana i pianeti ruotano attorno al Sole perché attratti a distanza dalla sua forza gravitazionale, mentre per la teoria della relatività i pianeti ruotano su geodetiche attorno al Sole senza esserne minimamente attratti. Come si può veramente dire, in presenza di opposizioni siffatte, che la teoria della relatività “comprende” e “ingloba” in sé la teoria newtoniana come caso particolare? Certamente sappiamo che Einstein ha posto come postulati o assiomi i princìpi base della sua teoria. Egli pensava che, poiché i princìpi base di una teoria non possono essere tratti per induzione e astrazione dall’esperienza, allora andassero ad essa imposti come «libere invenzioni della mente umana» e «convenzioni liberamente scelte» e postulati (scelti in base a criteri di semplicità, economia, coerenza interna e financo di bellezza estetica) onde poi saggiarne la capacità predittiva e l’accordo con la realtà fenomenica25: è la déduction relativiste messa in luce dal Meyerson, e ancora più accentuata nell’epistemologia di Eddington che – radicalizzando Einstein – perviene a un radicale e dichiarato idealismo soggettivo per il quale le leggi scientifiche sono princìpi a priori della mente26. Così nella sua celeberrima memoria del 1905 Einstein buttò a mare princìpi venerandi, fra cui lo spazio e il tempo assoluti e l’etere, sostituendoli
25 Sull’epistemologia einsteiniana v. le Note autobiografiche in Albert Einstein scienziato e filosofo, cit. pp. 7-18 (v. anche G. Holton, The advancement of science, and its burdens, 1986, tr. it. Einstein e la cultura scientifica del XX secolo, Bologna 1991, Il Mulino). 26 Su Eddington v. M. de Paoli, Arthur Stanley Eddington. Le vie della scienza, in Theoria Motus. Studi di epistemologia e storia della scienza, Milano 2004, Franco Angeli, pp. 150-163 (sulla sua epistemologia pp. 157-161).
47
con nuovi postulati che sono anzitutto l’estensione e la generalizzazione del principio galileiano e classico di relatività e poi il principio della costanza e insuperabilità della velocità della luce (con tutte le conseguenze che ne derivano). Con un’audacia giovanile che rasentava l’avventatezza, egli dichiarò: «eleveremo questa congettura, il cui contenuto sarà d’ora in poi denominato “principio di relatività”, al rango di postulato»27. Così, nel giro di due righe perentorie e puramente assertive, assistiamo (come nota Holton) alla stupefacente metamorfosi di una “congettura” dapprima in “principio” e subito dopo in “postulato”. Naturalmente non si intende qui fare i puristi e i censori: sappiamo che la scienza non obbedisce a nessun metodo e dunque si può anche dire che la procedura di Einstein vada benissimo. Ma allora a chi contesti il carattere puramente postulatorio e metafisico dei princìpi di base newtoniani andrà ricordato che agli assiomi e ai postulati newtoniani Einstein sostituisce comunque infine altri assiomi, altri postulati. Ad esempio porre l’insuperabilità in linea di principio della velocità della luce, dire cioè non che finora non si è ancora registrata con certezza una velocità superluminale ma che proprio non può esistere, significa porre un postulato proprio come è un postulato lo spazio assoluto. Ma allora il problema che si pone dal punto di vista epistemologico non è tanto contestare la liceità del porre postulati, e nemmeno tanto vedere fino a che punto essi spieghino realmente la fenomenologia osservata (sappiamo bene che il falso postulato geocentrico prevedeva abbastanza bene le posizioni dei corpi celesti), quanto piuttosto saggiarne la fondatezza e plausibilità euristica e concettuale. Con tutto ciò però, nel dare avvio al nostro tentativo critico, precisiamo che esso non ha niente a che fare con certi virulenti attacchi che sono stati portati e ancora sono rivolti contro la teoria della relatività e contro lo stesso Einstein: il problema per noi non consiste nell’additare al pubblico ludibrio l’“ebreo” Einstein né riproporre
l’annosa questione dei cosiddetti plagi di Einstein, ormai giunti al ridicolo di vedere nella moglie Mileva la vera creatrice della relatività. Né tantomeno ci interessa “confutare” la teoria einsteiniana screditando l’uomo di volta in volta dipinto come uno studente mediocre e fannullone ignorante in matematica, un donnaiolo impenitente, un sionista imperialista e quant’altro. Noi vogliamo un discorso sine ira et studio. Ormai è passato un secolo dalle prime ricerche di Einstein sulla relatività, visto che nel 2005 è caduto il primo centenario della teoria della relatività ristretta, peraltro caratterizzato come prevedibile da un vano coro di sterili celebrazioni rituali volte all’apoteosi. Anch’io mio malgrado sono stato costretto a farne parte, visto che una intervista molto critica da me rilasciata al regista A. Turci è stata quasi del tutto tagliata ed inserita fra altre in un film del tutto apologetico sul centenario presentato al festival di Berlino. Viceversa noi crediamo che il miglior modo di rendere omaggio a quella che secondo molti è stata la più grande mente scientifica del XX secolo sia una più pacata riflessione e un bilancio critico, finalmente ora possibili a distanza di un secolo, onde soppesare dal punto di vista epistemologico alcuni punti nodali delle teorie relativistiche. Noi non condividiamo in tutto Whitehead secondo il quale «una scienza che esita a dimenticare i suoi fondatori è perduta». Riteniamo al contrario che una scienza non deve dimenticare i suoi fondatori; che la storia della scienza, rivisitando teorie passate, può rendere un servizio alla scienza; che la scienza contemporanea ha sin troppo dimenticato i padri classici fondatori troppo avventurandosi nel campo dell’arbitrio. Tuttavia quando certi padri fondatori, ed Einstein è ormai certamente il maggiore di essi, hanno indebitamente acquisito l’indiscussa autorità che l’aristotelismo giocava agli albori della scienza moderna, rischiando così di diventare un ostacolo alla ricerca scientifica, allora forse perfino un certo grado di oblio può diventare augurabile.
A. Einstein, Sull’elettrodinamica dei corpi in movimento, in Opere scelte, tr. cit. p. 149. 27
48
49
II Velocità della luce e moto della sorgente Si suol dire, benché non sia del tutto esatto, che la vicenda si dipani dall’esperimento compiuto nel 1881 da A. Michelson nel laboratorio di H. Helmholtz, e poi ripetuto varie volte con E. Morley. Il problema in questione partiva da una constatazione elementare: se la Terra fosse immobile, si diceva, allora un raggio di luce inviato sulla sua superficie dovrebbe impiegare per andare da A a B e per tornare indietro da B a A lo stesso tempo t impiegato da un raggio che perpendicolarmente al primo percorra la stessa distanza lungo il percorso AC e poi CA. Ma se la Terra si muove, come sappiamo dopo Copernico, allora il raggio di luce non potrà più impiegare lo stesso tempo in quanto, si affermava, un raggio inviato da A a B secondo la direzione del moto terrestre e poi tornato per rimbalzo ad A impiegherà un tempo maggiore (poiché B si allontana) rispetto al raggio inviato lungo la traiettoria AC-CA. Anche supponendo un etere, concepito come dinamico e non statico, il passaggio stesso della luce attraverso esso avrebbe dovuto segnare differenze di tempo stante la partecipazione dell’etere al moto terrestre con conseguente “deriva d’etere” o “trascinamento” o “vento d’etere”: il raggio di luce sarebbe stato più veloce e avrebbe impiegato un tempo minore nel percorrere la distanza secondo il vento d’etere che non risalendone la corrente in senso contrario. Di conseguenza, inviando un raggio luminoso una volta in direzione del moto terrestre e un’altra volta in senso contrario o perpendicolarmente a tale moto e viceversa, e insomma in varie direzioni, si sarebbero misurate le differenze nei tempi di percorrenza: ciò che avrebbe fornito la prova del moto terrestre e dell’esistenza dell’etere. Per primo J.C. Maxwell – nella voce Ether scritta per l’Enciclopedia Britannica – pose l’esigenza di un esperimento al riguardo volto a misurare la velocità dell’etere rispetto alla Terra. Senonché, come si sa, l’esperimento (condotto due anni dopo la morte di Maxwell) non rilevò nessuna differenza nei due tempi di 50
51
percorrenza della luce. La variazione prevista nella velocità della luce non risultò: i tempi di percorrenza dei due raggi luminosi, che non avrebbero dovuto avere la stessa velocità, risultarono equivalenti; i raggi luminosi impiegavano lo stesso tempo t per fare il tragitto ABA e ACA. La mancata rilevazione della discrepanza nei tempi dei due raggi luminosi di Michelson-Morley provocò sconcerto nella comunità scientifica, in quanto le conclusioni raggiunte sembravano assurde: era come se si fosse appurato che una barca, viaggiando alla stessa velocità, impiegasse tuttavia lo stesso tempo andando secondo corrente e contro corrente. Maxwell invero aveva anticipatamente detto che se anche l’esperimento non avesse consentito di misurare variazioni di velocità ciò non avrebbe significato che tali variazioni non vi fossero, in quanto una discrepanza avrebbe dovuto esservi certamente sebbene potesse essere così impercettibile da sfuggire anche ai più sofisticati mezzi di rilevazione: ma l’obiezione di Maxwell sembrò inficiata perché in seguito l’esperimento venne ripetuto parecchie volte, in condizioni sempre più affinate tali da rilevare l’effetto previsto anche se la Terra si muovesse a soli 5 km/s anziché a 30, e sempre diede la stessa risposta negativa. La discussione sugli esperimenti Michelson-Morley e la relatività Ne nacque un dibattito, e varie ipotesi ad hoc furono escogitate per spiegare il fenomeno. Una tentata soluzione dell’esperimento Michelson-Morley fu l’ipotesi della “compensazione degli scarti”: si suppose cioè che i tempi di andata e ritorno del raggio lungo la direzione terrestre fossero diversi e che tuttavia gli scarti, poiché il tempo aumenta in una direzione esattamente di quanto diminuisce nella direzione opposta, si compenserebbero e si annullerebbero reciprocamente in modo che il tempo del raggio all’andata risulti alla fine equivalente al tempo del ritorno, con equivalenza totale all’andata-ritorno dell’altro raggio. Viaggiando nella direzione terrestre a 300.000 Km/sec più 30 Km/sec. e poi tornando indietro nella direzione contraria a 52
300.000 Km/sec meno 30 Km/sec, il raggio di luce effettuerebbe dapprima un percorso più lungo secondo la direzione terrestre verso un punto B che si allontana e poi un percorso più breve contro la direzione terrestre verso un punto A che si avvicina come percorrendo una pedana mobile in senso contrario, ove però il minor tempo di percorrenza verrebbe annullato dal suo muoversi “controcorrente” contro l’attrito dell’atmosfera proveniente in senso opposto, cosicché agli aumenti di velocità in un senso corrisponderebbero diminuzioni della stessa quantità nel senso opposto. In un caso la luce avrebbe più spazio da percorrere ma meno attrito e nell’altro caso meno spazio da percorrere ma più attrito che ne rallenta la velocità, con conseguente annullamento finale e reciproca elisione degli scarti, cosicché i tempi del percorso ABA coincideranno alla fine con ACA: in tal modo proprio il moto terrestre spiegherebbe l’equivalenza dei tempi. Per quanto attiene al percorso ABA il fenomeno ricorda l’argomento di Galileo circa una freccia scagliata da un carro in moto mentre percorre cento braccia: Simplicio dice che la freccia percorrerà duecento braccia nella direzione cui il carro si avvicina e quattrocento braccia nella direzione opposta da cui si allontana, ma Salviati precisa che la velocità della freccia non è la stessa perché essa riceve un impeto di quattrocento braccia nel movimento del senso del carro (velocità del carro più velocità della freccia) e di sole duecento braccia nella direzione opposta (velocità della freccia meno velocità del carro) stante l’attrito contrario, cosicché con la conseguente compensazione le distanze risultano uguali28. Il fatto dunque che alla fine gli scarti si possano compensare non significa che la velocità sia sempre stata costante, proprio come chi impiega un’ora nell’andare in un luogo e un’ora nel tornare non necessariamente sarà sempre andato alla stessa velocità. Varie critiche vennero però avanzate circa la possibilità di questa compensazione ed elisione di tempi perfettamente esatta, e com-
28 G. Galilei, Dialogo sopra i due massimi sistemi del mondo, 1632, Giornata Seconda (in Opere, Torino 1964, Utet, vol. II, pp. 213-216).
53
prensibilmente: infatti nel percorso ABA vi sarebbe attrito solo lungo BA mentre nel percorso ACA vi sarebbe attrito doppio, sia in AC che in CA, donde l’inspiegata equivalenza dei tempi. Nel tentativo di comprendere le risultanze nulle dell’esperimento Michelson-Morley, fu molto discussa l’ipotesi della contrazione di G. FitzGerald e poi di H.A. Lorentz: supponendo che i corpi in moto compresa la strumentazione di rilevazione subiscano nel passaggio attraverso l’etere una contrazione per resistenza d’etere proporzionale alla velocità nella direzione del moto stesso, ne verrebbe che il conduttore da A a B nel senso del moto terrestre verrebbe accorciato cosicché il segnale luminoso percorrerà il tratto ABA nello stesso tempo in cui l’altro segnale, che non essendo lungo la direzione terrestre non subisce contrazione alcuna, effettua il percorso ACA. Ma è evidente qui il carattere ad hoc della spiegazione: a parte la compensazione nuovamente perfetta ma sospetta nelle differenze di tempi e distanze, in cui la contrazione agirebbe esattamente e precisamente in modo da colmare gli scarti, v’è da dire che tale contrazione, non essendo mai stata verificata e non essendo verificabile in quanto riguarderebbe anche i regoli e gli strumenti di misura (come disse una volta Poincaré, se noi e la stanza in cui siamo rimpicciolissimo esattamente nella stessa proporzione non si potrebbe rilevare che tutto è più piccolo), lascia il dubbio che non sia nulla di reale. In questa situazione così ingarbugliata risultava paradossalmente che solo tornando a sostenere l’immobilità della Terra si potesse spiegare il fenomeno, in quanto una Terra immobile e priva di “vento d’etere” – dunque non percorsa in senso ora favorevole ora contrario al moto – avrebbe spiegato l’ugual tempo di percorrenza dei raggi luminosi: ma naturalmente era piuttosto difficile porre seriamente in discussione il moto terrestre tornando a Tolomeo. Nel quadro di questa intricata discussione finirono per imporsi le conclusioni di Einstein. Egli infatti, peraltro dapprima senza discutere l’esperimento di Michelson quasi non lo conoscesse, tagliò la testa al toro (per usare l’espressione di Eddington) e troncò il dibattito scrivendo nel famoso articolo del 1905 che il concetto di ete54
re era superfluo (überflüssig): se l’etere non provoca rallentamenti nella velocità della luce e dunque non è rilevabile, disse, vuol dire che non esiste. Il passo fu veramente radicale: la rinuncia all’“etere” (variamente presupposto da Young, Fresnel, Faraday, Maxwell, Hertz, Kelvin, Poincaré, Planck, Lorentz) sembrava gravosa, perché esso – per i teorici dell’elettromagnetismo classico – non era altro che il “campo” che riempie e permea lo spazio costituendo il mezzo di trasmissione delle onde elettromagnetiche. Ma in realtà gli esperimenti di Michelson e Morley, come non ne dimostravano l’esistenza, così non dimostravano l’inesistenza dell’etere (come riconobbe anche Eddington29): né più né meno di come la luce, di cui si rileva lo stesso tempo in un percorso secondo la rotazione terrestre e in un altro contro tale rotazione e dunque contro l’atmosfera che ruota con la Terra, dimostri l’inesistenza dell’aria o l’immobilità della Terra. In realtà, se le risultanze degli esperimenti di Michelson-Morley avessero dimostrato l’inesistenza dell’etere, a maggior ragione avrebbero dimostrato l’inesistenza dell’aria che segue la rotazione terrestre o addirittura avrebbero dimostrato l’immobilità della Terra. Gli esperimenti di Michelson e Morley potevano tutt’al più dimostrare l’inesistenza di un etere soggetto a movimento, a trascinamento o deriva a causa del moto terrestre: perché in effetti un «vento d’etere», concepito quale «vento che attraversa gli alberi di un bosco» come nella metafora di T. Young (fondatore, con J.A. Fresnel, dell’ottica ondulatoria), dovrebbe essere verificabile in linea di principio in quanto un raggio di luce dovrebbe impiegare tempi diversi andando secondo o contro il “vento” d’etere. Ma le risultanze dell’esperimento di Michelson-Morley potevano essere compatibili con l’idea (quale fu ad esempio di Lorentz) di un etere immobile, o comunque di un plenum quale tessuto connettivo dello spazio, non trascinato dal moto terrestre: una barca impiegherà alla stessa velocità lo stesso tempo nello stesso percorso di andata e ritorno sulla superficie calma e ferma di un mare senza corrente, senza alcun 29
A.S. Eddington, Spazio, tempo e gravitazione, cit. p. 57. 55
bisogno di abolire il mare per spiegare tale identità di tempi. Si poteva dunque pensare non alla Terra in moto con l’etere bensì alla Terra in moto nell’etere e così dire: la luce viaggia in un etere immobile e in quiete proprio come la barca viaggia nel mare senza correnti e nell’aria senza “vento”. D’altronde lo stesso Einstein (come vedremo) ebbe modo di ricredersi al riguardo, visto che in seguito tornò a guardare con interesse l’ipotesi dell’etere. Senonché, l’intervento di Einstein apparve decisivo non semplicemente in merito all’abolizione dell’etere. Egli infatti applicò il principio di relatività galileiano onde spiegare le risultanze nulle dell’esperimento Michelson-Morley. Come si sa Galileo nel Dialogo aveva detto che, nonostante il moto terrestre, non si rileva alcuna differenza né di distanza né di tempi fra una palla di cannone sparata verso occidente e una sparata verso oriente: infatti il cannone partecipa al sistema terrestre con cui è solidale, cosicché trattasi di un sistema inerziale all’interno del quale è indistinguibile lo stato di quiete o di moto uniforme relativi. In altre parole, poiché il cannone partecipa al moto terrestre, secondo Galileo (che però non considerava l’atmosfera in rotazione con la Terra costituente attrito in un caso e non nell’altro) tutto avviene come se la Terra fosse ferma. Così, mutatis mutandis, secondo Einstein non si rileva nessuna differenza di velocità fra i due tempi di luce proprio come non la si rileva fra i due tempi delle palle di cannone. Poiché l’osservatore non rimane fermo mentre la Terra ruota ma si muove con essa, allora non risultano discrepanze. I due punti A e poi B verso cui si dirige la luce non si avvicinano né si allontanano con la rotazione terrestre: il tragitto AB percorso dalla luce si muove con la Terra cosicché i tempi di percorrenza saranno uguali. Così, se i tempi di percorrenza risultano uguali è perché lo sono veramente, e non come miracolosa equivalenza nella somma finale. La luce, inviata sulla Terra in qualsivoglia direzione, muovendosi con la Terra con cui fa tutt’uno non risente del moto del sistema terrestre cui appartiene, e tutto avviene a prescindere dal fatto che la Terra sia ferma o in moto. Dunque, ciò che gli esperimenti di Michelson e Morley dimostravano secondo Einstein è semplicemente che il moto della 56
Terra e della sua atmosfera non influisce e non mostra alcuna influenza rilevabile sui vari tempi di percorrenza della luce che avvengono in essa (come non la rivela sui fenomeni di riflessione, rifrazione, interferenza). Einstein affermò che se non si era riusciti attraverso gli esperimenti di Michelson-Morley a misurare il movimento della Terra era soltanto perché non si poteva riuscire non in quanto la discrepanza fosse troppo piccola come pensava Maxwell ma in quanto il movimento assoluto terrestre non è misurabile all’interno della stessa Terra, ciò per cui tale moto assoluto poteva essere eliminato. Questa era invero l’argomentazione decisiva di Einstein: l’applicazione del principio di relatività e non l’abolizione dell’etere. La relatività della costanza di c Infine, da questa applicazione del principio di relatività galileiano all’esperimento Michelson-Morley, Einstein trasse una conclusione importante e disse: poiché nei diversi tempi di percorrenza non si rileva discrepanza alcuna e la luce impiega lo stesso tempo nell’andare nell’un verso e nell’altro, poiché la velocità della luce non risulta aumentata o diminuita dall’andare secondo o contro la rotazione terrestre, allora ciò significa che la velocità della luce è sempre la stessa, è sempre costante: la sua velocità rimane immutata qualunque sia la posizione, di quiete o di moto relativo, dell’osservatore che misura. In questo modo Einstein si ricollegava a Maxwell, nelle cui equazioni il valore della velocità della luce di per sé (a prescindere cioè dall’attrito del mezzo) è costante, indipendentemente dal sistema di riferimento (in quiete o in moto) dell’osservatore, secondo l’assunto in seguito mantenuto anche da Lorentz e da Poincaré. Einstein dunque trasse la conclusione che la velocità della luce, risultando la stessa nei due casi e dunque indipendente dal moto terrestre, fosse sempre indipendente dal moto della sorgente (in questo caso la Terra), e che per la luce non valesse la regola classica di composizione delle velocità. Per questa regola una pietra 57
scagliata da un treno in corsa nel senso del moto avrà rispetto al suolo una velocità che è la somma della velocità del treno più la velocità impressa alla pietra, così come una persona in moto a 3 gradi di velocità sul ponte di una nave in moto a 30 gradi viaggerà rispetto alla Terra a 33 gradi se in moto nella stessa direzione della nave e a 27 se in direzione contraria. Viceversa invece secondo Einstein per la velocità della luce non si deve dire c+ae o c–ae a seconda che essa si avvicini alla sorgente luminosa o se ne allontani, a seconda che vada nel senso della rotazione o contro di essa (vale a dire secondo o contro attrito): essa sarebbe sempre costante quale che sia la velocità aggiunta. In tal modo il discorso sul sasso scagliato dal treno non si applica alla luce, in quanto la luce emessa da una sorgente che si muove verso di noi non ci apparirebbe più veloce di quella emessa da una sorgente che si allontana: essa non dipende dalla velocità (qualunque sia) della sorgente che la emette, e rimane la stessa sia che si muova la sorgente sia che si muova l’osservatore (si ritenne che una verifica ne sia data dalle stelle doppie, la cui luce risulta giungerci con la stessa velocità sia dalla stella che si avvicina sia da quella che si allontana). Così, aggiungendo alla velocità della luce c una qualunque altra velocità, la velocità della luce rimarrebbe indipendente da ogni accelerazione impressa, cosicché non potendo aumentare resta sempre c. In tal modo Einstein proclamò – dopo il principio di relatività – il principio della costanza della velocità della luce nel vuoto ovvero la costante c: con esso la velocità della luce diventava un tetto invalicabile, e si apriva la strada alla fisica relativistica. In effetti, sicuramente la velocità della luce rimane in sé la stessa, e cioè quasi 300.000 Km/sec, a prescindere dal moto della sorgente: già Fizeau aveva riscontrato la stessa velocità della luce sia in un fluido in quiete che in moto. Allo stesso modo, la velocità di un proiettile è sempre la stessa a prescindere dal fatto che sia sparato da un treno in corsa o da fermo. La velocità del treno in corsa non influirà sulla velocità del proiettile: il proiettile sparato a 100 Km/h dal treno in corsa a 100 Km/h e nella direzione del treno percorrerà prima la distanza e colpirà prima il bersaglio, perché il treno si avvicina, ma lo colpi58
rà sempre a 100 Km/h. La situazione insomma non è la stessa di quella di un pallone scagliato con rincorsa rispetto al pallone scagliato da fermo, perché in tal caso c’è una forza aggiuntiva impressa con la rincorsa mentre invece la velocità del treno non può aggiungere alcuna velocità al proiettile (sebbene poi la velocità del treno si farà sentire in quanto un proiettile sparato da un treno che si allontana dal bersaglio avrà un impatto minore dovendo superare un maggior spazio e quindi un maggior attrito). Così è per la luce: la luce emessa da un treno in corsa viaggia alla stessa velocità della luce emessa da un treno fermo; essa raggiungerà un istante prima l’osservatore posto sulla direzione, ma solo perché il treno nel frattempo si avvicina e non perché la luce vada più velocemente sommando la velocità del treno e la sua propria (in altre parole è una questione di distanza e non di velocità). Tuttavia, se pur ciò sia vero, ci si può domandare se le conseguenze siano in tutto quelle che ne trae Einstein. Anzitutto si può rilevare che la differenza nulla di tempi fra le due palle di cannone di Galileo si converte in una precisa differenza di tempi misurabile nel caso di orologi atomici: infatti nel 1971 si mostrò che un orologio atomico su un aereo facente il giro del mondo da ovest a est segnò (entro i limiti delle previsioni) 59 miliardesimi di secondo in più rispetto all’orologio che aveva viaggiato verso ovest. E ancora si può citare l’“effetto Sagnac” (1913), sempre trascurato dai relativisti, che rilevò indirettamente una sfasatura nei tempi30. Ma, a parte queste rilevazioni certe o supposte, v’è una questione di principio ancor più importante a considerarsi ed è la situazione dell’osservatore che cambia a seconda del fatto che egli sia interno o esterno al sistema. Un passeggero che cammini con lo stesso passo all’interno di un autobus impiegherà lo stesso tempo nell’andare dal fondo alla cabina di guida e poi nel fare il tragitto inverso, del tutto a prescindere dal fatto che l’autobus sia fermo o in moto e certo non dirà di andare più ve-
30 La questione è discussa in F. Selleri, Lezioni di relatività, Bari 2003, Progedit (dello stesso autore v. anche La fisica del Novecento. Per un bilancio critico, Bari 1999, Progedit).
59
locemente quando si muove nella direzione dell’autobus rispetto a quando è fermo; parimenti un osservatore immobile al centro di un vagone di un treno in moto misurerà che i due segnali luminosi da lui inviati impiegheranno esattamente lo stesso tempo nel toccare le due opposte pareti. Così, l’osservatore interno al sistema Terra in moto può non avere alcun modo di rilevare una differenza di tempi nella percorrenza dei raggi luminosi, ma questo non significa che tale differenza non vi sia: in realtà noi misuriamo lo stesso valore nella velocità della luce nelle sue opposte direzioni in quanto, essendo in moto con la Terra e non accorgendoci di tale moto che non risulta alla misurazione, misuriamo solo la velocità della luce che in effetti rimane quella, proprio come chi spara un proiettile da un treno in corsa, se non ha modo di rilevare il moto del treno, calcolerà solo la velocità del proiettile. Ma le cose sono diverse per un osservatore esterno al sistema: infatti come un osservatore in quiete relativa esterno al treno e all’autobus potrà dire che il proiettile sparato dal treno in corsa raggiungerà prima il bersaglio in quanto la velocità del treno si somma a quella del proiettile, e potrà dire che il passeggero viaggia in un caso sommando la propria velocità a quella dell’autobus e nell’altro caso sottraendola, così non si vede perché ciò non debba valere anche per la luce; di conseguenza un osservatore ipotetico in un altro sistema solare che veda la cosa dal di fuori potrà dire che, dato un segnale luminoso nella stessa direzione della Terra in moto, ne risulterà una velocità complessiva di 300.000 Km/sec. più 30 Km/sec. Proprio in questo senso Guillaume precisava che l’invarianza della velocità della luce vale solo all’interno del sistema nel quale è presente la luce: «si abbandona così il principio della costanza assoluta della velocità della luce che si sostituisce con la seguente convenzione: la velocità di un raggio luminoso è una costante allorché la si misura nel sistema che contiene il raggio. È una costante relativa».31
31 E. Guillaume, Sur la possibilité d’exprimer la théorie de la relativité en function du temps et des longueurs universels, in «Archives des sciences physiques et naturelles», 1917, 7, p. 50.
60
Così sembra si debba dire che in realtà non vi sia un vero motivo per violare per la luce la regola della composizione e addizione delle velocità; non si vede perché la regola di composizione delle velocità, correttamente intesa, non debba valere anche per la luce (come vuole la teoria balistica classica della luce): d’altra parte questa regola parla di velocità distinte e non di fusione di due velocità in una sola, né dice che la luce acceleri. In realtà le risultanze nulle dell’esperimento Michelson-Morley erano piuttosto scontate, e di per sé non depongono né a favore né contro il principio relativistico della costanza e insuperabilità della velocità della luce. In linea generale va detto che il principio einsteiniano della costanza della velocità della luce è soltanto un comodo postulato, peraltro già ammesso come tale da Lorentz e da Poincaré, onde approntare le misurazioni. Ma un comodo postulato non è una verità fisica. Scriveva Poincaré, circa il principio della costanza della velocità della luce: «questo è un postulato senza il quale nessuna misura di questa velocità potrebbe essere tentata, ma è un postulato che non potrà mai essere verificato direttamente dall’esperienza: potrebbe anzi esserne contraddetto»; semplicemente, «si adotta per la velocità della luce un valore tale che le leggi astronomiche compatibili con questo valore siano il più possibile semplici».32
32
J.H. Poincaré, La valeur de la science, Paris 1905, Flammarion, p. 55.
61
III La contrazione, la massa e la velocità Il problema della luce e della sua velocità appare indubitabilmente un elemento centrale all’interno delle questioni suscitate dalla teoria della relatività. Un altro problema che si pone, in questa teoria, riguarda il peculiare intreccio che ivi si stabilisce fra velocità (con particolar riferimento alla velocità della luce), contrazione e massa. Per il principio di inerzia proprio della fisica classica lo stato di quiete e lo stato di moto uniforme di un corpo sono equivalenti. Semplicemente, un corpo di per sé – se non perturbato da forze esterne – conserva indefinitamente il proprio stato, resta sempre come sta: ovvero, se è in quiete resta in quiete e se è in moto resta in moto. Per il principio di inerzia classico, in nessun modo il movimento di un corpo incide sul suo stato. Certamente però tale principio corrisponde in realtà a un’approssimazione piuttosto generale, quale quella in ultima analisi del senso comune per il quale il tavolo che vedo oggi è lo stesso che nello stesso luogo vedevo ieri e un oggetto non muta le sue proprietà per il fatto di essere scagliato via. In realtà il principio suddetto ha principalmente un valore ideale, perché in realtà una condizione di attrito e di perturbazione esiste sempre. Così, per quanto riguarda in particolare il moto, sappiamo (e, nonostante il principio di inerzia, lo sapeva già la fisica classica) che il movimento e la velocità in realtà non sono una condizione del tutto estrinseca ed accessoria che non tocca affatto il corpo mobile: sappiamo che il moto può produrre modificazioni nel corpo in moto, che lo stato di un corpo sottoposto a velocità viene alterato (come per l’attrito il volto di un motociclista ad alta velocità) e che un corpo in movimento non ha sempre le stesse caratteristiche del corpo in quiete. Ad esempio le forze gravitazionali che legano le masse tenderebbero di per sé – in assenza di sorgenti gravitazionali esterne – a costituire corpi sferici, donde la forma tendenzialmente sferica dei pianeti, senonché la rotazione assiale dei pianeti, generando spinte centrifughe, determina una configura62
63
zione particolare dei pianeti stessi causandone lo schiacciamento ai poli e il rigonfiamento equatoriale. Dunque un corpo sferico rotante tende a diventare un ellissoide, e dunque non è affatto indifferente che un corpo sia in stato di quiete o di moto: esso non resta lo stesso quando è in quiete e quando è in movimento. Svolgendo dunque certe considerazioni già proprie della fisica classica prima FitzGerald e Lorentz e poi Einstein hanno detto che lo stato di moto (pur uniforme) di un corpo, la sua velocità, non lascerebbe affatto indifferente il corpo stesso e comporterebbe variazioni notevolissime nel suo stato. Tali variazioni sarebbero praticamente impercettibili e dunque ininfluenti alle basse velocità, per le quali si intende che la meccanica classica possa continuare a fornire valide descrizioni approssimate, ma alle alte velocità, e soprattutto all’approssimarsi alla velocità della luce intesa quale velocità limite, tali variazioni diverrebbero addirittura abnormi e in alcuni casi rilevabili. Queste variazioni, per masse in moto a velocità paragonabili a quella della luce, sarebbero nella teoria della relatività ristretta essenzialmente tre: risulterebbe in primo luogo, in tale fenomenologia, una contrazione della massa nel senso del moto (la contrazione di FitzGerald – Lorentz di cui si è detto) e in secondo luogo un aumento della massa stessa. Con ciò la massa e la lunghezza di un corpo non sarebbero più qualità costanti come nella fisica classica, bensì relative e variabili, cosicché l’assunto della variazione della massa sembra violare il principio classico di conservazione della massa (sebbene per Einstein non víolino il più generale principio di conservazione dell’energia). In terzo luogo un orologio rallenterebbe sempre più con l’aumentare di v, infine arrestandosi alla velocità della luce; con esso il tempo stesso, alla velocità della luce, si arresterebbe e tutto apparirebbe fermo. Certo sembra subentrare qui un qualcosa di paradossale. Cerchiamo di capire meglio in quale modo si possa e si debba intendere, nella teoria della relatività, l’affermazione della variazione di lunghezza, massa e tempo in rapporto alla velocità.
64
Le strane metamorfosi della massa in contrazione Iniziamo considerando il primo punto, circa la deformazione degli oggetti in movimento, per la quale durante il movimento gli oggetti materiali (compresi i metri e gli strumenti di misura) si contrarrebbero accorciandosi nel senso di direzione del moto. Come sappiamo, FitzGerald e Lorentz hanno supposto tale contrazione per spiegare la differenza nulla nei tempi di percorrenza del raggio luminoso risultante all’esperimento di Michelson. In particolare Lorentz spiegò la contrazione dicendo che l’elettrone – concepito non rigido come quello di Abraham ma elastico – verrebbe deformato con la velocità a causa della resistenza dell’etere, cosicché l’elettrone di per sé sferico ma contratto per via del moto assumerebbe una configurazione ad ellissoide simile ad un pianeta in rotazione; egli ne concluse che analoga contrazione avrebbero tutte le particelle e che gli stessi corpi in moto veloce, in quanto composti di particelle, si contrarrebbero con la contrazione delle loro particelle. Le “trasformazioni di Lorentz” sono appunto volte a descrivere matematicamente queste relazioni fra velocità e lunghezza. L’effetto di contrazione sarebbe inavvertibile alle basse velocità: la lunghezza di un’automobile in moto diminuirebbe di uno spessore pari a un foglio di carta velina. Ma più un corpo viaggia velocemente più si contrae e tale effetto, pur inosservabile per la parallela contrazione dei regoli, aumenterebbe via via sempre più con l’approssimarsi alla velocità della luce. Così per Lorentz una sbarra di un metro, fatto prevalentemente di elettroni, viaggiando a un settimo della velocità della luce (42.000 Km/sec) sarebbe compresso dell’1% ovvero di un centimetro, mentre il diametro della Terra nel suo moto di rivoluzione si accorcerebbe di 6,5 centimetri. Invece Einstein sulle orme di Lorentz calcolò che a 260.000 Km/sec un corpo risulterebbe contratto di 1/2 dimezzando la sua lunghezza, e che in un razzo che proceda con velocità pari al 50 o al 99% della velocità della luce la riduzione della lunghezza sarebbe rispettivamente del 14% e dell’86%, finché alla velocità della luce la contrazione risulterebbe totale e l’oggetto sembrerebbe annullarsi e sparire magicamente nel nulla. 65
Senonché proprio qui subentra la differenza fra Einstein e Lorentz: infatti la contrazione delle lunghezze è stata interpretata da Lorentz come un reale effetto di distorsione di un oggetto in moto, in qualche modo paragonabile allo schiacciamento dei poli e al rigonfiamento equatoriale causato dalla rotazione terrestre o alla contrazione del volto di un motociclista ad alta velocità a causa dell’aria; invece Einstein intende la contrazione non come assoluta bensì anzitutto in termini di effetti relativistici, come relativa cioè ad un osservatore ma non ad un altro: in tal modo rilevandosi che un osservatore in quiete relativa calcolerà la lunghezza l di un oggetto in movimento con velocità v come accorciata rispetto al calcolo di un osservatore situato sull’oggetto in moto a cui tale contrazione non risulta, e differente rispetto ad un altro osservatore in moto relativo con differente velocità, cosicché dunque lo stesso corpo possa risultare di differenti lunghezze al calcolo di differenti osservatori, ovvero accorciato per un calcolo e non accorciato per un altro e ciò senza alcun bisogno di supporre una contrazione reale. Così a un osservatore fisso un veicolo in rapido movimento appare – o meglio risulta teoricamente – più corto, mentre ciò non accade per un passeggero a bordo: infatti Einstein prevede che, alla velocità della Terra (28 Km/sec), le lunghezze per un osservatore terrestre risulterebbero accorciate di un centomilionesimo, ma aggiunge che invece a un osservatore in quiete sul Sole la Terra, per via del suo moto, risulterebbe accorciata di qualche centimetro; parimenti un veicolo in viaggio a metà della velocità della luce risulterebbe a un osservatore immobile rispetto ad esso circa 7/8 più corto di quanto non apparirebbe ai suoi passeggeri, mentre se in viaggio a 259.000 Km/sec la sua lunghezza risulterebbe dimezzata all’osservatore in quiete relativa. Un altro noto esempio einsteiniano al riguardo fu quello del disco rotante: dato un disco rotante, disse Einstein, per via della contrazione un ipotetico osservatore interno al disco e rotante con esso e un osservatore esterno calcolerebbero valori diversi, comunque maggiori di p, per il rapporto fra diametro e circonferenza (in particolare per l’osservatore esterno il diametro rimarrebbe lo stesso ma la circonferenza sarebbe più piccola). 66
Dunque, che un corpo alla velocità della luce debba realmente contrarsi fino a praticamente perdere la sua lunghezza, così praticamente e magicamente annullandosi, è cosa che in realtà nemmeno Einstein ha mai affermato: «la contrazione – scrive Born – è soltanto una conseguenza del nostro modo di osservare le cose, non una variazione della realtà fisica»33. Scrive Reichenbach al riguardo: «la lunghezza è una grandezza definita solo in relazione ad un determinato sistema di coordinate. Fra un corpo in movimento e un regolo […] sussiste una relazione; ma a seconda del sistema di riferimento prescelto essa trova espressione ora come lunghezza di riposo, ora come contrazione o allungamento di Lorentz. Ciò che misuriamo come lunghezza non è la relazione fra i corpi, bensì solo la loro proiezione in un sistema di coordinate. Certamente possiamo formularla solo nel linguaggio di un sistema di coordinate, ma indicando al tempo stesso le formule di trasformazione per ogni altro sistema la nostra asserzione riceve un senso indipendente. […] Unicamente la lunghezza misurata in un qualche sistema può dirsi constatabile e quindi anche oggettiva. Ma essa è soltanto un’espressione della relazione reale. Ciò che prima veniva considerato come lunghezza geometrica non è una proprietà assoluta del corpo ma per così dire solo un rispecchiamento della proprietà basilare nella rappresentazione di un singolo sistema di coordinate. Ciò non significa una trasposizione del reale in una cosa in sé, poiché possiamo certamente formulare univocamente la relazione reale indicando la lunghezza in un sistema di coordinate e aggiungendo le formule di trasformazione; ma dobbiamo abituarci al fatto che la relazione reale non può essere formulata semplicemente come un rapporto numerico».34 Ove appare qui chiaramente che non di contrazioni o allungamenti reali trattasi (su cui nulla si può dire), bensì di contrazioni o allungamenti risultanti a un dato sistema di coordinate metriche
33 34
M. Born, La sintesi einsteiniana, cit. p. 302. H. Reichenbach, Relatività e conoscenza a priori, cit. pp. 145-146.
67
che variano con il moto relativo: a seconda del sistema di riferimento i coefficienti metrici saranno differenti, anche se date quattro coordinate a piacere se ne ricaveranno altre sei attraverso le regole di trasformazione che consentono il passaggio da un sistema all’altro. Senonché, se un corpo in moto risulta contratto non per l’osservatore interno ma solo al sistema di rilevazione di un osservatore esterno in quiete rispetto a quel corpo, e se viceversa un corpo in quiete relativa risulta contratto non all’osservatore interno bensì solo alla rilevazione di un osservatore esterno in moto, allora ci si può domandare perché non possa essere considerata «proprietà assoluta del corpo» la sua lunghezza data nel sistema di riferimento privilegiato di coordinate dell’osservatore interno al sistema, in quiete o in moto uniforme che sia. In realtà da questi esempi si vede bene che non si tratta di contrazioni assolute bensì di effetti relativistici ovvero di contrazioni apparenti relative e diverse per i differenti soggetti calcolanti: se un oggetto in moto risulta ai calcoli contratto per un osservatore in quiete relativa ma non per un osservatore in moto, allora diventa impossibile dire che esso sia realmente contratto. In questo caso così sembra veramente applicabile il principio di relatività, in quanto la lunghezza (apparente) dei corpi cessa di essere un valore assoluto e diventa relativa ai sistemi di riferimento, relativa cioè allo stato di quiete o di moto degli osservatori e dell’oggetto stesso. Possiamo anche fare riferimento al riguardo a noti effetti di fisiologia della percezione, in quanto nella percezione di un oggetto in moto molto rapido la distorsione della retina che ne consegue causa in effetti una distorsione dell’immagine: così un oggetto in moto rapidissimo si contrae per l’osservatore (fino a essere invisibile, come la ventola in rapido moto di un ventilatore) proprio come un oggetto che si allontana appare rimpicciolito. Ma allora quanto possiamo dire è che si tratti sostanzialmente di una distorsione percettiva, senonché si deve notare: la contrazione relativistica è calcolabile matematicamente ma non percettivamente osservabile. Non si tratta di una distorsione percettiva reale ma, al più, di una distorsione percettiva ideale. Il problema che qui si pone è l’inosservabilità in linea di princi68
pio di tale contrazione, non rilevabile né alle basse velocità perché minima né alle alte velocità in quanto concernente anche i regoli e riguardante casi mentali: infatti esperienze dirette volte ad accertare questa contrazione o i suoi effetti nelle proprietà ottiche ed elettriche dei corpi in moto – eseguite da Rayleigh (1902), Brace (1904) e da Rankine (1908) – non diedero naturalmente alcun risultato. Non si tratta soltanto del paradosso di Poincaré per cui se tutto rimpicciolisse nelle stesse proporzioni allora l’osservatore non potrebbe rendersi conto di nessun cambiamento, anzitutto in quanto la contrazione riguarderebbe anche i regoli – essi stessi in movimento – che dovrebbero rilevarla; si tratta anche, per le particelle, dell’inosservabilità simultanea della loro posizione e velocità stabilita dalle relazioni di Heisenberg. In realtà la contrazione delle lunghezze, originariamente escogitata ad hoc da Lorentz per fini estrinseci onde spiegare le risultanze nulle dell’esperimento Michelson-Morley, e per principio inosservabile, è un’ipotesi del tutto inverificabile. Va quindi precisato che non si tratta nemmeno di effetti relativistici reali risultanti ad effettive misurazioni empiriche, bensì soltanto di effetti magari reali ma sempre comunque puramente supposti e teoricamente calcolati in quanto inosservabili alle basse velocità e inverificabili alle alte come si vede negli inverosimili esperimenti immaginati da Einstein: infatti chi può misurare veramente la contrazione di sei centimetri del diametro della Terra in moto, quando naturalmente non si può effettuare il confronto empirico con il diametro della Terra a riposo visto che a riposo non è mai? Chi può misurare la lunghezza dimezzata di un corpo a 260.000 Km/sec? Chi può mettersi sul Sole a rilevare di quanti centimetri la Terra risulta più corta per via del suo moto? Chi può mettersi su un disco rotante alla velocità della luce o fuori di esso per calcolarne le diverse contrazioni? Tali rilevazioni sono impossibili di fatto per un osservatore esterno al sistema in moto, e impossibili di fatto ma anche per principio a un osservatore interno stante la supposta analoga contrazione degli strumenti di misura. Una contrazione reale dell’oggetto in moto è dunque inverificabile. In realtà nessuno rileva una contrazione: a tutti l’oggetto risulterà non 69
contratto ma con una propria lunghezza, e certamente è scorretto dire che la velocità abbia in sé il potere di contrarre la lunghezza di un corpo fino ad annullarla alla velocità della luce. Le strane metamorfosi della massa crescente Consideriamo ora la seconda ipotesi einsteiniana circa la relazione fra velocità e massa. Anche questo, in realtà, era già noto prima di Einstein per quanto riguarda le particelle: J. Thomson, lo scopritore dell’elettrone, fin dal 1880 aveva ipotizzato che la massa di una particella carica potesse dipendere dalla sua velocità; Lorentz, ipotizzando la contrazione della massa di un elettrone con la velocità, ne aveva anche parimenti ipotizzato l’aumento proporzionale fino al limite di una massa infinita alla velocità della luce; nel 1902 (e poi ancora nel 1906) W. Kaufmann tentò di verificare la dipendenza della massa dalla velocità per le particelle b, sebbene quando poi egli accelerò particelle radioattive ad alta energia non trovò alcuna variazione di massa; quindi F. Hasenöhrl dimostrò nel 1904 che la radiazione elettromagnetica di corpo nero all’interno di un recipiente chiuso aumenta la propria resistenza contro l’accelerazione, ciò che venne interpretato come un parallelo e concomitante aumento di massa. Peraltro nella sua celebre memoria del 1905 «sull’elettrodinamica dei corpi in movimento» (Zur Elektrodynamik bewgter Körper) Einstein pensava essenzialmente alle particelle, cosicché nel 1916 Bohr – sebbene con esiti ancora parziali – trattò la dinamica degli elettroni applicandovi non la meccanica di Newton bensì la relatività (ristretta) di Einstein, supponendo – secondo il suo primo modello planetario – che gli elettroni procedessero in un’orbita ellittica attorno al nucleo che occuperebbe uno dei fuochi dell’orbita, con aumento di velocità in prossimità del nucleo stesso e in pari tempo (su suggerimento di Sommerfeld) con aumento di massa dell’elettrone all’aumentare della velocità, ciò che genererebbe un avanzamento o precessione dell’orbita ellittica. Ma la variazione della massa con la velocità, pensata da Einstein anzi70
tutto per le particelle, era da lui ritenuta valida per ogni corpo: e fin dall’inizio egli generalizzò l’assunto in prima istanza valevole per casi speciali applicandolo – come recita il titolo della memoria – a tutta «l’elettrodinamica dei corpi in movimento». Questo è infatti il significato della celebre formula, suggerita se non proprio esplicitamente espressa in posizione del tutto marginale in uno degli articoli dell’annus mirabilis 1905, che dice e = m · c2 ovvero: la massa di un corpo non è costante bensì variabile, in quanto è una funzione della velocità da cui dipende ed aumenta quanto più ci si avvicina alla velocità della luce; più precisamente l’energia e equivale ad una massa m che varia alle alte velocità crescendo non direttamente con la velocità bensì con il quadrato della velocità della luce c, ciò da cui naturalmente si ricava m = e/c2 (si potrebbe vedere un paradosso in una teoria che proibisce velocità superiori a quella della luce presentando però nella sua più celebre formula il quadrato di tale velocità, se non fosse che c ha un referente fisico mentre c2 é un valore matematico). Al riguardo noi notiamo che già nella termodinamica classica il calore è movimento cosicché l’energia calorica cresce con il crescere del movimento delle particelle, i corpi caldi essendo quelli le cui particelle hanno la più alta velocità. Certamente però la formula einsteiniana conduce fino in fondo certe risultanze cui era pervenuta la fisica classica: essa precisa infatti che la massa – anche una minima quantità di massa – sviluppa un’energia enorme, anzi dice che la massa è energia “cosificata” e per così dire intrappolata, ciò che – come è noto – venne verificato nel 1938 attraverso la fissione del nucleo dell’atomo; e poiché una particella richiede una massa con una certa energia per essere in movimento, allora tale massa risulterebbe sempre più moltiplicata in energia quanto più ne aumenta la velocità, finché alla velocità della luce tale energia, e con ciò la massa della particella, diverrebbe infinita. Ne viene così la relazione, in linea di principio applicabile anche ai corpi macroscopici dell’esperienza, per la quale a ogni aumento di velocità di un corpo corrisponderebbe un aumento della sua massa rispetto alla massa dello stesso corpo in quiete. L’effetto, insignificante alle basse velocità, 71
diverrebbe abnorme a velocità prossime a quella della luce. Lo stesso Einstein ha quantificato il cosiddetto “aumento di massa” in rapporto alla velocità: così egli ha detto che la massa di un oggetto che viaggi al 10% della velocità della luce aumenterebbe dello 0,5% rispetto alla massa normale; alla metà della velocità della luce crescerebbe del 5%; al 70% della velocità della luce la massa del corpo aumenterebbe del 25%; a velocità superiori al 90% di c ne verrebbe più che raddoppiata e al 99% di c apparirebbe centinaia di volte maggiore. Infine alla velocità della luce la massa del corpo in moto risulterebbe infinita. La paradossalità dell’asserto relativistico che pone la massa in funzione della velocità è grande, poiché esso sembra violare i princìpi di conservazione della massa: è evidente infatti che questo aumento di massa con la velocità appare come una creazione di massa proporzionalmente all’energia cinetica. Eppure (come si è detto) per quanto possa apparire paradossale l’assunto relativistico aveva avuto dei precedenti assertori e, dopo la pubblicazione einsteiniana del 1905, sembrò sempre più confermato negli anni successivi. Si ripeterono infatti gli esperimenti di Kaufmann (A. Bucherer 1905, E. Hupka 1910, S. Ratnowsky 1911, G. Neumann 1914, K. Glitscher 1914, A. Sommerfeld 1915, C. Schäfer 1916, E. Guye e C. Lavanchy 1916, Nacken 1935) e le conclusioni vennero interpretate come una riprova della variazione e della creazione di massa con la velocità in accordo con i dati di Einstein. Quindi nel 1938 H. Ives riuscì ad accelerare atomi di idrogeno ad una velocità che era soltanto di circa sei millesimi inferiore alla velocità della luce, e infine questi esperimenti compiuti nei grandi acceleratori divennero una prassi normale. Così negli esperimenti compiuti al Cern di Ginevra dapprima si accelerò la massa dei protoni ed altre particelle fino al 95% della velocità della luce, portando alcune particelle a superare i 285.000 Km/sec, e in tal modo si vide che la loro massa risultava triplicata rispetto alla equivalente normale (detta “massa a riposo”). Quindi, aumentando ancora la velocità delle particelle, la loro massa risultò equivalente a trenta volte la massa normale. Quando poi, fornendo loro una quantità enorme di energia, si riuscì a spingere 72
gli elettroni fin quasi al limite della velocità della luce, ovvero ad una velocità che (essendone il 99%) era inferiore a quella della luce solo di pochi chilometri al secondo, la massa dell’elettrone risultò aumentata di circa novecento volte rispetto alla massa a riposo. Infine, quando si riuscì a accelerare l’elettrone a una distanza infinitesimale (pari a 0,999999999) dalla velocità della luce, allora la massa dell’elettrone risultò quarantamila volte la massa a riposo. Oggi sappiamo che se negli acceleratori facciamo collidere ad alta velocità due protoni vediamo che dopo la collisione avremo ancora i due protoni ma anche un eccesso di massa e dunque un’apparente creazione di materia fornita dalla comparsa di mesoni p. I risultati vengono interpretati dicendo che la velocità dei due protoni alla fine del processo è inferiore a quella iniziale esattamente di quel quantum che è stato tradotto in mesoni e dunque in nuova massa: tot energia cinetica persa tot massa guadagnata o creata sotto forma di mesoni. Una parte della velocità dei protoni appare trasformata in nuova materia. Così l’acquisto di velocità sembra creare massa e specularmente la perdita di velocità sembra compensata, nuovamente, dalla creazione di massa (peraltro i princìpi di conservazione sarebbero salvi perché alla perdita di massa corrisponderebbe un guadagno di energia corrispettiva). Sembrerebbe dunque che la predizione teorica di Einstein (a suo tempo contestata come puramente arbitraria da Poincaré) sia stata pienamente verificata, e tuttavia ci si deve chiedere quale sia la corretta interpretazione della fenomenologia osservata. Infatti la massa della particella accelerata alla prossimità della velocità della luce risulta equivalente a novecento o quarantamila volte la massa normale, ma questo perché? Si è forse effettivamente misurato l’aumento di massa fino a novecento o quarantamila volte? In realtà no: in alcun modo è mai stato rilevato empiricamente tale aumento di massa (anche stante la difficoltà posta dai princìpi di indeterminazione che vietano la conoscenza simultanea della posizione e della velocità della particella); nessuno constata che la massa delle particelle in questione sia di per sé effettivamente e realmente aumentata in prossimità della velocità della luce. Semplicemente, poiché 73
Einstein ha posto il postulato dell’insuperabilità della velocità della luce, allora si è posto che una particella non può essere accelerata fino a tanto perché in tal caso la sua massa aumenterebbe fino a valori infiniti: l’abnorme aumento della massa servirebbe proprio ad impedire che l’aumento della velocità giunga a toccare il valore limite della velocità della luce. Stante che tanto più i movimenti si fanno rapidi quanto più le particelle risultano pesanti e si muovono meno rapidamente, allora si dice: se vediamo che una particella avvicinandosi alla velocità della luce non aumenta ulteriormente la propria velocità, allora questo significa che la sua massa è nel frattempo aumentata e proprio ciò impedisce ulteriori aumenti di velocità. Ma questo non è altro che un truismo: in base al quale, notando che non posso spingere un carrello oltre a una data velocità, potremmo dire che non posso fare questo perché a partire da un certo punto il carrello è improvvisamente diventato pesantissimo come un vagone merci, e altrettanto plausibilmente potremmo dire che se Tizio che è molto magro corre a 20 Km/h e corre più velocemente di Caio che è grasso, allora poiché Tizio non riesce a superare i 20 Km/h questo vuol dire che nel frattempo è ingrassato acquistando molta massa, e che se io accelero sempre più la mia auto e poi mi accorgo che a un certo punto non riesco ad andare oltre questo sarà perché l’auto ha nel frattempo acquistato massa; laddove invece naturalmente avviene semplicemente che manca la forza per spingere il carrello oltre una data velocità, e parimenti che Tizio e l’auto hanno toccato la velocità massima che non possono superare, e non certo che il carrello, Tizio e la mia auto abbiano miracolosamente acquistato massa. L’aumento di massa risulta in effetti una spiegazione molto grossolana della fenomenologia osservata. Un pallone scagliato con grande velocità avrà un forte impatto nel colpire un bersaglio, e si può anche dire che questa potenza di impatto sia pari a quella che avrebbe un pallone di maggior massa scagliato con minor velocità: ma anche se venendo colpiti in volto da un pallone scagliato ad alta velocità l’impatto sarà tale da far pensare di essere stati colpiti da una grossa pietra, in realtà la massa del pallone non è affatto aumentata con la velocità. 74
Eppure è proprio per questo che nella teoria della relatività si definisce la massa non più – classicamente – come «quantitas materiae», bensì come «massa inerziale» che resiste all’accelerazione impressa: perché certo, se per massa di un corpo si intende la resistenza del corpo a un cambiamento, allora diventa lecito dire che, se una particella evidenzia una resistenza crescente a superare la velocità della luce, allora questo significa che ne sia aumentata la massa. Ma in realtà non dobbiamo dimenticare che questa massa aumentata è soltanto una resistenza crescente ad un’ulteriore accelerazione: ciò che in realtà si constata è che una data particella non può essere accelerata oltre un certo limite, mentre per nulla affatto la sua massa risulta in sé effettivamente aumentata. Appare così impropria la stessa definizione di massa come “resistenza all’accelerazione”: tale definizione infatti porta a dire che un corpo non ulteriormente accelerato né ulteriormente accelerabile abbia aumentato la sua resistenza con un improvviso e misterioso aumento di massa, mentre invece è più corretto dire semplicemente che in questi casi è l’accelerazione stessa a non poter essere ulteriormente aumentata oltre un certo limite. Dunque è scorretto dire, come si legge nei testi sulla relatività, che la velocità modifica la massa di un corpo aumentandola sempre più. In realtà nelle esperienze di laboratorio in cui si dice di verificare l’aumento della massa con la velocità, si verifica semplicemente – per quanto potenti siano gli acceleratori e l’energia immessa – che la particella ha toccato la sua velocità limite e con essa la sua impossibilità ad essere ulteriormente accelerata fino a superare la velocità della luce. Quello che al più si può dire ai fini di una corretta interpretazione della fenomenologia osservata è che una particella, non potendo essere accelerata fino alla velocità della luce, all’approssimarsi a tale velocità aumenta la propria resistenza all’accelerazione come se la sua massa (la cosiddetta “massa inerziale”) fosse aumentata in modo tale da resistere a ulteriori accelerazioni. Se la massa è una misura della resistenza di un corpo a essere accelerato, allora si può anche dire in un certo senso che quando un corpo resiste ad ulteriori accelerazioni ciò equivalga a un aumento di massa. Così si possono fare i calco75
li e si può dire: la resistenza all’accelerazione della particella è aumentata esattamente come se la sua massa fosse aumentata di trenta o novecento o quarantamila volte. Infatti per la seconda legge newtoniana la massa oppone una resistenza all’accelerazione indotta dalla forza impressa e dunque, in presenza di una massa molto maggiore, si spiegherebbe l’impossibilità di un’ulteriore accelerazione. Ma se tutto accade come se la massa della particella aumentasse con la velocità, ciò naturalmente non significa affatto che la massa sia da sé realmente e miracolosamente aumentata. Allo stesso modo, il pallone scagliato ad alta velocità che ci colpisce avrà un impatto ben maggiore che non se fosse stato scagliato a piccola velocità, e noi possiamo anche calcolare matematicamente quanto quell’energia cinetica si traduca in una forza d’impatto equivalente ad una massa maggiore, proprio come se il pallone avesse una massa maggiore: ma questo non ci autorizza affatto a dire che il pallone ad alta velocità ha aumentato la propria massa rispetto a quando era fermo. La massa di per sé non aumenta con la velocità: il moto di per sé certamente non crea materia. In realtà se veramente di materia aggiunta si tratta, questa proverrà da qualche parte. La cosa è stata ben compresa, negli anni in cui Einstein poneva in relazione l’aumento di massa con la velocità, da Abraham. Anch’egli infatti spiegò la fenomenologia dell’elettrone ponendone la massa in funzione della velocità: i suoi coefficienti, diversi sia da quelli di Lorentz che di Einstein, non risultarono adeguati come invece si rivelarono quelli di Einstein, ma la cosa interessante era la spiegazione che Abraham dava della fenomenologia. Egli infatti affermava che, poiché per la teoria di Maxwell una carica elettrica in movimento crea forze e campi magnetici, allora un elettrone in movimento con carica negativa aumenterebbe la sua massa tramite i campi addizionali generati. Così, se la massa della particella accelerata è realmente aumentata, questo secondo Abraham può avvenire solo per una massa adveniens extra, aggiunta dall’esterno: e in effetti noi oggi sappiamo che la stessa forza applicata che imprime l’accelerazione con ciò stesso trasmette una massa supplettiva alla particella accelerata, quella stessa massa che, 76
aumentando sempre più con l’aumentare dell’energia impressa dalla forza accelerante, oltre un certo limite impedisce ulteriori accelerazioni. Nei tubi degli acceleratori vengono applicate alle particelle delle forze enormi, oltre che campi elettrici intensissimi, e proprio queste forze applicate (e non un mitico limite di velocità) determinano con l’aumento della velocità l’enorme aumento di massa della particella. Così la particella accelerata, come l’elettrone di Abraham, può aumentare la massa non miracolosamente ma in quanto con le forze impresse, e la conseguente velocità spinta fino ai limiti della velocità della luce, si producono radiazioni termiche, campi di forza, campi elettromagnetici frenanti. Dunque questo aumento di massa non è certo un qualcosa di magico e di miracoloso, che sorga dal nulla a frenare le eccessive velocità delle particelle: la particella aumenta di massa non perché si avvicina alla velocità della luce ma solo perché più viene bombardata e “caricata” di massa più sviluppa campi magnetici frenanti. Paradossalmente, occorre un’energia e dunque una massa crescente per accelerare una particella fino alla velocità della luce ma proprio tale massa-energia aggiunta impedisce il raggiungimento di c rendendo la particella troppo pesante. Quindi l’aumento di massa è perfettamente concepibile in termini classici come causato dall’immissione di materia. Anche per quanto riguarda l’altro fenomeno sperimentalmente indotto di cui si è detto, e spiegato con la trasformazione dell’energia cinetica persa in massa, occorre precisarne l’interpretazione corretta. Se due protoni collidono ad alta velocità e dopo la collisione ne abbiamo gli stessi due protoni che procedono più lentamente ed in più dei mesoni, non è affatto corretto dire che la velocità persa dai protoni si sia miracolosamente trasformata in nuova massa sotto forma di mesoni: è più plausibile invece dire che l’alta velocità ed energia cinetica iniziale dei protoni ha generato nella collisione dei mesoni, proprio come fra due auto che si toccano a bassa velocità nel parcheggio non avviene nulla di significativo mentre invece in una collisione ad alta velocità esse scagliano detriti e pezzi di lamiera, oltre a generare onde sonore e quindi rumore, ma senza che perciò si debba dire che la velocità di per sé abbia creato materia; quel77
lo che è avvenuto con la collisione dei protoni che rilasciano mesoni è equiparabile a quanto avviene quando una valigia piena cadendo si apre rilasciando il suo contenuto. È vero che nella collisione dei protoni (a differenza della collisione fra auto) ne abbiamo un aumento di massa che sembra addirittura costringere ad una revisione della validità assoluta dei princìpi di conservazione, ma è comunque ipotizzabile nel processo un’immissione esterna di massa ad opera dei campi magnetici coinvolti. In ogni modo l’aumento o la creazione di massa nel processo di collisione non è più misterioso di quanto avviene con l’aumento di massa di una gattina incinta, e in ogni caso non ha alcun senso comprensibile (se non quale espediente onde salvare i princìpi di conservazione) l’affermazione che la velocità persa si sia direttamente trasformata in materia. Nuovamente, l’acquisto di massa non è un miracoloso effetto diretto ma solo indiretto della velocità. Ma – si dirà – c’è la formula, e con quella non si scherza. Senonché, la stessa celeberrima formula einsteiniana e = m · c2, che definisce l’aumento della massa con la velocità, non piove dal cielo ed è piuttosto il punto finale di un percorso che si diparte dalla fisica classica. Già Hasenöhrl, traducendo in formula la resistenza crescente della radiazione da corpo nero all’accelerazione e collegando l’energia alla massa, aveva scritto la fatidica equazione e = m · c2: non a caso Einstein diceva, con una battuta che si può applicare a lui stesso, che «il segreto della creatività sta nel saper nascondere le proprie fonti» («The secret to creativity is knowing how to hide your sources»). Come si sa nella meccanica classica l’energia cinetica è equivalente alla metà del prodotto della massa moltiplicata per il quadrato della sua velocità, per cui si poneva E =
m · v2 (anche 2
la formula che compare in una memoria per il Reale Istituto Veneto delle Scienze di uno sconosciuto scienziato dilettante italiano, O. De Pretto, che secondo il matematico U. Bartocci avrebbe a dir poco ispirato Einstein, si muove ancora sostanzialmente in questo am78
bito): Einstein (che indubbiamente sviluppò le implicazioni di quella formula oltre Hasenöhrl e De Pretto) doveva dunque, su quelle basi, raddoppiare il valore della massa moltiplicato per il quadrato della velocità togliendo il denominatore, e portare idealmente la velocità del corpo alla velocità della luce, identificando v con c per giungere a e = m · c2, da cui risultava un’energia diecimila miliardi di volte maggiore che nella formula classica. Ma circa l’identificazione di v con c si noterà che la formula einsteiniana è stata approntata sia per rendere impossibile una velocità superluminale sia per ricavarne un’energia infinita alla velocità della luce. Infatti la formula completa sarebbe
v2 . In essa se v = c, c2
E=
ovvero se la velocità di cui si parla è equivalente a quella della luce (presupposto del ragionamento), allora anche v2 = c2 e ne consegue che
= 1, cosicché ne viene E =
→
= ∞ da cui Einstein
ricava che l’energia è non zero se la velocità è zero (ovvero che un corpo fermo racchiude un’energia enorme) e che invece essa sarebbe infinita alla velocità della luce. Parimenti Einstein ricava dalla sua formula che v non può mai essere maggiore di c perché in tal caso ponendo al denominatore v > c si avrebbe un numero superiore a 1, e 1 meno un numero superiore porterebbe a un numero negativo in radice e dunque un numero immaginario, col che ne avremmo un’energia non quantificabile nel campo reale. In tal modo, come si vede, con la sua formula Einstein ritiene di aver dimostrato sia che l’energia diverrebbe infinita alla velocità della luce sia che non si può superare tale limite: si introducono così “correzioni relativistiche” per mostrare che la velocità di un corpo, quando si avvicina alla velocità della luce, diventa asintotica approssimandosi quindi sempre più a tale limite senza mai raggiungerlo. Ma perché l’energia diverrebbe infinita alla velocità della luce e perché tale velocità non può essere superata? 79
La risposta alla fin fine è: perché la formula di Einstein, opportunamente predisposta proprio per ricavarne questo, non lo permette. L’energia diverrebbe infinita a c perché la formula dà un valore infinito, e la velocità di c è insuperabile perché nella formula verrebbero radici di numeri negativi. In realtà un valore al numeratore diviso per zero non dà propriamente un valore infinito ma semmai indefinito, non quantificabile, ma siccome Einstein interpreta il prodotto dell’equazione come un valore infinito, allora eccone ricavata l’energia infinita di un corpo alla velocità della luce. E appare qui l’“imperialismo algebrico” stigmatizzato da Duhem, che pretende di dire al mondo cosa deve fare in base ad un’equazione. Se la realtà dice che un corpo, ad esempio una particella, può avvicinarsi alla velocità della luce pur restando la sua energia ben al di sotto di un valore infinito, se l’esperienza dice che lo stesso fotone viaggia appunto alla velocità della luce senza per ciò sprigionare un’energia infinita, se la realtà sembra dire che probabilmente si rilevano particelle con velocità superluminale (e torneremo su tutto ciò), ebbene peggio per la realtà: non è infatti la formula che deve cercare di tradurre numericamente il mondo, è il mondo che deve obbedire alla formula del matematico. Nessun sospetto che la formula possa contenere parametri incongrui, nessun sospetto che la formula, come tante altre formule ed equazioni matematiche applicate al mondo fisico comprese quelle di Galileo, Keplero e Newton, possa essere valida con approssimazione soltanto entro ambiti definiti. La formula non si tocca, cosicché la cosa ricorda molto la storiella del calabrone a cui le leggi ed equazioni della fisica impedirebbero di volare ma che vola egualmente perché per sua fortuna lui non le conosce.
IV La velocità e il “tempo rallentato” Die Uhr mag stehn, der Zeiger fallen Es soll die Zeit für mich vorbei.* (W. Goethe, Faust, vv. 1705-1706)
Dopo la supposta ma inverificata e inverificabile contrazione e dopo lo pseudo-aumento di massa dei corpi con la velocità, consideriamo ora il terzo assunto, per il quale con il moto il tempo si dilata e scorre più lentamente – donde il suo carattere relativo e non assoluto – cosicché con la velocità un orologio dovrebbe rallentare e infine fermarsi alla velocità della luce. Einstein disse che una forza di accelerazione, e dunque una velocità impressa, come provocherebbe una apparente contrazione relativa all’osservatore e un aumento di massa del corpo, così modificherebbe ogni ritmo di frequenza abbreviandolo. Così egli disse che il moto modifica il ritmo di un orologio, alterando il movimento delle lancette come qualsiasi altro movimento periodico: l’orologio di un osservatore in movimento andrebbe più lentamente di quello di un osservatore in quiete, e fra due osservatori in movimento l’orologio che più rallenta sarebbe quello che subisce la massima velocità. Al riguardo Einstein immagina l’esperienza di due orologi, posti l’uno al centro e l’altro alla periferia di un disco rotante, affermando che il secondo – possedendo più velocità – segnerà il tempo a un ritmo più rallentato del primo35: così (come notò nell’articolo del 1905 Sull’elettrodinamica dei corpi in movimento) un orologio posto all’equatore, a causa della maggiore velocità della rotazione terrestre, procede più lentamente di una frazione in-
* «S’arresti l’orologio, cada giù la lancetta, per me finisca il tempo». A. Einstein – L. Infeld, L’evoluzione della fisica, cit. p. 239.
35
80
81
finitesimale (un decimilionesimo di secondo al giorno) rispetto a un orologio posto a un polo, praticamente in quiete poiché posto sull’asse centrale della rotazione terrestre. Un altro esempio riportato da Einstein è quello di un aereo in volo, sul quale un orologio rimane indietro di una frazione infinitesimale rispetto a un orologio terrestre. Questi rallentamenti alle basse velocità sono di lievissima entità (anche perché nel caso di un aereomobile in volo il rallentamento dell’orologio dovuto al movimento viene parzialmente annullato, come vedremo parlando della relatività generale, dalla sua accelerazione a causa dell’affievolirsi della gravitazione terrestre), ma divengono significativi ed evidenti con l’aumento della velocità cosicché ad alte velocità comparabili a quella della luce un orologio dovrebbe rallentare sempre più. Einstein al riguardo portò l’esempio ideale di un’astronave la cui accelerazione determina nell’orologio dell’astronauta un rallentamento non solo rispetto all’orologio di un osservatore fermo, ma anche rispetto al ritmo precedente dello stesso orologio in volo. Ai suoi calcoli risultò che un orologio accelerato alla metà della velocità della luce, dunque a circa 150.000 Km/sec, apparirebbe rallentato di circa il 13%. Di conseguenza sembra venirne questo: poiché, approssimandocisi alla velocità della luce, non soltanto i nostri orologi ma anche tutti i ritmi di frequenza e dunque tutti i nostri processi biologici e organici rallentano il loro ritmo, allora se noi ci allontanassimo dalla Terra per venti anni a una velocità prossima a quella della luce invecchieremmo molto meno di chi rimane sulla Terra: noi non ce ne accorgeremmo ma, tornando, saremmo invecchiati solo di dodici anni mentre per chi rimane a terra saranno passati venti anni; e se poi ci allontanassimo dalla Terra proprio alla velocità della luce, allora non invecchieremmo affatto. Da qui il celebre, e a dire il vero sconcertante, esperimento mentale (Gedanken Experiment): il “paradosso dei gemelli”, surrealmente inventato da P. Langevin e poi ripreso da Einstein. Il gemello B se ne va su un’astronave muovendosi a una velocità prossima a quella della luce, mentre il gemello A rimane a casa; quando B torna dopo vent’anni sarà invecchiato di soli dodici anni, mentre A sarà invecchiato di vent’anni: di conse82
guenza i due gemelli non saranno più gemelli. A potrà dire a B: «hai 40 anni ma ne dimostri 20!». Al che B potrà replicare perfido: «no no: ho 28 anni; sei tu che ne hai 40, e li dimostri tutti!». Nel celebre film 2001 Odissea nello spazio si mette in scena proprio un uomo che, tornato a casa dallo spazio, trova il suo gemello molto invecchiato e in punto di morte. Dal che se ne deduce insomma che viaggiare fa bene, mantiene giovani, e quanto più velocemente andate tanto meglio è (evidentemente per questo Schumacher porta così bene i suoi anni). Ci si può ora naturalmente domandare quali verifiche sperimentali siano mai possibili nei casi puramente teorici immaginati da Einstein, con astronavi che viaggiano in prossimità della velocità della luce et similia et alia, ma in realtà si commetterebbe un errore perché verifiche almeno parziali delle sue predizioni teoriche sono state effettuate con risultati significativi. Così Ives nell’esperimento (già ricordato) del 1938, dopo aver misurato la frequenza di vibrazione e oscillazione di un elettrone in un atomo di idrogeno, accelerando degli atomi di idrogeno in un tubo di vetro (grazie all’applicazione di un potente campo elettrico) a una velocità inferiore di soli sei millesimi a quella della luce trovò che negli atomi accelerati la frequenza di oscillazione degli elettroni rallenta, ovvero che il tempo necessario all’emissione di una vibrazione è più lungo, e che l’elettrone così accelerato decade più lentamente che non alla sua velocità normale ovvero ha una vita media più lunga. Parimenti, pur essendo i rallentamenti degli orologi di lievissima entità alle basse velocità, essi tuttavia sono stati rilevati con orologi atomici: come si è già ricordato, è stato verificato (Hafele-Keating 1971) che, su due aerei in volo facenti il giro della Terra in direzione opposta, alla fine del viaggio l’orologio atomico sull’aereo in volo verso est misurerà rispetto all’orologio terrestre un lievissimo ritardo quantificabile in 59 nanosecondi (ovvero 59 miliardesimi di secondo), mentre l’orologio atomico sull’aereo in viaggio verso ovest misurerà rispetto all’orologio terrestre un anticipo di 273 nanosecondi, cosicché nel primo caso si è calcolato che il ritardo sarebbe di un secondo ogni 100.000 anni. 83
Queste verifiche almeno parziali impongono così di considerare con attenzione anche gli esperimenti puramente mentali e teorici di Einstein, in sé non verificabili ma comunque rispondenti a un calcolo, come il paradosso dei gemelli. Ma soprattutto queste verifiche parziali pongono il problema della corretta interpretazione della casistica presentata, e della plausibilità delle radicali conseguenze che ne trae Einstein. Rilievi sul paradosso dei gemelli Riconsideriamo dunque i nostri gemelli relativistici e domandiamoci: siamo sicuri che, in base alla relatività ristretta, il gemello in volo invecchi solo di dodici anni in vent’anni? Al riguardo, chi ha cercato di contestare la forza probante del paradosso (come ad esempio il filosofo H. Dingle), dicendo che in realtà i due gemelli invecchiano allo stesso modo, ha argomentato ritorcendo il principio di relatività contro la teoria della relatività stessa, adducendo la reciprocità della situazione. In effetti per il principio di relatività non v’è modo di distinguere all’interno di un sistema dato fra quiete e moto rettilineo uniforme, trattandosi in entrambi i casi di situazioni inerziali: l’astronauta in moto è fermo all’interno dell’astronave e come sulla Terra in moto tutto sembra avvenire come se fosse ferma, come all’interno della nave di Galileo la goccia d’acqua cade perpendicolarmente sia che la nave sia ferma sia che sia in moto uniforme, così si è potuto affermare che la velocità dell’astronave – essendo costante per la gran parte del viaggio – non influirebbe minimamente sulla frequenza dell’orologio dell’astronauta e sui suoi ritmi biologici. Inoltre si è rilevato che se anche sull’astronave i ritmi dell’orologio dovessero rallentare, anche qui si avrebbe una situazione di reciprocità relativistica: infatti, poiché possiamo considerare in moto tanto l’uno quanto l’altro gemello in quanto per la teoria della relatività l’astronauta può con pari diritto cinematicamente considerare se stesso fermo e la Terra che si allontana in movimento, allora anche l’orologio di A, che rimane a terra e non su84
bisce accelerazioni né sganciamenti dal campo gravitazionale terrestre, appare rallentato per B in volo perché il segnale luminoso inviato da A per giungere a B impiega lo stesso tempo del segnale inviato da B ad A. Di conseguenza l’osservatore in quiete relativa A vede rallentare l’orologio in movimento di B ma anche B che è in moto vede rallentare l’orologio a riposo di A: così in realtà l’orologio del gemello in volo rallenta solo rispetto all’orologio del gemello a casa e, viceversa, l’astronauta vede rallentato l’orologio del gemello rimasto a terra e non il suo. A questi argomenti i teorici della relatività hanno opposto la mancanza della reciprocità della situazione, in quanto l’accelerazione di B alla partenza, la sua decelerazione e successiva accelerazione al momento dell’inversione della rotta e infine la decelerazione al ritorno costituirebbero quattro momenti di oggettivo mutamento di moto. Questi momenti di accelerazione/decelerazione subiti dall’astronave non hanno alcun equivalente nella situazione del gemello a casa: essi vengono indubitabilmente avvertiti ed esperiti solo dal gemello in volo che ne è pienamente consapevole, cosicché se dal punto di vista puramente cinematico si può dire che per il gemello in volo è l’altro che si allontana non si può però dire che il gemello a casa acceleri, inverta la rotta e deceleri cosicché la perfetta simmetria e reciprocità della situazione è rotta. Ora, precisamente questi momenti di accelerazione e decelerazione esperiti e avvertiti dall’astronauta (pur costituendo frazioni di tempo infinitesimali in un viaggio ventennale) sarebbero tuttavia sufficienti per modificare irrimediabilmente le frequenze dell’orologio e i ritmi biologici tutti dell’astronauta (proprio come negli acceleratori in pochi secondi vengono modificate le frequenze delle particelle), cosicché egli per questo al ritorno risulterebbe indubitabilmente più giovane del gemello a casa. Si potrebbe qui ribattere che, se alla fine i teorici della relatività hanno ammesso di fronte alle obiezioni che non è il moto e la velocità in sé a produrre le modificazioni di frequenza negli orologi e nei ritmi biologici ma solo i momenti di accelerazione, allora il paradosso dei gemelli sia un pochino ridondante: perché mai sottoporre 85
l’astronauta ad un duro e solitario viaggio ventennale in cui, per ammissione, nulla viene modificato rispetto alla quiete terrestre, se non nei rari istanti di accelerazione? Non bastava far partire l’astronauta con una bella accelerata e poi farlo subito tornare a casa, per verificare la modificazione delle frequenze? Inoltre, si potrebbe anche ribattere che in realtà l’accelerazione alla partenza con conseguente rallentamento dell’orologio e ritardato invecchiamento venga esattamente compensata (in una situazione ideale) con la decelerazione al ritorno con conseguente aumento di frequenza dei battiti dell’orologio e invecchiamento precoce, e parimenti dicasi per la compensazione fra la decelerazione e successiva accelerazione alla virata di ritorno (senza contare che la virata potrebbe essere fatta su un arco così grande da non comportare né decelerazioni né accelerazioni), cosicché alla fine i “più” e i “meno” si annullino e tutto torni come prima e il gemello al ritorno abbia la stessa età del gemello a casa. Si potrebbe infine aggiungere che, sempre dal punto di vista cinematico, è stato proprio Einstein a rilevare che un passeggero su un treno può anche non avvertire l’accelerazione del treno in partenza, potendo egli avere l’impressione che a partire sia il treno dirimpetto che rimane indietro. Tuttavia questo sarebbe un modo troppo facile di chiudere il discorso: simili obiezioni costituirebbero in realtà un fraintendimento del paradosso che va piuttosto contestato per altra via. Infatti, anche se è vero che il moto dell’astronave – essendo rettilineo uniforme per quasi tutto il viaggio ventennale e dunque indistinguibile dalla quiete – di per sé non altera (prescindendo dai tempi infinitesimali delle accelerazioni) le frequenze dell’orologio dell’astronauta, è vero però che per l’osservatore a terra l’orologio del gemello procede veramente a rilento. Dunque, ammettiamo pure che i due gemelli sappiano quello che fanno, e cioè che uno sia in volo con accelerazioni alla partenza e dopo la virata e che l’altro sappia di essere fermo a terra; e ammettiamo anche che le frazioni infinitesimali di tempo di accelerazione alla partenza e dopo la virata causino il ritardo dell’orologio dell’astronauta, ammettendo anche che tali ritardi vi siano e non vengano annullati con esatta compensazione dalle rispettive decelerazioni. 86
Ci si chiede però: a cosa sono dovuti questi ritardi? E qui si deve rispondere: non alla velocità in sé, non all’accelerazione in sé, bensì semplicemente ai tempi di trasmissione dei segnali luminosi. In realtà un orologio non rallenta perché si trova ad altissima velocità, uniforme o anche accelerata che sia: è che, per un osservatore in quiete relativa, l’orologio dell’astronauta in volo scandisce sempre lo stesso tempo percorrendo però nel frattempo una grande distanza, ciò che viene registrato con un certo ritardo dall’osservatore (il gemello terrestre) che così può ritenere di rilevare un battito più lento dell’altro orologio. I due orologi sono sincronizzati alla partenza, ma poi allontanandosi il gemello in volo come da accordi preventivi emetterà poniamo alle ore 17.00 del giorno convenuto un segnale luminoso che dice “sono le 17” e questo segnale raggiungerà il gemello a terra poniamo alle 17.01: per entrambi sono le 17 al momento dell’emissione, e le 17 è l’ora concordata per l’invio, ma il gemello a terra poiché riceve il segnale alle 17.01 potrà pensare che l’orologio del gemello in volo sia in ritardo e proceda più lentamente. In realtà l’orologio dell’astronauta continua a marcare i secondi, come sulla Terra, con la stessa frequenza e regolarità ma mentre in un secondo l’orologio a terra marca una distanza di 30 Km pari alla velocità del moto di rivoluzione terrestre, in quello stesso secondo l’orologio sull’astronave sfiorando la velocità della luce percorre quasi 300.000 Km: sull’astronave l’orologio segna gli intervalli sempre allo stesso modo ma fra un secondo e l’altro, stante le altissime velocità, si snoda uno spazio enormemente maggiore equivalente a quasi 300.00 Km per ciascun secondo. Così, più aumenta la velocità del gemello in volo (e tanto più in caso di accelerazione), più aumenta la distanza dal gemello a terra; più aumenta la distanza più aumenta il tempo impiegato dal segnale luminoso per raggiungere il gemello a terra; più aumenta il tempo impiegato dal segnale luminoso per raggiungere la Terra più l’orologio dell’astronauta apparirà lento al gemello a casa. Di conseguenza il secondo orologio può apparire rallentato o addirittura quasi fermo, mentre invece in realtà esso continua a cronometrare i secondi esattamente come l’orologio terrestre e se appare più lento rispetto ad 87
esso è soltanto perché nel frattempo si interpongono sempre più distanze enormi. Quindi non è che l’orologio di B vada più lento alle alte velocità: è che il segnale luminoso inviato da B a A, dovendo percorrere un lungo cammino (via via maggiore), impiega un certo tempo (via via crescente) nel giungere ad A che registra questo maggior tempo come un rallentamento dell’orologio di B. Non è il tempo di B che rallenta, non è che B legga un’ora diversa sul suo orologio: il tempo dell’orologio di B rallenta nella rappresentazione di A; è A che si rappresenta B leggere un’ora diversa. Questo appare alla rilevazione equivalente a un rallentamento, ma in realtà l’orologio non ha rallentato. Dunque non è corretto dire che l’orologio dell’astronauta ha “rallentato” rispetto a quello terrestre: non è l’orologio che ha rallentato, bensì è l’astronave che va molto veloce; l’orologio sull’astronave non rallenta bensì resta indietro rispetto all’orologio terrestre. Anzi: l’orologio dell’astronauta resta indietro (non rallenta!), rispetto all’orologio a terra, proprio perché esso non ha modificato punto il suo ritmo. Non si tratta dunque di una reale modificazione di frequenza, essendo l’astronauta quasi sempre in situazione di moto uniforme inerziale assimilabile alla quiete e da essa praticamente indistinguibile, bensì è un problema di trasmissione e di recezione del segnale luminoso connesso al segnale orario. Se l’orologio sull’astronave rallenta rispetto all’orologio terrestre, questo significa che esso ha registrato una modificazione di frequenza della luce e per nulla affatto che il tempo abbia rallentato e scorra diversamente. L’equivoco sta qui: non si tratta di un tempo relativo, che si accorcia e si allunga a fisarmonica, bensì semplicemente di spazi e distanze molto diverse percorse in uno stesso tempo. Pensare diversamente, pensare a un reale rallentamento del tempo è improprio come se qulcuno, viaggiando in aereoplano e cambiando fuso orario, credesse che l’orologio della nuova località vada più lentamente o più velocemente del suo, o addirittura credesse di essere ringiovanito o invecchiato di un certo numero di ore, mentre naturalmente gli orologi – pur scandendo ore diverse – procedono con lo stesso ritmo e non con ritmi diversi. Così i due ge88
melli percepiscono la stessa cosa l’uno dell’altro: ciascuno trova che l’orologio dell’altro ritarda. Di conseguenza A, vedendo la lentezza dell’orologio di B, calcolerà che il viaggio di B in astronave dura meno di vent’anni; mentre B, vedendo la lentezza dell’orologio di A rispetto al suo, calcolerà che il suo viaggio duri più di vent’anni: in realtà ciascuno dei due gemelli in base al proprio orologio può considerare l’altro ringiovanito. Tutto dipende allora dal sistema di riferimento usato: se si considera come sistema di riferimento l’astronave, allora l’astronauta potrà anche ritenere di tornare a casa più vecchio del gemello; ma se come sistema di riferimento si sceglie la Terra, allora il gemello a terra si riterrà più vecchio quando il gemello in astronave tornerà a casa. Ma cosa avverrà realmente quando i due gemelli si ritroveranno vent’anni dopo? Forse l’astronauta ritroverà il fratello più giovane e lui più vecchio mentre invece il sedentario troverà l’astronauta più giovane e se stesso più vecchio? Può forse essere che ciascuno dei due sia al tempo stesso più vecchio e più giovane dell’altro? E cosa faranno a questo punto i gemelli, si accapiglieranno per stabilire chi è più giovane e chi più vecchio, ciascuno dei due dicendo che l’altro è il più giovane? Probabilmente entrambi i gemelli rifiuteranno con sdegno la teoria della relatività, perché ciascuno riterrà che essa abbia il nefasto potere di far ringiovanire l’altro ed invecchiare se stessi: ma in realtà si tratta soltanto di una errata valutazione pur risultante ad un esatto calcolo matematico. In pratica non succede niente: v’è solo stata una modificazione di frequenza di un orologio rispetto a un altro quando i due gemelli erano lontani, ma quando essi si ritrovano e possono confrontare direttamente le ore dei rispettivi orologi anziché ricavarle indirettamente, vedranno che gli orologi segneranno la stessa ora. Ciascuno dei due gemelli riteneva che l’altro non invecchiasse ma invece, ahimé, alla fine del viaggio si ritroveranno entrambi più vecchi perché saranno passati vent’anni e ciascuno sarà invecchiato al suo ritmo normale. In conclusione l’estensione del principio di relatività all’ambito biologico, e dunque l’idea che la cosiddetta relatività del tempo modifichi i ritmi biologici, appare un’estrapolazione indebita. E anche contraddittoria: infatti per la teoria della re89
latività ogni frequenza e con essa il tempo si arresterebbe alla velocità della luce, cosicché un uomo alla velocità della luce perverrebbe all’immortalità eterna: ma in realtà solo nel senso della morte, perché se ogni frequenza si arresta allora si arresterà anche la frequenza del battito cardiaco. Dunque un coacervo di contraddizioni segue all’applicazione della relatività all’ambito del biologico. Torneremo al paradosso dei gemelli, perché in seguito la teoria della relatività generale ha imposto di riconsiderarlo con riguardo anche agli effetti gravitazionali, passibili di modificare le frequenze a prescindere dalle distanze: per ora ci limitiamo a dire che, in base alla relatività ristretta, il rallentamento degli orologi si rivela un’apparenza relativistica e non un rallentamento reale del tempo.36 I ritmi e le frequenze Diverso è invece il caso (precedentemente ricordato) dello sfasamento dei tempi sui due orologi atomici in volo in direzioni opposte. Qui non è questione di distanze interstellari crescenti registrate come rallentamenti di orologi, sia perché i due aerei si muovono entrambi nell’atmosfera terrestre sia perché non semplicemente durante il viaggio ma proprio al loro ritorno gli orologi atomici non segnano la stessa ora bensì evidenziano effettivamente degli sfasamenti in nanosecondi. Senonché, il risultato di questo esperimento sembra più contraddire che confermare il principio di relatività: infatti proprio in nome del principio di relatività Galileo aveva detto che le due
36 Del resto sembra ormai appurato che il paradosso dei gemelli si spiega ancor più plausibilmente in termini di trasformazioni inerziali che presuppongono parametri assoluti (di spazio, tempo, velocità e simultaneità) che non nei termini della teoria della relatività (cfr. R. Manaresi, Il paradosso dei gemelli, in AA.VV., La natura del tempo. Propagazioni superluminali – Paradosso dei gemelli – Teletrasporto, Bari 2002, Dedalo, pp. 113-142). Una critica al paradosso dei gemelli venne anche da Whithead, all’interno della sua riflessione sulla relatività.
90
palle di cannone sparate in direzioni opposte verso ovest e verso est avrebbero avuto la stessa velocità ed avrebbero impiegato lo stesso tempo, stante la coappartenza dell’atmosfera al sistema terrestre in un sistema inerziale, ma Galileo non considerava che la stessa atmosfera è in rotazione con la Terra per cui in un caso (quando la palla di cannone viaggia in senso contrario alla rotazione terrestre) v’è un maggiore attrito, cosicché in realtà i tempi delle due palle di cannone (se misurati con la massima precisione) non sono esattamente gli stessi. Un discorso simile può farsi per i due aerei. Proprio il fatto che oggi le precisissime misurazioni fornite dagli orologi atomici, in grado di cronometrare i miliardesimi di secondo, misurino tempi diversi per i due aerei (e lo stesso sarebbe per le palle di cannone) mostra che questo esperimento in realtà smentisce anziché confermare la teoria della relatività: infatti per il principio einsteiniano la velocità dovrebbe rallentare le frequenze degli orologi sugli aerei in volo, mentre invece nell’esperimento del 1971 tali frequenze appaiono in un caso rallentate e ritardate di 59 nanosecondi ma nell’altro caso anticipate di ben 273 nanosecondi. Anche sapendo che in quest’ultimo caso nell’accelerazione dell’orologio di 273 nanosecondi circa 179 nanosecondi di accelerazione (rispetto all’orologio terrestre) sono dovuti all’accelerazione delle frequenze dovuta alla debolezza del campo gravitazionale ad alta quota (si tornerà su questo rallentamento gravitazionale delle frequenze), resta il fatto che per arrivare a 273 rimangono circa altri 94 nanosecondi di accelerazione delle frequenze che smentiscono la predizione relativistica del rallentamento delle frequenze con la velocità. È dunque evidente che occorre cercare una spiegazione del fenomeno in termini non relativistici, cercando di capire perché gli orologi atomici dei due aerei segnino alla fine tempi sfasati in nanosecondi, e la ragione più plausibile sembra questa: l’aereo che viaggia da est verso ovest, procedendo contro la rotazione terrestre che procede invece da ovest verso est, nel fare il giro della Terra percorrerà una distanza minore (perché la velocità contraria della rotazione terrestre andrà sottratta) e dunque impiegherà un tempo infinitesimo minore, donde l’anticipo dell’orologio che non ha affatto accelerato i suoi battiti. Viceversa l’aereo che viaggia da 91
ovest verso est, procedendo nello stesso senso della rotazione terrestre (la cui velocità andrà sommata alla velocità dell’aereo), percorrerà una distanza maggiore: impiegherà dunque un tempo lievemente maggiore, donde il “ritardo” apparente dell’orologio che rimane indietro ma non ha affatto rallentato per la velocità. Anche in questo caso sembra così trattarsi di un problema di velocità e di distanze maggiori o minori (che vanno ora sommate ora sottratte) e dunque di tempi logicamente diversi, ma non di reali rallentamenti o accelerazioni del tempo. In realtà, nell’esperimento degli aerei gli orologi appaiono funzionare come cronometri e non come orologi, e solo questo sembra spiegare la sfasatura dei tempi. Cerchiamo ora di dire meglio cosa intendiamo affermando che il rallentamento apparente degli orologi e delle frequenze non costituisca un rallentamento del tempo né un allungamento della vita. Al riguardo si potrebbe semplicemente notare che se il tempo di decadimento di un muone, e dunque la sua vita media, si allunga con il crescere della sua velocità, questo è soltanto perché le particelle più veloci, sfuggendo più facilmente alle attrazioni e alle collisioni esterne, sono meno deviate di quelle lente e ne subiscono meno gli effetti di disintegrazione. Se mi si consente il paragone è un po’ come avviene nel film Casino Royal, dove l’agente 007 sfugge ai proiettili del nemico (e quindi vive più a lungo) perché corre sotto il fuoco nemico da un pilastro all’altro: avrà anche avuto un pizzico di fortuna, ma certo se si fosse messo a passeggiare da un pilastro all’altro avrebbe offerto un bersaglio molto più facile. Così avviene in certo modo per la particella, ma l’allungamento del suo tempo di decadimento, e dunque della sua “vita”, non dipende dalla velocità o almeno non direttamente: l’alta velocità della particella è semplicemente ciò che consente una maggior probabilità di evitare per un certo tempo le collisioni e con esse i decadimenti. A questo però si può aggiungere un’ulteriore e fondamentale osservazione. Quando Ives registra che il suo elettrone portato ai limiti della velocità della luce vibra più lentamente, erroneamente ne deduce che tale rallentamento equivalga ad una dilatazione del tempo, mentre invece il rallentamento della frequenza è dovuto ad un effet92
to Doppler di allontanamento. In realtà il tempo dell’elettrone non si è affatto “dilatato” come una fisarmonica: il continuum temporale dell’elettrone, la sua “linea”, è sempre la stessa, è sempre quella. Semplicemente, tale linea appare “punteggiata” e scandita da un numero minore di vibrazioni o frequenze perché così appare alla rilevazione. Trattasi qui di un “effetto relativistico” che va correttamente inteso: la modificazione risultante di una frequenza/lunghezza in caso di accelerazione e velocità ancora non significa una modificazione temporale. Un’arancia rimane la stessa sia che la si divida in 4 o in 8 o in 16 spicchi; un metro rimane sempre un metro sia che lo consideri fatto di dieci decimetri o di cento centimetri. Si prenda un metro (= linea del tempo) e si segnino su di esso dieci punti (= dieci frequenze): se ora i punti risultano cinque (= rallentamento delle oscillazioni), non si deve dire che il metro si è allungato: sono i punti che risultano dimezzati. Così se io misuro la distanza fra Torino e Milano con lo stesso metro con cui misuro la stanza il metro apparirà cortissimo, ma in realtà il metro è sempre un metro e non si è affatto accorciato: semplicemente la distanza da misurare, molto più lunga, fa apparire corto il metro. Parimenti accelerare o ritardare una frequenza significa che ad esempio in un dato intervallo le battute sembrano passare da cinque a sette o da cinque a tre. Questo genera la percezione di un intervallo di tempo variabile in quanto se in esso le scansioni appaiono aumentate così da risultare sette battute allora l’intervallo temporale apparirà contratto e il tempo più veloce, e se invece le scansioni appaiono diminuite così da risultare tre battute allora l’intervallo temporale apparirà disteso e dilatato e il tempo più lento: però l’intervallo temporale rimane sempre lo stesso anche se in esso le battute sembrano aumentare o diminuire, anche se l’intervallo sembra contenerne cinque o sette o tre37. In realtà le “battute”, le frequenze degli orologi sono sempre quelle: esse ri-
37 Devo dire (a conferma della genesi a volte eterodossa delle idee) che la mia giovanile passione per la batteria e il ritmo musicale ha influenzato la presente discussione antirelativistica (che sarà ripresa nel cap. XI e XII) sul ritmo temporale.
93
sultano di più o di meno alla rilevazione solo perché le distanze e di conseguenza i tempi di percorrenza possono essere maggiori o minori. Se A e B percorrono in un minuto cento metri il primo facendo venti passi e il secondo facendone quaranta, A non può dire che B ha rallentato e B non può dire che A ha accelerato; se invece calcoliamo una battuta al metro e A percorre 100 metri e B ne percorre 101, A misurerà 100 battute e B ne misurerà 101 e la battuta in più risulterà solo dall’aumentato spazio. Nella fattispecie, per le onde elettromagnetiche tutte si rileva normalmente la stessa velocità che è quella della luce, e quindi gli stessi tempi di percorrenza, del tutto a prescindere dalla loro frequenza e lunghezza: i raggi x ad alta frequenza energetica (cioè ad alta densità di “punteggiatura” nel continuum) hanno la stessa velocità delle onde radio a bassissima frequenza. Certo si potrebbe dire che i punti del continuum non sono ininfluenti sul continuum in quanto lo costituiscono: le frequenze di vibrazione e di oscillazione, cioè, costituiscono l’onda stessa che vibra e oscilla cosicché a minori oscillazioni corrisponda un’onda più “stesa” e dunque più lunga, con conseguente maggior tempo di percorrenza dell’onda stessa. Ma anche così dicendo non si tratterà di “dilatazione del tempo”: l’onda impiegherà un tempo maggiore per effettuare il proprio percorso per il semplice fatto che deve percorrere più strada, senza contare che va rifiutata una immagine rozzamente realistica dell’onda. Così, se le frequenze di emissione degli atomi mutano, questo non significa affatto che siano mutati i processi temporali all’interno dell’atomo: significa solo che risultano mutate, e talora mutate semplicemente al rilevatore lontano, le frequenze di emissione. Nel caso dunque del cosiddetto “rallentamento del tempo” non è che fra l’una e l’altra emissione vi sia un tempo più lungo: semplicemente, risultano meno emissioni. Non è il tempo che si è dilatato bensì sono le vibrazioni atomiche che – in quel tempo – risultano meno frequenti, ma solo perché l’aumento di velocità fa apparire nella distanza una apparente minor frequenza. Nella fattispecie, più aumenta la velocità più aumenta la dilatazione dei periodi, ovvero l’intervallo (spaziale e non temporale) fra un periodo e l’altro e questo è proprio quanto avviene nel caso di orolo94
gio sottoposto a accelerazione e a velocità: l’orologio mantiene i suoi battiti ma lo spazio intercorso fra un battito e l’altro aumenta enormemente nell’avvicinarsi alla velocità della luce. I “battiti” quindi non aumentano o diminuiscono realmente: essi sono sempre gli stessi ma, con la velocità, aumenta lo spazio fra un battito e l’altro. La percezione di un aumento o di una diminuzione dei “battiti” è quindi in realtà data dall’aumento o dalla diminuzione degli spazi a causa della velocità: ove però gli spazi non si espandono né si contraggono bensì semplicemente vengono percorsi con maggiore o minore velocità e dunque con maggiore o minor tempo.
95
V Le colonne d’Ercole della velocità della luce Già Newton riteneva finita per quanto alta la velocità della luce, e proprio nel XVII secolo essa venne per la prima volta misurata da O. Roemer con buona approssimazione: ciò per cui la velocità della luce, per il fatto stesso di essersi rivelata misurabile, apparve una velocità finita. L’ultima e più precisa misurazione, effettuata da J. Foucault e A. Fizeau nel 1849, stabilì per la luce una velocità che si avvicina a 300.000 Km/sec. In seguito si verificò che, mentre la velocità di propagazione dell’onda acustica (340 metri/sec) è molto inferiore a quella della luce, altri tipi di onde viaggiano alla velocità della luce senza però mai superarla. Così, siccome in nessun fenomeno si riscontrò una velocità maggiore della velocità della luce, allora Einstein ne dedusse che nessun corpo può viaggiare con velocità superiore ad essa. Ma in realtà Einstein non fu condotto soltanto da una sorta di banale generalizzazione induttiva empirica (del tipo: non ho mai visto un corvo bianco dunque non esistono corvi bianchi) a negare la possibilità di una velocità superiore a quella della luce, bensì piuttosto dal ragionamento che paventava conseguenze assurde e paradossali nel caso di una velocità superluminale, implicanti la rottura e il totale stravolgimento dei nessi temporali e causali. Ad esempio38: un segnale luminoso emesso da A alle ore 12 giunge in B alle 12.02; ma se contemporaneamente inviamo da A un segnale superluminoso che percorra AB impiegando tre minuti meno della luce, allora esso giungerà in B tre minuti prima ovvero alle 11.59, e quindi assurdamente giungerà ancor prima di partire. Siccome dunque appariva che superare la velocità della luce vorrebbe dire tornare assurdamente indietro nel tempo allora, proprio per evitare simili paradossi, fu posta l’impossibilità di superare quella velocità. Questa insuperabilità della velocità della luL’esempio è di H. Reichenbach, Da Copernico a Einstein. Il mutamento della nostra immagine del mondo, cit. p. 49. 38
96
97
ce fu posta da Einstein anzitutto per la luce stessa: nemmeno la luce, cioè, potrebbe superare quella che noi ne conosciamo come la velocità propria: infatti per la teoria della relatività la velocità della luce è qualcosa di assoluto, ed è – nel vuoto – intesa come una costante (una costante era già per Maxwell, ma non nel vuoto ponendo egli l’etere). Per questo Einstein disse che la velocità della luce, appunto perché in sé costante se non ostacolata, è indipendente dalla velocità della sorgente. In tal modo Einstein suppose che in natura non possa assolutamente esservi una velocità superiore alla velocità della luce. La teoria della relatività parla proprio di una barriera insormontabile al riguardo. Per essa la velocità della luce è una soglia massima, un culmine insuperabile, un limite, un tetto invalicabile, un maximum oltre il quale nec ultra. Qui insomma sarebbero le autentiche e insuperabili “colonne d’Ercole” della fisica che, se toccate, produrrebbero i più mirabolanti arcani. Se già dunque la velocità comporterebbe significative modificazioni in un corpo in moto, alla velocità della luce tali modificazioni diverrebbero abnormi. Prodigiosi arcana et mirabilia avverrebbero, dice Einstein, se mai un corpo in moto raggiungesse la velocità della luce: a) la lunghezza del corpo in moto, apparendo sempre più diminuita con l’aumentare della velocità, risulterebbe tendere a zero avvicinandosi a c e infine risulterebbe nulla con conseguente scomparsa del corpo; b) la massa del corpo, variando in funzione della velocità e aumentando sempre più con l’aumentare della velocità, diverrebbe infinita alla velocità della luce; c) un orologio, rallentando sempre più con l’aumentare di v, si arresterebbe alla velocità della luce e con esso si arresterebbe il tempo stesso. Insomma la velocità della luce sarebbe quella miracolosa velocità toccata la quale (ché superarla è vietato) gli orologi si fermano, il tempo si arresta, la massa diviene infinita, le lunghezze si contraggono a zero e con esse anche il volume.
98
L’impossibilità di superare la velocità della luce sembrò in effetti verificata in quanto negli acceleratori si osservò che la velocità normale delle particelle poteva essere artificialmente alterata e le particelle potevano essere spinte a una velocità sempre più prossima a quella della luce, ma tuttavia tale velocità veniva sempre e solo sfiorata senza che mai potesse essere raggiunta né tantomeno superata. Si constatava che, quanto più la velocità della particella accelerata si avvicinava a quella della luce, tanto più diventava difficile accelerarla ulteriormente: per quanti sforzi si facessero, per quanto si cercasse di applicare ulteriori forze acceleranti, si ottenevano soltanto accelerazioni infinitesimali, senza che mai la velocità della luce potesse essere non dico superata, ma nemmeno toccata. Tutto avveniva come se, all’avvicinarsi della soglia della velocità della luce, la natura opponesse una barriera sempre maggiore; come se, all’avvicinarsi della soglia, prodigiosi arcani si moltiplicassero smisuratamente proprio per impedire un ulteriore incremento di velocità, come se un muro sempre più spesso impedisse alle particelle di andare oltre. Come si è detto, si interpretò il fenomeno dicendo che la massa delle particelle cresceva esponenzialmente quanto più esse si avvicinavano alla velocità della luce: essa era tripla al 95% di c, ma a velocità appena superiore aumentava di trenta volte, al 99% di c di novecento volte, al 99,9% di quarantamila volte. Si pensò così non solo che la massa delle particelle risultasse aumentata con la velocità, ma soprattutto che essa risultasse aumentata in tale enorme misura all’approssimarsi della velocità della luce, proprio in modo tale da non consentire ulteriori aumenti di velocità affinché la velocità della luce non potesse essere superata. I falsi paradossi della velocità superluminale Senonché: noi abbiamo mostrato precedentemente come l’aumento di massa in questione abbia carattere fittizio e non reale ma, anche ammesso che tale aumento sia reale e che una particella alla velocità della luce raggiunga veramente una massa infinita, o alme99
no una resistenza all’accelerazione calcolabile come equivalente a una massa infinita, allora ci si domanda perché ai fotoni, che continuamente toccano quella velocità, non succeda nulla. Forse solo le particelle di luce possono viaggiare alla velocità della luce senza che la loro massa diventi infinita o risulti equivalente a un valore infinito? In realtà proprio per sfuggire a questa contraddizione Einstein ha assurdamente supposto il fotone privo di massa (e dopo il fotone lo stesso si è detto per il neutrino), quasi esso fosse energia pura smaterializzata: perché, se il fotone avesse una massa, allora secondo l’assunto relativistico dovrebbe avere una massa infinita (o rivelare un valore di resistenza all’accelerazione equivalente ad una massa infinita) alla velocità della luce. Ma invece la luce indubbiamente è corporea ed ha massa: lo dimostra la collisione fra due fotoni che può generare un elettrone (e si ritiene anche un positrone) che, per quanto leggero, certamente ha massa, e lo dimostra anche il fatto che la luce pesa (e solo ciò che ha massa può pesare) poiché essa, cadendo su un piccolo disco (contenuto in una sfera di vetro nel cui interno è stato ottenuto un vuoto molto spinto), esercita una “pressione di radiazione” che ne determina un piccolo rinculo all’indietro (esperimento di P. Lebedev); in particolare la luce solare cadendo sull’intera superficie terrestre esercita, un po’ come la pioggia, una pressione di radiazione quantificabile in 300 milioni di tonnellate sufficienti addirittura a spostare la Terra se non fosse per l’opposta forza gravitazionale solare. Inoltre, oltre ai fotoni, molte altre onde – anzi secondo Maxwell tutte le onde elettromagnetiche – viaggiano alla velocità della luce senza che con ciò la loro massa diventi o anche solo appaia equivalente a una massa infinita. Infine ci si potrebbe domandare come sia possibile che tale massa infinita stia in un volume nullo a lunghezza nulla. Se è paradossale l’idea di un corpo che alla velocità della luce risulti contratto fino ad annullarsi, e se paradossale è l’idea di un corpo che alla velocità della luce aumenti la propria massa all’infinito, certamente ancor più paradossale e sconcertante sono le due cose insieme: ci si può domandare insomma come possa un corpo o una particella alla velocità della luce contrarre la propria lunghezza fino ad annullarla, così 100
perdendo ogni dimensione, e contemporaneamente aumentare all’infinito la massa diventando una sorta di punto ad energia infinita. Non ci dilunghiamo su ciò, poiché abbiamo visto che la contrazione è solo un effetto relativistico e l’aumento di massa tutt’al più l’equivalente matematico di una resistenza inerziale da parte di una massa introdotta dall’esterno quale fattore accelerante: tuttavia poniamo il problema, perché più oltre vedremo che queste domande torneranno in sede cosmologica. Affrontiamo ora l’altro aspetto, forse ancora più paradossale, della teoria della relatività al riguardo: come si è detto infatti essa, affermando che con l’aumento di velocità un orologio e con esso tutti i ritmi di frequenza rallentano e parimenti presupponendo la velocità della luce come un limite massimo di velocità, afferma che in prossimità di tale limite l’orologio e ogni frequenza dovrebbe quasi arrestarsi, e quindi arrestarsi del tutto una volta raggiunto tale limite con conseguente sospensione e annullamento del tempo. Il pittore surrealista Salvador Dalì ha rappresentato queste situazioni con i suoi celebri “orologi molli”; ma possiamo anche ricordare Paris qui dort (Parigi che dorme), un film muto del 1923 di René Clair ove si immagina la storia di uno scienziato (e vi compare l’immagine di Einstein) che, grazie alla scoperta di un raggio magico, blocca all’improvviso la vita di Parigi in un’immobilità e in un silenzio irreali, e poi la accelera e la rallenta a piacere: il senso dell’arresto del tempo vi è dato dal fatto che le persone così fissate e bloccate nell’attimo non si rendono conto, una volta ritornate alla normalità, del tempo passato che è invece percepito dalle poche persone sfuggite all’incantesimo (e sfuggite perché provenienti per aereo, ovvero da un’altezza dove il raggio – e, verrebbe da dire, la forza gravitazionale – non agisce). Così al giovane Einstein, che a sedici anni come un novello stregone sognava di cavalcare un raggio di luce quasi fosse un manico di scopa, domandandosi cosa accadrebbe e quale ne sarebbe l’effetto, l’Einstein adulto e scienziato risponde: cavalcando un raggio di luce avverrebbe che il raggio di luce, lo spazio, tutto apparirebbe in quiete; si avvertirebbe un arresto del tempo e ci si sentirebbe fermi; anzi non semplicemente ci si sentirebbe fermi, ma veramente si sarebbe fermi e tutto apparirebbe 101
assolutamente immobile. Ove paradossalmente il teorico dei tempi relativi che si deformano e si contraggono, che accelerano o rallentano, ritrova qui – alla velocità della luce – un tempo eterno e immobile che ricorda molto il tempo assoluto newtoniano. Senonché, considerando ora non il preteso rallentamento del tempo alle alte velocità di cui già si è criticamente detto, ma proprio il ritenuto suo arresto alla velocità della luce, ci chiediamo se, al di là delle suggestive immagini e metafore trasmesseci da Dalì o da René Clair, vi sia veramente alla velocità della luce un arresto del tempo: e, anche qui, sembra che al riguardo si debba rispondere negativamente. Certo, la propagazione della luce sembra a prima vista istantanea: aprendo gli occhi, si ha immediatamente l’impressione di vedere subito un oggetto anche molto lontano. La luce non sembra affatto avere una velocità: essa sembra ferma, immobile, come se si propagasse istantaneamente e fosse istantaneamente presente. Per questo fino al XVII secolo, ancora con Cartesio e Keplero, la propagazione della luce è stata quasi sempre concepita come istantanea e infinita la sua velocità: ove una velocità infinita, poiché appunto presuppone una propagazione istantanea in un tempo nullo e dunque l’ubiquità, equivale a una completa immobilità. Dunque è giusta l’osservazione di Einstein che cavalcando un raggio di luce ci si sentirebbe fermi, e certamente si può aggiungere che tutto ciò che raggiungesse la velocità della luce dovrebbe sembrare assolutamente fermo. Ma se l’impressione, cavalcando un raggio di luce, sarebbe effettivamente quella di essere fermi, questo cosa significa? Anche noi abbiamo l’impressione di essere fermi e siamo veramente fermi, mentre invece la Terra su cui siamo si muove a 30 Km/sec attorno al Sole che a sua volta si muove a 240 Km/sec: dunque cavalcando un raggio di luce noi saremmo effettivamente fermi, in quanto trasportati dal raggio di luce, eppure, se la luce viaggia a quasi 300.00 Km/sec, noi certamente viaggeremmo trasportati dalla luce a quasi 300.00 Km/sec. Così la pretesa einsteiniana che alla velocità della luce vi sarebbe un arresto dei ritmi di frequenza, degli orologi e del tempo stesso, appare falsa: lo stesso elettrone di Ives portato ai li102
miti della velocità della luce ha una vita un po’ più lunga e decade un po’ più lentamente rispetto ai suoi ritmi normali (un po’ come accade, lo si è detto, all’agente segreto che sfugge alle pallottole e vive di più semplicemente correndo), ma non sembra affatto che i suoi tempi di decadimento si allunghino significativamente o addirittura quasi si annullino come se l’elettrone fosse ormai alle soglie dell’eternità. Non vi è alcun motivo per pensare che un orologio in moto alla velocità della luce si fermi, se non l’assunto relativistico per il quale tale velocità sia un limite invalicabile toccato il quale cose arcane ne conseguano. In conclusione, risulta alla nostra indagine che la soglia della velocità della luce non sembra affatto avere il magico e stupefacente potere né di contrarre la lunghezza di un corpo azzerandola né di aumentarne la massa all’infinito né di arrestare il tempo. La stessa teoria della relatività, correttamente intesa, non porta affatto a simili conseguenze assurde. In conclusione, per quanto risulta alla nostra analisi, non sembrano sussistere i paradossi attribuiti a una velocità superluminale (contrazione assoluta, massa infinita, arresto del tempo). O meglio, il solo paradosso ci sembra questo: se da un punto A fosse emesso un corpo a velocità superluminale, che dunque superi e lasci indietro la luce stessa, allora noi saremmo colpiti prima dal corpo e soltanto dopo dalla sua immagine recataci dal più lento segnale luminoso, mentre ovviamente solitamente avviene il contrario. Insomma noi non vedremmo un autobus venirci addosso a velocità superluminale: prima ne saremmo colpiti e poi lo vedremmo. Ora questa è certamente una cosa seccante, ma non la definiremmo un paradosso in quanto è logicamente pensabile e possibile in linea di principio senza comportare la violazione della sequenza temporo–causale quale quella prima citata del segnale che giunge prima ancora di partire. Qui non v’è nessun oggetto che giunge prima di partire, o che parta quando è già arrivato: avremmo piuttosto uno sdoppiamento fra l’oggetto in moto e la sua immagine, con il primo che anticipa il secondo pur partendo entrambi praticamente allo stesso tempo. Allo stesso modo non comporta alcuna inversione temporale il fatto che noi al telescopio vediamo ora le stelle come erano 103
milioni di anni fa o il Sole com’era otto minuti fa, né vi è nulla di paradossale nel fatto che in un temporale noi vediamo il lampo prima di udire il tuono. Circa invece il segnale superluminale di cui si diceva sopra: ovviamente nessun segnale superluminale può avere velocità tale da giungere prima di partire, e quindi il segnale superluminale non può giungere tre minuti prima di quello luminoso, non può partire alle 12 e giungere un minuto prima alle 11.59. Ma (tralasciando il fatto che questi paradossi sorgono invece veramente dalle applicazioni delle equazioni relativistiche) certo nulla in linea di principio vieta che tale segnale giunga un minuto prima di quello luminoso, così giungendo alle 12.01 anziché alle 12.02, e da questa ipotesi non verrebbe alcuna conseguenza sconvolgente. Invero sembra debba dirsi che le mirabolanti conseguenze paventate da Einstein per un corpo che tocchi o superi la velocità della luce dovrebbero avvenire non se un corpo raggiungesse i circa 300.000 Km/sec equivalenti a c, bensì se tal corpo raggiungesse una (questa sì, probabilmente impossibile) velocità infinita: dovremmo insomma dire che probabilmente un orologio si fermerebbe del tutto soltanto se portato a una (probabilmente impossibile) velocità infinita e non alla ancor “bassa” velocità della luce. L’elettrone di Ives, che portato ai limiti della velocità della luce rivela semplicemente una vita un po’ più lunga e un tempo di decadimento un po’ più lento, potrebbe invece veramente allungare indefinitamente i tempi di decadimento o financo annullarli come se fosse ormai alle soglie dell’eternità se portato ad una impossibile velocità infinita. Parimenti, e come abbiamo visto, un corpo alla velocità della luce né si contrae annullandosi né da sé aumenta all’infinito la propria massa né vede il tempo fermarsi: ma anche ammettendo che la sua massa aumenti realmente – da sé e senza aggiunte esterne – con la velocità (ciò che non è), essa non per ciò diverrebbe infinita a c, perché una massa aumentata quarantamila volte alle soglie di c è ancora infinitamente lontana da quel valore infinito che semmai sarebbe raggiunto solo con una velocità infinita. Dunque per quanto riguarda l’allungamento indefinito dei tempi di dilatazione e l’annullamento delle frequenze, si dovrebbe dire che probabilmente in real104
tà solo con una velocità infinita si avrebbe una propagazione istantanea e dunque l’ubiquità, cosicché in questo caso, poiché in un tempo nullo si raggiungerebbe una distanza infinita, veramente ne avremmo l’arresto degli orologi che per Einstein invece avverrebbe alla modesta velocità della luce. Questo peraltro già pensava Aristotele per il quale il vuoto è impossibile perché in esso in mancanza di resistenza la velocità di un corpo «supererebbe qualsiasi proporzione» (Physica IV 215b 10-23), con la conseguenza impossibile che un corpo a velocità infinita sarebbe ubiquo ovvero sarebbe contemporaneamente in più luoghi. Dunque gli assurdi, che si vorrebbero inerenti a una velocità maggiore della luce, sembrano invece propri piuttosto a una velocità infinita, e non a caso ricordano per certi aspetti i paradossi e gli sconcertanti effetti che per Aristotele sarebbero scaturiti da una impossibile velocità infinita. Scrive infatti Eddington, sulle orme di Einstein: «qualsiasi entità con velocità superiore a quella della luce potrebbe essere in due luoghi nello stesso tempo»39; ove qui si vede bene come Eddington attribuisca a una ipotetica velocità semplicemente superiore a quella della luce i mirabolanti e impossibili effetti da Aristotele attribuiti a una velocità infinita. Sembra quasi che per il fisico relativista una volta varcata la mitica soglia della velocità della luce non si possa che procedere con una velocità infinita con tutti i paradossi conseguenti. Invece, appare che le due cose vadano tenute ben distinte: una velocità anche superiore a quella della luce rimane naturalmente una velocità finita e non infinita, e se è perfettamente lecito pensare agli sconcertanti paradossi che verrebbero dall’errata supposizione di una velocità infinita, ciò non significa affatto che tali effetti si verificherebbero anche a una velocità superluminale ma comunque finita. Dunque, che da una velocità infinita possano derivarne conseguenze assurde non significa affatto che tali conseguen-
A.S. Eddington, Spazio, tempo e gravitazione, cit. p. 83. Lo stesso equivoco, che identifica velocità superluminale e velocità infinita, in L. Fabre, Les théories d’Einstein, cit. p. 97. 39
105
ze vi sarebbero anche per una velocità semplicemente superiore a quella della luce. Che non sia concepibile una velocità infinita (poiché una propagazione istantanea sarebbe ubiqua) non significa che sia inconcepibile una velocità superiore alla velocità della luce: un conto è ritenere impossibile una velocità infinita, un altro è ritenere impossibile una velocità superiore a quella della luce. Certo un corpo a velocità superluminale sarebbe invisibile, ma con ciò siamo sicuri che non esistano velocità superiori a quella della luce? Il superamento del limite fittizio Noi sappiamo dalla termodinamica che il calore non è altro che movimento di particelle, e che il movimento e dunque la velocità di una particella è direttamente proporzionale alla sua energia; parimenti sappiamo che quanto più ci inoltriamo nel campo dell’infinitamente piccolo tanto più alte appaiono le velocità delle particelle, tanto più veloci quanto più piccole e meno massive. Così i fotoni sono particelle veloci proprio perché molto leggere: infatti essi possono essere emessi dai leggerissimi elettroni, e sono particelle così leggere da essere state addirittura assurdamente dichiarate (come i neutrini) prive di massa. Da ciò si deduce che almeno in linea di principio particelle leggere ma ad alte energie potrebbero superare il tetto – ritenuto invalicabile – della velocità della luce, e che sarebbero ipotizzabili non rilevate particelle ad alta energia e piccola massa con velocità superluminale. Consideriamo ad esempio la velocità di propagazione della gravitazione: a parte Newton, che addirittura supponeva (erroneamente) che la forza gravitazionale si propagasse istantaneamente con velocità infinita, possiamo ricordare che secondo i calcoli di Laplace (1845) la gravitazione si propaga ad una velocità che, pur non essendo certo infinita, era comunque per lui milioni di volte superiore a quella della luce. È vero che la teoria della relatività ha imposto (come vedremo) una nuova teoria della gravitazione: ma se in essa si è infine supposto che la velocità dei cosiddetti “gravitoni” sarebbe equivalente a quella della luce, ciò è stato unicamente per il veto relativistico di porre ve106
locità superluminali, che invece nessuno può escludere con assoluta certezza anche perché finora i “gravitoni” non sono mai stati rilevati. Insomma se la velocità della gravitazione (comunque intesa) non è certamente infinita come pensava Newton, non vi è però d’altra parte alcun motivo (se non il veto relativistico) per pensare che tale velocità non possa essere superiore alla velocità della luce. Naturalmente è un fatto che in laboratorio non si sono mai ottenute per le particelle velocità esattamente luminali né tantomeno superluminali, ma da questo fatto i fisici deducono impropriamente delle conseguenze scorrette. Essi prendono delle particelle, le accelerano a più non posso e poi dicono: vedete? Non c’è niente da fare, queste particelle, per quanto accelerate, non raggiungeranno mai la velocità della luce perché quella velocità è insuperabile. Ma il fatto che negli acceleratori le particelle per quanto accelerate non raggiungano la velocità della luce alla fin fine dimostra solo, evidentemente, che quelle particelle non hanno e non possono avere velocità luminali o superluminali, tanto è vero che soltanto in condizioni sperimentali e artificiali esse possono essere accelerate fino a un certo limite oltre la loro velocità normale. Evidentemente la velocità della luce non può essere raggiunta da una particella la cui normale velocità sia inferiore a quella della luce. Se poi ci si domandasse perché per tali particelle, ovvero praticamente per quasi tutte le particelle conosciute, il limite di velocità impossibile da superare sia proprio quello della luce e non un altro, si risponderà che non si tratta certamente di una misteriosa barriera posta dalla luce bensì semplicemente del fatto che le particelle leggere sono normalmente più o meno dello stesso ordine di leggerezza dei fotoni e che i fotoni a loro volta fanno parte delle onde elettromagnetiche e sono onde elettromagnetiche, per cui è comprensibile che in condizioni normali esse, stante la loro omologia, procedano tutte alla stessa velocità. In realtà non si dovrebbe dire che negli acceleratori non si riesce ad accelerare le particelle fino alla velocità della luce, bensì si dovrebbe dire che non si riesce ad accelerare le particelle fino alle velocità delle onde elettromagnetiche, che possono essere sì onde luminose ma anche ad esempio onde radio o raggi x. Ora, se i foto107
ni e le particelle più leggere e le onde elettromagnetiche tutte, stante la loro omologia, procedono normalmente alla stessa velocità che è quella della luce, a maggior ragione le particelle più pesanti quali i neutroni e i protoni, proprio perché più pesanti dei leggerissimi fotoni e delle altre particelle leggere, non possono certo raggiungere quella velocità. Gli stessi elettroni – pur essendo considerati “leptoni” ovvero particelle leggere (dal greco leptÒj che significa “leggero”) – hanno una massa che, pur essendo 1800 volte inferiore a quella del protone, è comunque superiore a quella del fotone che infatti può emettere dal proprio interno. Così un elettrone (per non dire un protone o un neutrone), spinto in un acceleratore da particelle più pesanti, potrà al più avvicinarsi alla velocità della luce ma non certo toccarla, anche perché – come si è visto – una particella caricata di energia propulsiva è resa più pesante e con ciò inadatta al raggiungimento di alte velocità. Dunque in un acceleratore le particelle leggere o almeno meno pesanti avranno la stessa velocità dei fotoni o meglio delle onde elettromagnetiche tutte, mentre i “bradioni” ovvero le particelle più lente (da bradÚj che significa “lento”), che sono solitamente le più pesanti (e già un elettrone è più pesante di un fotone: dunque elettroni, protoni e neutroni), proprio perché più pesanti non potranno avere velocità maggiori di quelle della luce. Ma se (e non solo negli acceleratori) le particelle pesanti e lente per quanto accelerate non toccano la velocità della luce – si potrebbe dire abbastanza prevedibilmente –, il discorso è diverso per le particelle molto leggere. Anzitutto al riguardo possiamo rilevare che la luce stessa può superare la propria velocità normale: sappiamo infatti che un’onda elettromagnetica piana si propaga in direzione non perpendicolare al suo fronte d’onda a velocità superiore a quella della luce e sappiamo che se il fascio di luce di un riflettore è puntato contro uno schermo posto abbastanza lontano, allora questo fascio luminoso può essere ruotato in modo che la macchia di luce può attraversare lo schermo con velocità maggiore di quella della luce. Inoltre l’effetto Casimir prevede che, in un vuoto particolarmente spinto, la luce possa superare la sua velocità normale. 108
Scrive al riguardo Feynman che «there is also an amplitude for light to go faster (or slower) than the conventional speed of light» e che la luce «doesn’t go only at the speed of light»40. Infine sappiamo con certezza che la velocità comunemente accreditata per la luce è in realtà – almeno nel non-vuoto – solo il valore complessivo puramente medio e statistico della “velocità di gruppo”, ove il gruppo è il fascio luminoso che propaga il segnale, mentre invece la “velocità propria” o “velocità di fase” delle singole componenti ovvero delle singole onde (dette “onde localizzate”) è una velocità differenziale, per la quale una singola onda può momentaneamente superare in velocità, anche di molto, la velocità della luce. A conferma di ciò, fra il 1999 e il 2005 (in particolare all’Università di Princeton, al Politecnico di Losanna e all’Institute for Science di Cambridge nel Massachusetts) la velocità della luce è stata artificialmente rallentata (dapprima a 74.000 Km/sec e poi fino a 17 metri al secondo) e infine arrestata e quindi aumentata (oltre i 300.000 Km/sec) proprio rallentando e accelerando la velocità di fase delle singole onde. Ma soprattutto, se già particelle dell’ordine di leggerezza dei fotoni possono in realtà superare con la “velocità di fase” delle componenti la velocità media “di gruppo”, e se la velocità della luce è stata rallentata, arrestata e financo aumentata a piacere oltre il suo limite normale, a maggior ragione ci si può aspettare la possibilità di una velocità superluminale per particelle particolarmente leggere. I neutrini ad esempio potrebbero essere dei buoni candidati ad una velocità superluminale se non fosse che di essi, che si manifestano solo molto raramente e inaspettatamente in atto di collisioni, è difficilmente rilevabile la velocità (sebbene al Cern e al laboratorio del Gran Sasso siano previsti esperimenti di rilevazione di velocità neutrinica). In generale, e anche prescindendo dai neutrini, nulla osta in linea di principio che particelle particolarmente leggere (più leggere dei fotoni e delle altre particelle a velocità luminale) ma
40 R. Feynman, QED. The Strange Theory of Light and Matter, 1985 (in it. La strana teoria della luce e della materia, Milano 1989, Adelphi, cit. p. 115).
109
altamente energetiche possano muoversi ad una velocità superiore a quella della luce. Che la gran parte delle particelle non possano essere accelerate fino a c non pregiudica che possano esistere particelle di altro tipo che, senza alcun bisogno di essere “accelerate”, possano avere una velocità superluminale: dire che non esista nessuna particella superluminale solo perché negli acceleratori nessuna particella supera la velocità della luce significa fare una falsa induzione, un’estrapolazione indebita. In laboratorio si dimostra che la velocità della luce non può essere raggiunta da una particella la cui normale velocità sia inferiore a quella della luce: si dimostra cioè che una tartaruga non può essere costretta a correre come una gazzella, ma non si dimostra affatto che non vi siano gazzelle, ovvero non si dimostra affatto che non vi siano particelle che abbiano già di per sé una velocità superluminale senza che debbano sforzate ed accelerate per raggiungerla. La velocità della luce o la velocità superluminale può essere un ostacolo insormontabile per una particella la cui normale velocità sia inferiore, ma può essere del tutto normale per un altro tipo di particella. In effetti queste particelle “normalmente” superluminali, dette tachioni (dal greco tacÚj che significa “veloce”) sono state ipotizzate e previste in linea teorica (per la prima volta da A. Sommerfeld). Ma che particelle siffatte siano non solo puramente ipotizzabili per via teorica bensì anche effettivamente esistenti, sembra sufficientemente accertato. Anzitutto in meccanica quantistica è ben noto e comprovato il cosiddetto “effetto tunnel”, per il quale quando una particella in moto urta ripetutamente contro una barriera troppo alta può attraversare la barriera stessa ed apparire dall’altra parte come se fosse passata attraverso un tunnel. Questo sembra violare i princìpi di conservazione, in quanto non risulta che la particella disponga di energia sufficiente per superare la barriera. Tuttavia, quando nel 1993 all’università di Berkeley si è misurato il tempo impiegato dalla particella ad attraversare la barriera, si è rilevato un tempo di attraversamento che comportava una velocità superiore a quella della luce, e proprio questa energia cinetica suppletiva sembra aver dato alla particella con la velocità superluminale l’energia necessaria al 110
superamento della barriera. Inoltre nell’ambito della microfisica sono state rilevate particelle la cui velocità in base ai calcoli sembra effettivamente faster than light, superluminale: si tratta dei mesoni. Consideriamo i mesoni m o muoni: queste particelle subatomiche, di massa superiore a quella dell’elettrone ma inferiore a quella del protone, generate dalla collisione fra raggi cosmici e nuclei di idrogeno e ossigeno presenti nella nostra atmosfera, sono altamente instabili e vivono solo un tempo infinitesimo di 2,26 microsecondi, ovvero circa due milionesimi di secondo (20-6) che sarebbe il tempo necessario ad attraversare un nucleo atomico a una velocità prossima a quella della luce; eppure in questo impercettibile lasso di tempo essi, partendo dall’alta atmosfera, percorrono non un nucleo atomico bensì migliaia di metri prima di disintegrarsi giungendo nei pressi della superficie terrestre dando origine ad altre particelle più leggere. Di conseguenza il problema che immediatamente si pone è: come può il mesone in un tempo di vita così breve percorrere una distanza così lunga? Se la luce in un secondo percorre 300.000 Km, allora il mesone viaggiando alla velocità della luce dovrebbe impiegare circa un millesimo di secondo per toccare terra; di conseguenza se il mesone in soli 2,26 microsecondi percorre parecchie migliaia di metri, allora secondo i calcoli esso dovrebbe aver viaggiato a una velocità superiore a quella della luce. Qui è un po’ come rilevare la velocità in autostrada: se si entra a un dato casello ad una certa ora (= atmosfera terrestre) e poi si esce un’ora dopo ad un altro casello (= impatto a terra), è automatico ricavarne la velocità media di percorrenza. Si è cercato invero di dare una spiegazione relativistica al fenomeno, per non ammettere la violazione del principio dell’insuperabilità della velocità della luce, ponendo come meri effetti relativistici i casi di velocità superluminale e dicendo che i 2,26 microsecondi di percorrenza del mesone non sarebbero i suoi reali tempi di percorrenza bensì solo i tempi relativi rilevati da un osservatore terrestre in quiete relativa al quale quello spazio di percorrenza appare dilatato e il tempo contratto: insomma non sarebbe la particella ad andare ad una certa velocità bensì lo spazio e il tempo ad essere 111
o ad apparire contratti o dilatati; l’orologio del mesone risulterebbe procedere più lentamente solo alla rilevazione dell’orologio dell’osservatore terrestre ma in realtà il tempo impiegato dal mesone, che è di due milionesimi di secondo alla rilevazione dell’osservatore, sarebbe invece un millesimo di secondo e dunque assai maggiore, per cui il mesone non procederebbe affatto a velocità superluminale. Ora, tralasciando il fatto che qui la teoria della relatività interpreta come meri effetti relativistici misurati dall’osservatore quelli che altrove (vedasi paradosso dei gemelli) pone invece come reali ed effettivi rallentamenti del tempo che addirittura arrestano il processo dell’invecchiamento biologico, diciamo che queste presunte distorsioni relativistiche spazio-temporali (su cui torneremo) sussistenti nella vicina atmosfera terrestre sembrano invero una poco convincente spiegazione ad hoc: insomma la teoria della relatività ha deciso di multare i mesoni birichini per eccesso di velocità, ma forse bisognerebbe multare la teoria della relatività (che pretende proibire velocità superluminali) per abuso di potere. È vero che nel 1975 alcuni tipi di muoni, accelerati fin quasi alla velocità della luce, hanno manifestato il prevedibile e ben noto fenomeno del rallentamento della frequenza con conseguente prolungamento del tempo apparente di decadimento di ventinove volte: ma si trattava solo di alcuni tipi di muoni con velocità ipoluminale che naturalmente, accelerati in laboratorio, si sono giustamente rifiutati di andare alla velocità della luce solo perché glielo ordinava il tecnico di laboratorio; comunque rimane il fatto che i muoni nemmeno alla “normale” velocità della luce potrebbero attraversare l’atmosfera in tempi così ridotti e con velocità così basse, per cui veramente i muoni ipoluminosi di laboratorio non sono rappresentativi. Al riguardo infine si dovrà notare che tutto il discorso relativistico sui tempi (e, come vedremo, anche sugli spazi) che si contraggono o si allungano non è altro che il corollario paradossale ma consequenziale del postulato einsteiniano della costanza della velocità della luce: è evidente infatti che, se la velocità della luce deve rimanere costante perché così vuole il postulato, allora (come dicono i fisici relativisti, cioè praticamente tutti) «saranno gli spazi e i tem112
pi che si dovranno contrarre o allargare per permettere alla velocità di rimanere costante». Se cioè io dico che il corpo x percorre in un tempo dato il percorso AB alla velocità della luce, e vedo che invece un altro corpo y percorre lo stesso cammino in un tempo più breve, io per non dire che evidentemente il secondo corpo ha viaggiato a velocità più elevata della luce dirò che y ha viaggiato alla stessa velocità c di x ma che per y lo spazio AB si è accorciato e i tempi di percorrenza si sono ristretti cosicché y è giunto prima pur viaggiando alla stessa velocità di x. Poiché in fisica la velocità è un rapporto fra spazio (distanza percorsa) e tempo (di percorrimento), allora se per definizione o per postulazione la velocità della luce è una costante universale, saranno le altre due grandezze (e dunque lo spazio e il tempo) a mutare in modo che venga mantenuto di contro alle smentite il postulato della costanza di c. Non v’è modo di sfuggire al dilemma: o è assoluto lo spazio e il tempo, e allora deve necessariamente essere variabile la velocità della luce; oppure la velocità della luce è costante, e allora lo spazio e il tempo devono diventare relativi. In questo dilemma, Einstein ha semplicemente rinunciato al postulato classico dell’assolutezza di spazio e tempo in favore del postulato del valore assoluto e costante della velocità della luce. Quello di Einstein è un postulato (il valore assoluto di c) come è un postulato quello newtoniano (assolutezza di spazio e tempo): l’opzione einsteiniana non è una scelta “antimetafisica” che elimini gli assoluti, bensì semplicemente un’opzione che privilegia un postulato (e un assoluto) rispetto ad un altro. Per questo, diventa legittimo domandarsi se sia più plausibile un asserto che riconosca una possibile variabilità della velocità della luce o quello che, per non ammettere tale possibile variabilità, deformi e contragga lo spazio e il tempo in entità relative. Ora, quando si sono rilevati per alcune particelle tempi di percorrenza che tradotti in velocità davano un valore superiore a c, si è preferito mantenere il postulato assoluto della velocità della luce relativizzando di conseguenza i parametri spazio-temporali. E allora qui subentra la domanda: cosa è più semplice e più plausibile assumere? Che i tempi e gli spazi si allungano e si contraggono a fi113
sarmonica o che la velocità della luce non è sempre costante? Anziché dire che lo spazio si è contratto ed è stato percorso prima, appare più plausibile dire che probabilmente è aumentata la velocità (fosse anche quella supposta limite della luce), cosicché lo spazio non si è realmente accorciato ma semplicemente è stato percorso in minor tempo. Così nella fattispecie, per quanto riguarda le dibattute velocità superluminali, forse la spiegazione più plausibile al riguardo sembra la semplice ammissione che veramente il muone viaggi a una velocità superiore a quella della luce, tanto più che al caso costituito da particelle come il muone oggi si affiancano altri casi problematici: ad esempio in astronomia (e senza considerare l’inverosimile teoria dell’espansione con lo spazio dilatato anche a velocità superluminale né la cosiddetta inflazione superluminale, di cui si parlerà) i getti di materia (plasma e particelle) espulsi dai cosiddetti “nuclei galattici attivi” (“emissioni di sincotrone”) sembrano avere velocità superluminali, non tutte facilmente riconducibili ad effetti prospettici che ne occultino la velocità di avvicinamento e per le quali, se adottassimo lo spostamento verso il rosso delle righe spettrali (red shift) come indicatore di velocità, risulterebbero addirittura velocità financo di sette, dieci o diciannove volte la velocità della luce (galassia 3C 345, 3C 273, 3C 279). Si noti che in questo caso gli elettroni, che negli acceleratori non possono essere portati alla velocità della luce, sembrano invece agevolmente superarla. Un altro esempio è quello che si deduce dall’ipotesi di Hawking sui buchi neri: se i buchi neri – come Hawking e poi altri astrofisici hanno supposto – per l’altissimo valore energetico della materia intrappolata possono esplodere generando “nuclei galattici attivi” forieri di nuove creazioni di stelle e parimenti possono emettere nello spazio di decine di migliaia di anni luce una intensissima radiazione in raggi gamma e raggi x (e l’ipotesi sembra corretta perché oggi i satelliti rilevano effettivamente esplosioni in gamma che, in assenza di qualsiasi sorgente conosciuta, possono provenire solo da buchi neri), allora evidentemente – e la conseguenza è logica sebbene a quanto sappia nessuno l’abbia tratta – questi raggi gamma e x, che normalmente viaggiano come tutte le onde alla velocità della 114
luce, per poter uscire dal buco nero la cui altissima densità gravitazionale impedisce l’emissione della luce dovranno necessariamente avere una “velocità di fuga” superluminale. In realtà sono ormai non pochi i fisici (Vigier, Hiley, Selleri, Recami e altri41) che, contro l’ortodossia relativistica, suppongono l’esistenza di velocità superluminali rifiutando di ridurle ad apparenze relativistiche (d’altronde già L. de Broglie sosteneva che le onde, che nel suo intendimento accompagnano tutte le particelle compresi i fotoni, avessero velocità superluminali). Come si è visto, anche la preoccupazione al riguardo talora addotta, che motiva l’impossibilità di superare la velocità della luce adducendo che in tal caso ne verrebbero sconvolti i normali rapporti di causa-effetto con la conseguente possibilità (incautamente da taluni oggi ammessa) per una particella di tornare indietro nel tempo, sembra impropria: una particella che superi la velocità della luce non sta viaggiando nel passato. In realtà non si può escludere con un semplice veto l’esistenza di particelle aventi velocità superiore a quella della luce solo perché la formula einsteiniana (come si è visto) fornisce valori immaginari per quelle velocità. I segnali superluminali con ogni probabilità esistono ed oggi sembra riacquistare senso il vecchio monito di Lorentz, il quale obiettava ad Einstein che «l’asserzione, alquanto temeraria, che non sia mai possibile osservare velocità superiori a quella della luce, contiene una restrizione ipotetica di ciò che ci è accessibile, restrizione che non si può accettare senza qualche riserva».42
41 Cfr. in particolare E. Recami, Esperimenti «super-luminali»: una panoramica, in AA.VV., La natura del tempo, cit. pp. 307-328. 42 H.A. Lorentz, Das Relativitätsprinzip, cit. p. 23.
115
VI La relatività degli antichi e la relatività dei moderni Relatività del tempo è anche questo: un giorno sulla Terra è calcolato in base al tempo in cui il pianeta ruota su se stesso, ed equivale a 24 ore che è poco meno del periodo di rotazione di Marte; ma la rotazione assiale di Mercurio avviene in ben 58 giorni terrestri, quella di Venere dura più di otto mesi terrestri, mentre Giove e Saturno compiono la loro rotazione in circa 10 ore terrestri, Urano e Nettuno in 17 ore terrestri, Plutone in 7 giorni terrestri. Dunque un giorno sulla Terra e su Marte dura circa 24 ore, su Mercurio 58 giorni, su Venere 8 mesi, su Giove e Saturno 10 ore, su Urano e Nettuno 17 ore, su Plutone 7 giorni. Possiamo anche aggiungere: in uno stesso corpo celeste la rotazione assiale non appare ovunque allo stesso modo, ciò per cui ad esempio il Sole ruota attorno a se stesso con due diverse velocità (“rotazione differenziale”), in quanto le zone equatoriali ruotano più velocemente delle zone alle alte latitudini, cosicché all’equatore la rotazione avviene in 25 giorni mentre alle alte latitudini in oltre 27 giorni: dunque il giorno solare dura 25 giorni all’equatore e 27 alle alte latitudini. Per quanto riguarda l’anno, un anno sulla Terra dura 365 giorni, che è il tempo che la Terra ruotando su se stessa 365 volte impiega per compiere un’orbita attorno al Sole; invece Mercurio compie un’orbita attorno al Sole in 88 giorni terrestri, cosicché un anno di Mercurio equivale a circa tre mesi sulla Terra; Marte impiega quasi 2 anni terrestri, e Giove oltre 11 anni terrestri per ruotare attorno al Sole; un anno su Saturno equivale invece a 30 anni terrestri, un anno di Urano equivale a 84 anni terrestri, uno di Nettuno a 165 anni terrestri, mentre un anno di Plutone equivale a ben 248 anni terrestri. Ma non v’è bisogno di compiere paragoni con altri pianeti, in quanto anche sulla Terra sono evidenti gli effetti di relatività del tempo: un giorno ai poli dura sei mesi, come le notti, cosicché in un anno al polo abbiamo non 365 giorni bensì un solo giorno e una sola not116
117
te. Parimenti un’eclisse di Luna, pur osservata nello stesso tempo in più luoghi del pianeta, è però registrata in ore diverse ad oriente e ad occidente, nell’una o nell’altra parte della Terra. Tutto questo è ben noto, e tuttavia ci si chiede: siamo noi con ciò autorizzati veramente a parlare di “relatività” del tempo? Per la teoria della relatività, infatti, non vi è un tempo unico in cui accadono gli avvenimenti bensì una pluralità di tempi. Allo stesso modo noi diciamo che v’è un tempo su Saturno, un tempo sulla Terra, un tempo sul Sole, ed anzi più tempi perfino sullo stesso corpo celeste. Su Mercurio il tempo di un giorno scorre molto più lentamente che non sulla Terra, mentre al contrario il tempo di un anno scorre molto più rapidamente. Allora il tempo su Mercurio come scorre? Più lentamente o più velocemente rispetto alla Terra? Ammettiamo pure che il diverso scorrere del giorno e dell’anno su Mercurio rispetto alla Terra abbia in linea di principio certe conseguenze: ad esempio per un ipotetico abitante di Mercurio (o di Giove o di Saturno) gli stessi ritmi biologici – in quanto sincronizzati con i ritmi cosmici – scorrerebbero diversamente rispetto alla Terra, cosicché ad esempio un abitante di Giove vedrebbe il doppio delle albe di un abitante terrestre mentre un abitante di Mercurio ne vedrebbe alquante meno, e parimenti per un ipotetico abitante di questo o quel pianeta il cuore (a seconda della gravità) pulserebbe più o meno velocemente e la vita media apparirebbe più lunga o più corta della vita terrestre. Ma anche in questo caso siamo noi con ciò veramente autorizzati a parlare di relatività del tempo o, piuttosto, non sembra qui di vedere una profonda equivocità concettuale? Rappresentazioni poliparametriche e monoparametriche In realtà questi effetti “relativistici” inerenti il tempo erano tutti già ampiamente noti al pensiero antico. Gli antichi sapevano che, se l’anno è il tempo in cui (nell’assunto geocentrico) il Sole ruota attorno alla Terra allora l’anno di Saturno – il cui giro è molto più ampio – sarà molto più lungo. Sapevano benissimo che altro è il 118
tempo del Sole, altro il tempo della Luna, altro quello della Terra: eppure, pur sapendo ciò, non ne traevano affatto la conseguenza della relatività del tempo – e con piena ragione, vien da dire. Ad esempio (come ricorda Duhem) sembra che l’antico pitagorico Filolao (VI sec. a.C.) dicesse che un giorno sulla Luna dura 15 volte più che non sulla Terra. Anche Aristotele fu ben conscio di ciò perché egli, che definiva il tempo (peraltro tautologicamente) come una «misura del movimento effettuata dall’anima secondo il prima e il poi», si domandava (Fisica, IV.14): se il tempo dipende dai movimenti misurati dall’anima, e se nella realtà vi sono tanti movimenti, allora vi saranno molti tempi, tanti quanti sono i movimenti? E rispondeva, come tutti gli antichi: no, c’è un solo ed unico tempo, un tempo universale che tutti gli altri abbraccia e contiene. Allo stesso modo, e come sappiamo, i fusi orari, per cui a Londra è un’ora e a Tokyo è un’altra ora, indicano semplicemente due diverse misurazioni del tempo, dello stesso tempo, e non certamente due tempi diversi. In realtà è sempre possibile postulare, almeno in linea di principio, un occhio esterno che contemporaneamente e simultaneamente veda tutti i diversi tempi: su Mercurio, sulla Terra, su Saturno, sul Sole, su quale si voglia stella. Un esempio. Un disco (= sistema solare) ruota su un vecchio giradischi attorno al perno centrale (= Sole). Faccio ruotare il vecchio giradischi a 33 giri: emblematizzo così il moto del lento Saturno. Poi lo faccio ruotare a 45 giri, che rappresenta il moto della Terra, e infine a 78 giri che stanno per il moto di rivoluzione del velocissimo Mercurio. Ma io, io che sono un osservatore esterno al giradischi e che in questo momento sono l’“occhio di Dio” rispetto al giradischi, vedo bene che in realtà è sempre nello stesso arco di tempo, diciamo un minuto, che un disco effettua 33 giri o 45 o 78. Vedo bene cioè che le due diverse velocità sono in realtà date all’interno di uno stesso tempo, e che 33 e 78 giri sono tempi relativi dati all’interno di un tempo unico. In uno stesso tempo, in un minuto, il disco può fare 33 o 45 o 78 giri. E così è per i tempi celesti: nello stesso tempo, nello stesso presente assoluto, Saturno fa 1 giro attorno al Sole, la Terra ne fa 30, Mer119
curio ne fa 120. Esemplificando ancor meglio: faccio girare il disco a 45 giri al minuto, ponendo una moneta all’estremità del disco e un’altra più verso il centro. La prima moneta ruoterà molto velocemente e la seconda molto lentamente. Il paragone è un po’ fuorviante perché in realtà il pianeta esterno viaggia più lentamente e quello interno più velocemente, ma lo si passi: fatto è che le due monete (= due pianeti) viaggiano a due ben diverse velocità. Ma in realtà sia la prima che la seconda moneta effettuano 45 giri in un minuto, ovvero: in realtà il disco impiega un determinato tempo a effettuare un giro attorno a se stesso. Si può dire certo che in realtà questi tempi sono calcolati in base al tempo terrestre, cosicché a un anno terrestre ne corrispondano trenta di Saturno etc., cosicché non si tratti di un tempo assoluto bensì di un tempo relativo all’osservatore terrestre: ma è chiaro che qui siamo di fronte semplicemente alla necessità di un punto di riferimento pratico per il calcolo. Ciò non nega che è pur sempre all’interno di un tempo che dobbiamo presupporre e che ben possiamo chiamare assoluto, per quanto poi necessitino punti di repere relativi per misurarlo, che si danno tutti i moti celesti e dunque tutti i tempi. Si vuol dire: vi è un tempo unico in cui tutto ciò avviene, e che comprende i tempi parziali interni al sistema. Detto con Bergson: «la teoria della relatività sembra confermare piuttosto che negare l’idea di un tempo comune a tutte le cose»; «i tempi multipli evocati dalla teoria della relatività non rompono affatto l’unità di un tempo reale, ma anzi la implicano e la presuppongono»43. Parimenti il neokantiano P. Natorp, in uno scritto del 1910 sulla teoria della relatività, affermava che lo spazio e il tempo assoluti (intesi kantianamente come idee ordinatrici dell’esperienza) in alcun modo venivano smentiti dalla relativizzazione della loro misurazione empirica di cui anzi costituiscono la condizione trascendentale e il fondamento logico-regolativo a priori.
Significativa appare al riguardo la critica di Guillaume (a quanto sembra a suo tempo apprezzata da Hadamard e Levi Civita) al tempo relativizzato di Einstein. Infatti, attraverso le trasformazioni di Lorentz, Guillaume ricondusse i molteplici indici temporali (t1, t2 etc.) propri della rappresentazione poliparametrica del tempo einsteiniana all’interno di una rappresentazione monoparametrica con un unico tempo universale t, così conservando il tempo, lo spazio e la simultaneità assoluti e calcolando la variazione della velocità della luce in base alla composizione delle velocità. In tal modo i tempi einsteiniani non vengono negati bensì diventano variabili all’interno di un unico parametro temporale, ovvero misure diverse della stessa durata temporale, eseguite con orologi di periodo t1, t2 etc. di cui l’uno fornisce tempi più lunghi e l’altro più brevi: così (XIII lettera a Einstein) un’ora può essere espressa anche come 60 minuti o 3600 secondi, cosicché 1 e 60 e 3600 diventano misure (in ore, minuti, secondi) della stessa durata per cui 1 : 60 : 3600; parimenti (XXVII lettera) in un orologio la lancetta piccola percorre un giro di quadrante mentre quella grande ne percorre 12 e «se la lancetta grande percorre per esempio t = 36 divisioni (cerchio dei minuti), nello stesso tempo la lancetta piccola non ne percorrerà che t' = 3, cosicché 3 e 36 sono misure della stessa durata» in quanto 36 = 12 x 3. Attraverso questo esempio Guillaume intendeva mostrare come sia possibile ottenere gli stessi risultati einsteiniani mantenendo i presupposti della fisica classica.44 Consideriamo ora la relatività del moto. Una persona guida l’auto sotto la neve. È un’esperienza nota. Se l’auto è ferma, dal cruscotto si vede la neve scendere perpendicolarmente o quasi; ma se l’auto è in moto, i fiocchi di neve appaiono inclinati nella direzione opposta al moto, e sembrano non più cadere perpendicolarmente bensì dirigersi verso il parabrezza, con inclina-
43 H. Bergson, Durée et simultanéité. A propos de la théorie d’Einstein, cit. p. 60 e 172.
44 Cfr. A. Genovesi, Il carteggio fra Albert Einstein ed Edouard Guillaume, in particolare pp. 141-142 e 162-163 (corsivi miei).
120
121
zione e velocità tanto maggiore quanto più è elevata la velocità dell’auto. Questa, ci sembra, è una tipica situazione relativistica, ma allora che dobbiamo dire qui? Che la neve cade al tempo stesso in verticale e in obliquo? Naturalmente no: la neve cade approssimativamente in verticale ma sembra venire obliquamente verso di noi perché noi, guardandola ammaliati, non consideriamo e quasi non percepiamo più che in realtà non è la neve a venire verso il parabrezza bensì siamo noi ad andare incontro alla neve. Cosicché se ora una prospettiva relativistica dichiara del tutto ininfluente e insignificante definire come in realtà la neve cada a prescindere dall’osservatore, allora tale teoria non può soddisfare, non può non apparire incompleta proprio come lo stesso Einstein dichiarava incompleta la meccanica quantistica in quanto rinunciava per principio a una descrizione almeno tendenzialmente oggettiva della realtà. Il paradosso relativistico, come si è detto, appariva già agli antichi. Al treno di Einstein, al cui interno alla partenza non si comprende se è in moto o se lo è il treno dirimpetto, fa così riscontro la nave e il firmamento di Lucrezio: «la nave ci porta e sembra star ferma, l’altra sta ferma e sembra che vada; [...] da poppa ci sembra che fuggono i colli e le spiagge lontane. Le stelle ci sembrano immote, fisse nel cielo, e invece un moto perenne le agita tutte» (De rerum natura, IV 389-392). Parimenti Lucrezio sapeva (IV 443446) che quando il vento sospinge in avanti le nubi lasciando indietro le stelle, a noi sembra invece che le nubi siano ferme e siano le stelle a muoversi; anche sapeva (IV 399-401) che a chi ruota a vortice e si ferma di colpo sembra che sia il mondo a girare. Ma giustamente Lucrezio catalogava queste come illusioni percettive, simili al remo che appare spezzato nell’acqua. Egli non diceva: è la stessa cosa dire che la nave si allontana dalla costa e dire che la nave è ferma e la costa si allontana. La cosa sarà ancor meglio chiarita se si pensi a un noto paradosso relativistico, espresso da Zenone di Elea: il paradosso degli stadi, ovvero il paradosso del tempo metà e del tempo doppio. Si diano tre grandezze A, B, C, uguali fra loro e composte ciascuna di quattro elementi uguali: le grandezze A siano 122
immobili, le B mobili in un senso e le C mobili nel senso opposto ma con uguale velocità. I B e i C, percorrendo lo stesso spazio alla stessa velocità, impiegheranno lo stesso tempo. Ma B4, se impiega un dato tempo per incrociare C3 che gli viene incontro, impiegherà un tempo poniamo doppio per incrociare A4 immobile: di conseguenza il tempo di percorrenza di B4 è un tempo metà visto da C3 e un tempo doppio visto da A4. Come si vede è, duemila anni prima di Einstein, una tipica situazione relativistica: B4 impiega un tempo t nel passare A4 immobile e un tempo t1 nel passare C4 mobile; «la metà del tempo appare uguale al doppio del tempo». Senonché, questo cosa significa? Che B4 ha contemporaneamente un tempo doppio e un tempo metà, e che viaggi con due velocità e due tempi diversi, al tempo stesso poniamo in un secondo e in un mezzo secondo? Naturalmente no: il tempo di B4 è doppio per una prospettiva e metà per l’altra, ma in realtà la velocità di B4 è una e resta una, così come è uno e uno solo il tempo di percorrenza. Se Zenone definisce questo un paradosso è evidentemente per il fatto che in realtà B4 non viaggia con due velocità diverse e non impiega contemporaneamente un tempo metà e un tempo doppio: i tempi appaiono diversi soltanto relativamente a dati sistemi di riferimento. Infatti B4 impiegherà lo stesso tempo (assoluto) per passare A4 e i due gruppi C3-C4.45 Dunque, i paradossi relativistici erano discussi fin dall’antichità, soprattutto (come abbiamo visto a proposito della diversa lunghezza del giorno e dell’anno sui vari pianeti) in campo astronomico: infatti il duplice processo di rotazione assiale e di rivoluzione terrestre (per lo più non ancora identificato come tale) si prestava a considerazioni relativistiche. Così agli antichi si poneva anzitutto il problema di spiegare l’alternanza del giorno e della notte: solitamente si spiegava tale alternanza supponendo la rotazione del Sole e dell’intera volta celeste attorno alla Terra 45 Rimando a M. de Paoli, I paradossi svelati. Zenone di Elea e la fondazione della scienza occidentale, Torino 1998, Scolastica, pp. 89-104.
123
nelle 24 ore, ma in taluni casi (Epicuro, Epistola a Pitocle § 91 e Agostino, In genesim ad litteram II.9) non sfuggiva che tale alternanza poteva altrettanto ed anzi più semplicemente essere spiegata mantenendo fissa la sfera del cosmo e supponendo (come gli antichi Pitagorici Iceta e Ecfanto) la rotazione quotidiana della Terra attorno al proprio asse da ovest a est. Parimenti per quanto riguarda la successione delle stagioni e degli anni: assumendo la più comune prospettiva geocentrica si spiegava l’anno in base al tempo di percorrenza impiegato dal Sole nel suo moto apparente attorno alla Terra, ma non mancò chi spiegò gli stessi fenomeni supponendo al contrario la prospettiva eliocentrica e dunque la rivoluzione terrestre annuale attorno al Sole (Aristarco da Samo, Seleuco Caldeo). In entrambi i casi, si trattava solo di stabilire che cosa ritenere fermo e che cosa ritenere in moto: sia ponendo in moto il Sole mantenendo ferma la Terra sia ponendo in moto la Terra mantenendo fermo il Sole, nell’uno come nell’altro caso gli stessi fenomeni sembravano poter essere dedotti e spiegati. Con ogni probabilità il noto paradosso zenoniano che vuole immobile la freccia in moto allude anche a un problema astronomico: esso probabilmente indicava in linguaggio cifrato a chi poteva comprendere che il Sole apparentemente in moto poteva anche essere fermo e che al contrario la Terra apparentemente ferma poteva anche essere in moto. Come è noto questi problemi di relatività riapparvero in Galileo il quale spiegava proprio con il principio di relatività l’inosservanza del moto terrestre all’abitante della Terra, stante il sistema unico costituito dalla Terra e dalla sua atmosfera, esemplificando con il battello all’interno del quale è indistinguibile lo stato di quiete e di moto uniforme. Il problema è però se tale dilemma relativistico venga sciolto in base ad un’opzione ben precisa e motivata, o se invece tale opzione sia dichiarata una questione puramente convenzionale di riferimenti presi a piacere. Galileo, come è noto, era convinto (giustamente) che il moto assoluto della Terra fosse comprovato dalla deviazione dalla perpendicolare del grave in caduta nonché (non del tutto ma almeno in parte giustamente) dal feno124
meno delle maree terrestri46. Oggi noi possiamo ritenere la caduta leggermente inclinata dei gravi, il rigonfiamento equatoriale e l’appiattimento ai poli, la misurazione delle variazioni di oscillazione del pendolo di Foucault, la misurazione della parallasse stellare e la fotografia satellitare, nonché in parte le stesse maree, come prove oggettive sufficientemente solide del moto reale, diciamo pure assoluto, della Terra: senonché proprio questo è dichiarato inaccettabile da un punto di vista relativistico. Einstein al riguardo citerebbe il paradossale principio di Mach (su cui torneremo), per il quale il pendolo di Foucault ha magari a che fare con la stella Sirio e giammai con un moto terrestre. L’equivalenza inverosimile dei sistemi di riferimento Al riguardo – proprio dal punto di vista epistemologico – non può non suscitare perplessità quanto scrisse Poincaré, che (come si è detto) prima di Einstein sostenne una forma di principio relativistico: «è più comodo supporre che la Terra giri, poiché così le leggi della meccanica possono essere espresse in un linguaggio molto più semplice. Questo non impedisce che lo spazio assoluto, cioè il punto di repere a cui bisognerebbe rapportare la Terra per sapere se essa realmente gira, non possieda alcuna esistenza oggettiva. Di conseguenza l’affermazione “la Terra gira” non ha alcun senso, poiché nessun esperimento permetterà di verificarla, e poiché un simile esperimento non solo non potrebbe essere né realizzato né sognato dal più ardito dei Jules Verne ma nemmeno potrebbe essere concepito senza contraddizione, o piuttosto le due
46 Cfr. M. de Paoli, Theoria Motus: i princìpi della meccanica dall’aristotelismo alla fisica classica, in Theoria Motus. Studi di epistemologia e storia della scienza, cit., particolarmente pp. 45-64. Per una decisa rivalutazione della teoria galileiana delle maree v. anche il lavoro del geologo I. Bindella, Luna Marea, Roma 2006, Ed. Lepisma, pp. 241-292.
125
proposizioni “la Terra gira” e “è più comodo supporre che la Terra giri” hanno un solo ed unico senso»47. Come si vede, il principio relativistico appare qui imprescindibilmente congiunto a una metodologia puramente convenzionalistica. In tal modo la scelta fra sistema tolemaico e sistema copernicano diventa una semplice questione di opportunità. Infatti – dice Poincaré – il moto dei pianeti è spiegato tanto dalla teoria tolemaica quanto dalla teoria copernicana: si tratta di scegliere la teoria che spiega meglio, e questo è tutto. Si sceglie cioè non il sistema più “vero” bensì il sistema più utile, più semplice, più comodo, e questo è quello eliocentrico. Ove si direbbe qui che Poincaré (come del resto Duhem e più tardi Popper, Lakatos, Feyerabend) dia paradossalmente ragione all’accomodante prefazione di Osiander (che suscitava gli insulti di Bruno) al De revolutionibus di Copernico, nonché all’inquisitore Bellarmino e all’argomento di Urbano VIII (di cui Galileo si faceva malcelate beffe nel finale del Dialogo dei massimi sistemi): il sistema eliocentrico sarebbe solo una ipotesi convenzionale e in nessun modo una dottrina verace (Osiander: «Neque enim necesse est eas hypotheses esse veras, imo, ne verisimiles quidem; sed sufficit hoc unum, si calculum observationibus congruentem exhibeant»). Del resto in Poincaré la cosa è coerente: abolito infatti l’assunto dello spazio assoluto («lo spazio assoluto non possiede alcuna esistenza oggettiva») diventa in effetti problematico dire se la Terra ruoti veramente o no. E tuttavia si deve qui rilevare una contraddizione interna, poiché altrove Poincaré nota che un osservatore può comunque verificare la rotazione assoluta della Terra «sia misurandone lo schiacciamento [...] sia ripetendo l’esperimento del pendolo di Foucault»48. Ove ben si vede: il realismo de facto dello scienziato ne contraddice il convenzionalismo de jure. Non si creda ora che questa posizione sia propria solamente del
47 J.H. Poincaré, La science et l’hypothèse, 1902, tr. it. La scienza e l’ipotesi, Bari 1989, Dedalo, p. 129. 48 Ivi p. 96.
126
convenzionalismo di Poincaré, perché Einstein (che lesse La science et l’hypothèse) ripete mutatis verbis la stessa cosa: «potremo adottare il punto di vista di Tolomeo e quello di Copernico ad uguale diritto. Le due proposizioni: “il Sole è immobile e la Terra gira” e “il Sole gira e la Terra è immobile” avrebbero semplicemente il significato di due convenzioni diverse»49. Dunque per la teoria della relatività, a rigore, non ci si può definire né copernicani né tolemaici. A rigore, non importerà più stabilire se sia la Terra a ruotare attorno al Sole o viceversa: l’osservatore potrà considerare se stesso come sistema immobile di riferimento con il Sole che ruota intorno; ma, essendo lui a stabilire cosa è in moto e cosa non lo è, egli in una sorta di onnipotenzialità fittizia potrà anche, come Giosuè, ordinare al Sole di fermarsi così ponendolo come riferimento immobile con la Terra in rotazione. Si può porre a piacere tanto la Terra in moto rispetto al Sole immobile quanto il Sole in moto rispetto alla Terra immobile: a seconda del riferimento scelto, si potrà aderire tanto al geocentrismo quanto all’eliocentrismo. Il problema di definire la reale natura delle cose diventa uno pseudo-problema metafisico di nessuna rilevanza. Eppur sta ferma, eppur se move? Fate come vi pare. Al “realista ingenuo” che intenda sapere se realmente a muoversi sia la Terra o il Sole, si risponderà: che importa? Cela m’est bien égale! Scegli l’opzione che ti piace, purché abbia un sistema di riferimento, e non mi seccare. O per meglio dire: da un punto di vista relativistico, non è importante stabilire se è la Terra che ruota attorno al Sole o viceversa (o se è il treno che si muove verso la stazione o viceversa, etc.): l’importante è dare una descrizione matematica precisa di ciò che accade, fornendo tempi e velocità, e siccome questo noi lo possiamo fare assumendo in quiete o in moto l’uno o l’altro dei sistemi di riferimento, questo ci basta; se si vuole si assuma pure la Terra in moto attorno al Sole come sistema di riferimento per i calcoli, ma lasciamo stare se davvero si muove. Come diceva un distico nel ’500: «che mi importa se, immoti il Sole e il cielo, si muove la Terra? Purché i miei calcoli tornino» 49
A. Einstein – L. Infeld, L’evoluzione della fisica, cit. p. 222.
127
(Quid tum si mihi Terra movetur, Solque quiescit et caelum? Constat calculus inde mihi). Senonché, sia pure che alcuni fenomeni si descrivano cinematicamente scegliendo come sistema di riferimento sia il treno che la stazione, sia il Sole che la Terra: però con questo noi abbiamo soltanto un calcolo che descrive certi fenomeni e per nulla affatto un tentativo di comprendere la realtà, a cui la scienza non può rinunciare senza abdicare e venire meno a se stessa. Sembra qui trasparire nella teoria della relatività una logica manichea del “o tutto o nulla” per cui, se non appare un criterio univoco e universale per stabilire valori oggettivi riferibili a uno spazio, a un tempo, a un moto assoluti, allora in mancanza di tale criterio non restano che parametri relativistici: mentre invece, pur in mancanza di un riferimento assoluto di spazio, tempo e moto, sussistono comunque indizi e “segni” in base a cui stabilire determinazioni oggettive. Così Galileo, pur conoscendo il principio di relatività (l’esempio della nave in moto indistinguibile dalla quiete), cercava comunque di capire «come vadia il cielo» e cercava anzitutto nella deviazione dalla perpendicolare del grave in caduta e, pur in parte (ma solo in parte) errando, anche nelle maree la riprova oggettiva di un moto reale (“assoluto”) della Terra. Naturalmente noi oggi citeremmo altri elementi probanti, quali quelli già ricordati: insomma si vuol dire che, pur in mancanza dell’“occhio di Dio” quale criterio universale, esistono però indizi vari da cui dedurre nella fattispecie la riprova del moto terrestre50. Viceversa, rifiutan-
50 Come esempio si può citare l’interessante esperimento ideato da U. Bartocci, matematico dell’università di Perugia: poiché un campo magnetico in movimento esercita una forza capace di porre in moto una carica elettrica, egli ha verificato che su una nave in moto uniforme un magnete risente del moto e pone in moto la carica, ciò che ovviamente non fa sulla nave in quiete, così invalidando il principio relativistico dell’indistinguibilità fra quiete e moto uniforme e la conseguente pretesa dell’impossibilità del rilevamento del moto all’interno del sistema in moto uniforme (l’articolo sulla questione inviato da Bartocci nel 1999 per i “Rendiconti” dell’Accademia Nazionale dei Lincei venne rifiutato, perché evidentemente non si deve toccare la relatività).
128
do di impegnarsi in affermazioni circa la natura reale – e diciamo pure ontologica – delle cose, la teoria della relatività mostra il suo limite costitutivo. Questo avviene anzitutto in quanto la scienza e in particolare la fisica relativistica, radicalizzando il progetto galileiano di «non tentar le essenze» e solo ricercando la determinazione quantitativa delle relazioni fra fenomeni, necessariamente riduce ogni spazio, ogni tempo, ogni moto a relazione facendone per l’appunto un che di relativo a un altro spazio, un altro tempo, un altro moto. Senonché proprio qui appare il limite costitutivo e strutturale della teoria relativistica. La sua insufficienza si rivela precisamente laddove in un mero pragmatismo essa si accontenta di descrivere matematicamente le relazioni cinematiche fra fenomeni senza più nulla chiedere circa la realtà dei loro moti. La debolezza intrinseca della teoria della relatività sembra consistere proprio in questa sua continua ricaduta in un convenzionalismo epistemologico e in una sorta di indifferentismo semantico. Se invece ora torniamo nuovamente, in tema di relatività e astronomia, agli antichi, sempre vedremo come essi affrontassero in modo ben diverso le situazioni relativistiche a loro ben note. Ecco ad esempio uno straordinario brano di Platone, contenuto nelle Leggi (VII 822ac): «Non è corretto dire che il più veloce dei pianeti sia il più lento e che il più lento sia il più veloce. Se le cose sono per natura in un determinato modo e noi invece non le pensiamo così come sono, e se ad esempio allo stadio di Olimpia noi pensassimo che il cavallo o l’uomo che corre più lento sia invece il più veloce, e viceversa che il più veloce sia il più lento, e se nel comporre i canti di lode finali cantassimo il vinto come vincitore, io credo che questo non sarebbe per niente giusto [...]. Ebbene: noi ora commettiamo lo stesso errore addirittura nei confronti degli dèi e non pensiamo che, come le nostre supposizioni allo stadio erano ridicole e sbagliate così ora, in questi argomenti di cose celesti, è assolutamente ridicolo e del tutto sgradito agli dèi attribuire loro, nei nostri inni, inganni e menzogne». Come si vede, in questo brano Platone equipara le corse nello stadio alle corse che effettuano i corpi celesti in cielo. E domanda: quali sono i corpi celesti più veloci e quelli più lenti? Si 129
noti la natura relativistica del quesito: infatti, se la Terra è immobile al centro dell’universo (ciò su cui pare l’ultimo Platone avesse dei dubbi) allora la volta celeste le ruota intorno nelle 24 ore: in tal caso Saturno, il pianeta per gli antichi più lontano dalla Terra e più vicino alla sfera rotante delle stelle fisse, che in realtà è assai lento, dovrebbe apparire come il più veloce (si pensi sempre all’immagine del disco che gira sul piatto); viceversa il corpo celeste più vicino al centro della sfera del mondo e dunque alla Terra e in realtà al confronto piuttosto veloce, ovvero la Luna, dovrebbe apparire come il corpo più lento. Al contrario: se la Terra ruota nelle 24 ore attorno al proprio asse allora la volta celeste sarà immobile, cosicché la Luna potrà apparire come il corpo più veloce e Saturno come il più lento. Quindi: se la Terra è il centro immobile dell’universo, Saturno apparirà velocissimo e la Luna lentissima; se immobile è il cielo e la Terra ruota su se stessa, Saturno apparirà lentissimo e la Luna velocissima. Platone dunque si rende perfettamente conto del fatto che, a seconda della prospettiva assunta (immobilità della Terra e rotazione del cielo o viceversa), un determinato corpo celeste in moto può apparire come il più lento oppure come il più veloce: e siccome non era chiaro quale fosse il punto di riferimento immobile e quale quello mobile (non era chiaro insomma se la Terra si muovesse o no), ecco la difficoltà di determinare la reale velocità dei pianeti. Senonché, di fronte a questa difficoltà, Platone non dice affatto: fate come vi pare, adottate la prospettiva che preferite, se vi piace dite che è la volta celeste a girare e che Saturno è il corpo più veloce, e se invece non vi piace dite pure che la Terra ruota su se stessa e che Saturno è il corpo più lento. Platone anzi dice che ragionare in questo modo sarebbe una bestemmia contro gli dèi; dice che non bisogna premiare per sbaglio il corridore più lento come se fosse il più veloce; dice, come Galileo, che occorre capire «come vada il cielo». La vera astronomia, intende Platone, è precisamente quella che conosce le velocità reali degli astri, e che non confonde il più lento con il più veloce e il più veloce con il più lento: per Platone «salvare i fenomeni» (sÒzeintafain Òmena) non significa, come intese Du130
hem51, avvalersi di spiegazioni strumentali e operative che nulla dicano sulla reale natura delle cose. Mentre Poincaré ed Einstein dicono che eliocentrismo e geocentrismo sono soltanto due diverse convenzioni fra le quali è impossibile dire quale sia la più vera, Platone invece non ragiona affatto allo stesso modo. Dal che ben si vede: i filosofi greci – poiché erano i filosofi greci – conoscevano gli effetti relativistici e le variazioni apparenti dei tempi e delle velocità, ma non per ciò assumevano una posizione relativistica; essi invece cercavano di capire quali velocità fossero apparenti e quali reali, e insomma cercavano di capire quale fosse la reale conformazione del sistema planetario. Sapevano bene, essendo questa una delle prime acquisizioni del pensiero presocratico, che i sensi ingannano o almeno (come diceva Epicuro) che l’intelletto può errare nel giudicarli e che dunque essi vanno filtrati alla luce della ragione. Essi dunque conoscevano gli effetti relativistici, ma non se ne appagavano in una sorta di indifferenza epistemologica: al contrario intendevano capirli e decifrarli, per sapere qualcosa circa la reale natura delle cose. Si comprende dunque con ciò perché la fisica classica parlasse di moti assoluti, per quanto sia Galileo che Newton conoscessero benissimo i moti relativi. Certamente si può dire che in taluni casi occorra precisare il punto di riferimento per definire se trattasi di quiete o di moto: così Galileo (seconda giornata del Dialogo) dice che un uomo chiuso in una cabina senza oblò di una nave in moto uniforme non potrebbe capire se la nave è ferma o in moto, e che una goccia d’acqua cadrebbe nel vaso proprio come se la nave fosse ferma; così il passeggero fermo sulla nave in moto può dirsi fermo rispetto alla nave e in moto rispetto alla riva; così un passeggero in moto con tre gradi di velocità sul ponte e nella stessa direzio-
51 P. Duhem, Sózein tà phainómena. Essai sur la notion de théorie physique de Platon à Galilée, 1908 (tr. it. Salvare i fenomeni. Saggio sulla nozione di teoria fisica da Platone a Galileo, Roma 1986, Borla).
131
ne della nave che viaggia con 30 gradi di velocità si muove di 3 gradi rispetto alla nave e di 33 gradi rispetto a un osservatore sulla riva. Parimenti, fornendo un altro esempio di relatività del moto, sappiamo che un satellite lanciato in orbita attorno alla Terra, che viaggi alla stessa velocità e nello stesso senso della rotazione terrestre, si muoverebbe in modo perfettamente speculare alla Terra; dunque si troverebbe sempre sopra lo stesso punto della superficie terrestre e, visto da Terra, apparirebbe fermo. Questo è un caso di indistinzione relativistica fra moto e quiete, ma dobbiamo noi appagarcene? In realtà il ragionamento giunge in soccorso alla fallacia percettiva, dicendoci che il satellite può solo essere in moto, e in moto alla stessa velocità e nello stesso senso della Terra, perché se fosse fermo precipiterebbe sulla Terra e se procedesse più lentamente rimarrebbe indietro. Ciò vuol dire che un paradosso relativistico, in linea generale, va posto per essere sciolto. Per questo nella fisica classica il moto di un corpo, in linea di principio qualsiasi moto, appare assoluto: l’esperienza del secchio rotante di Newton, tanto contestata da Mach, ne è l’esempio più semplice. Quanto Newton intende, e che Mach fraintende, è che un corpo in moto è in moto di per sé e non relativamente a un altro corpo. Il treno non è affatto in moto rispetto al palo della luce, è in moto e basta. Che poi noi, per definire tale moto, possiamo aver bisogno di rapportarlo al palo, è altra questione. Relatività del moto certo non significa che un corpo sia simultaneamente in quiete e in moto, che si muova e non si muova al tempo stesso, bensì che noi possiamo aver bisogno di un sistema di riferimento per definire se un corpo è in moto o no. Certamente noi abbiamo bisogno di punti di riferimento e di repere per determinare un moto, senza i quali potremmo anche non accorgerci che moto vi sia: ma questa è cosa che riguarda noi, non il moto. In certi casi non possiamo descrivere il moto di un corpo senza far riferimento a un altro corpo: ma ciò certo non significa che realiter tale moto avvenga in riferimento a quel corpo. Ci avvaliamo di coordinate e di schemi di riferimento per percepire e definire un moto: ma il moto in sé non è per nulla affatto relativo a tali schemi e coordinate. Possiamo aver bisogno delle 132
stelle fisse quali coordinate per determinare un moto planetario: ma ciò non significa affatto (con buona pace del principio di Mach) che tale moto sia relativo alle stelle fisse. Possiamo usare Sirio come stella fissa per determinare il moto di Marte: ma Marte non è in moto rispetto a Sirio. Siccome noi in molti casi abbiamo difficoltà a definire se un corpo sia in moto o meno senza riferirlo a un sistema di riferimento, siccome in taluni casi dobbiamo riferirci a un corpo B per capire se A rispetto a B sia in movimento, allora usiamo dei sistemi di riferimento: ma questo non significa che il moto sia relativo e che non esista un moto assoluto. In realtà tutti i moti sono assoluti: un movimento è sempre in sé e in quanto tale un moto assoluto, anche se noi per definirlo e misurarlo abbiamo bisogno di relativizzarlo rapportandolo a un sistema di riferimento.
133
VII Analisi della simultaneità I misteri del treno relativistico La natura equivoca non degli effetti relativistici bensì dell’interpretazione datane è riscontrabile ovunque, negli esempi forniti da Einstein. Consideriamo il più classico esempio einsteiniano: il “treno relativistico”. Al riguardo Einstein riporta anzitutto il classico caso dell’osservatore che a tutta prima, senza altri punti di riferimento, non capisce bene la situazione e pensa che il treno in cui si trova stia partendo mentre invece sta partendo il treno a fianco (o viceversa). Insomma, sul treno di Einstein accade qualcosa già subito alla partenza: credo di muovermi e invece è il treno dirimpetto che si muove. La situazione è ben nota, ma quello che sorprende è il modo in cui Einstein l’affronta in base alla sua teoria. Egli dice infatti: è ininfluente stabilire quale treno si muova; relativamente a un osservatore si muove il treno A mentre per un altro si muove il treno B o magari tutta la stazione. Ma possiamo noi plausibilmente dire che il treno in partenza è fermo e che in realtà è la stazione che si sta allontanando? Eppure Einstein questo dice: «ritornando all’esempio [...] della banchina e del vagone ferroviario, possiamo con uguale diritto esprimere il fatto del moto che ivi ha luogo nelle due forme seguenti: a) il vagone è in moto rispetto alla banchina; b) la banchina è in moto rispetto al vagone»52. Dal che se ne ricava che la teoria della relatività, expressis verbis del suo fondatore, è quella strana teoria che consente di dire – senza che nessuno obietti nulla – che quando il treno si allontana dalla stazione si può altrettanto logicamente affermare che in realtà è la stazione che si allontana dal treno; parimenti su un treno in moto potremmo dire che in realtà il suolo si muove all’indietro e che il palo della luce si avvicina al treno. Forse spronati da simili passi di Einstein, al-
52
134
A. Einstein, Relatività, cit. p. 90.
135
cuni divulgatori della relatività hanno detto di tutto al riguardo: Piero si allontana da Paolo ma cambiando riferimento è Paolo che si allontana da Piero; allontano un sasso con un calcio ma cambiando riferimento è il sasso e con il sasso la Terra e l’universo intero che si allontanano da me53. Senonché noi in realtà sappiamo che solo per amor di paradosso possiamo dire cose del genere. Un fisico relativista può dire questo e altro ma certamente non domanderà mai, se non in stato di ebbrezza, al controllore: si ferma, Oxford, al treno? Nemmeno chiederà, come Casanova bambino in barca – in “burchiello” –, perché gli alberi, come quelli della foresta di Burnham nel Macbeth, si avvicinano (lo racconta egli stesso nei Mémoires54), e nemmeno prenderà alla lettera il Carducci quando nella poesia Davanti San Guido parla dei cipressi di Bolgheri che gli corrono incontro come «giganti giovanetti». Così per capire se è il suo treno o quello dirimpetto a muoversi, il fisico relativista chiederà conferma dell’orario: cioè cercherà una verifica al di fuori della situazione data. Allo stesso modo, se un osservatore sulla barca vede il ramo spezzato sotto l’acqua e un sommozzatore dal di sotto lo vede spezzato sopra l’acqua, si potrà rispondere ad entrambi che basta togliere il remo dall’acqua per vedere che esso non è spezzato, e che ogni diversa percezione è spiegabile con le leggi di rifrazione della luce. Certo, per descrivere cinematicamente il moto può anche essere indifferente (= equivalente) considerare in moto la banchina o il treno: ma per capire il moto e la realtà le due affermazioni non sono affatto equivalenti. Il problema che la teoria della relatività suscita dal punto di vista epistemologico è proprio questo: che essa lasci impregiudicata la fondamentale questione dell’oggettività, irrinunciabile per l’autentica scienza. 53 Le esposizioni divulgative hanno spesso nuociuto alla teoria della relatività, fraintendendola e banalizzandola con argomenti ad effetto spettacolare. In particolare Gardner al riguardo ha letteralmente lasciato andare a briglia sciolta la propria fertile immaginazione (v. M. Gardner, Relativity for the million, 1962, tr. it. Che cos’è la relatività, Firenze 1977, Sansoni). 54 G. Casanova, Histoire de ma vie (tr. it. Storia della mia vita, Milano 1983, Mondadori, vol. I p. 28).
136
Ma il “treno relativistico”, che perfino fermo alla stazione già suscitava problemi relativistici, continua per Einstein a suscitarne anche in viaggio. Infatti, viaggiando con il treno relativistico, vediamo che in esso avvengono altre strane cose. Scrive Einstein: «io sto al finestrino di un vagone ferroviario che viaggia a velocità uniforme, e lascio cadere una pietra sulla banchina, senza imprimerle alcuna spinta. Allora, prescindendo dalla resistenza dell’aria, vedo discendere la pietra in linea retta. Un pedone, che osserva il fattaccio dal sentiero lungo la ferrovia, vede che la pietra cade a terra descrivendo un arco di parabola. Domando ora: le posizioni percorse dalla pietra stanno in realtà su una retta o su una parabola?»55. Dunque: vista dal viaggiatore avremmo una caduta perpendicolare del grave, e vista dal pedone una caduta parabolica. Einstein domanda chi ha ragione e ancora una volta risponde salomonicamente: entrambi. Infatti: «la pietra percorre una linea retta relativamente a un sistema di coordinate rigidamente collegate al vagone mentre descrive una parabola relativamente a un sistema di coordinate rigidamente collegato al terreno (banchina)». E conclude: «da quest’esempio si vede chiaramente che non esiste una traiettoria in sé, ma soltanto una traiettoria rispetto a un particolare campo di riferimento»56. Insomma non si può dire se la traiettoria in sé del grave in caduta sia perpendicolare o parabolica. Ma ci si può appagare di questa pseudo-soluzione? Come non esiste una traiettoria in sé? Certo la pietra non può cadere simultaneamente di un moto perpendicolare e di un moto parabolico. Essa in realtà solo in uno stato di quiete assoluta cadrebbe perpendicolarmente, ma considerando il moto del treno (oltre al moto terrestre per una percentuale infinitesimale) essa cade approssimativamente a parabola. Il problema è analogo alla caduta dei gravi esaminata da Galileo in riferimento al moto terrestre: vista da terra la traiettoria sembrerà perpendicolare ma in realtà per il moto terrestre essa è una intersezione
55 56
A. Einstein, Relatività, cit. p. 50. Ivi p. 51.
137
fra moto perpendicolare e circolare, che produce una traiettoria approssimativamente parabolica. Similmente, tornando all’esempio di Einstein della pietra caduta dal treno, va detto che il moto del treno accentua la caduta a parabola ben più del moto terrestre. Ma soprattutto, si tratta di un ragionamento fisico che possono fare entrambi gli osservatori, sia quello sul treno sia quello a terra, e va aggiunto che anche dal punto di vista percettivo l’osservatore sul treno vede sostanzialmente ciò che vede l’osservatore a terra, e cioè una sorta di moto parabolico. Dov’è dunque l’errore? C’è, ed è anche piuttosto palese. Einstein infatti introduce surrettiziamente un’aporia nel ragionamento: quando scrive nel brano citato che «prescindendo dalla resistenza dell’aria» l’osservatore sul treno vede una caduta perpendicolare mentre viceversa suppone implicitamente, senza dirlo, che invece l’osservatore a terra consideri la resistenza dell’aria nell’osservare una caduta parabolica. Dunque Einstein, senza dirlo, prescinde dall’aria solo per il viaggiatore in treno e non per il pedone. Ma questo è proprio un trucco, uno pseudo-ragionamento di quelli che Aristotele smascherava in quantità negli Elenchi sofistici. L’aria, o la consideriamo per entrambi gli osservatori o non la consideriamo affatto: se, come si deve, la consideriamo per entrambi allora entrambi vedranno una caduta approssimativamente parabolica – anzi, non semplicemente vedranno: la caduta del grave sarà realmente, effettivamente, oggettivamente la parabola approssimata già studiata da Galileo. Invero il treno di Einstein sembra una sorgente continua di paradossi. Poniamo ora che un osservatore A sul treno, udendone il fischio, ne misuri la frequenza in 50 onde al secondo di una determinata lunghezza. È questa una misurazione oggettiva? Einstein direbbe di no. Infatti: B esterno a cui il treno si avvicina sentirà un suono più acuto, in quanto le onde effettuando un percorso minore impiegheranno un minor tempo per giungere a lui cosicché accavallandosi aumentano di frequenza; invece C esterno da cui il treno si allontana sentirà un suono più grave, in quanto le onde impiegando un tempo più lungo per giungere a lui si allungheranno e distenderanno così diminuendo di frequenza. È l’effetto Doppler e al riguardo Einstein afferma logicamente che nessuno dei tre osservatori soffre di un’illusio138
ne percettiva: tutte le misurazioni degli osservatori sono oggettive e, pur diverse, tutte altrettanto “vere”. Fin qui ci siamo, però subentra un problema: il treno comunque procedendo a una certa velocità in un certo tempo produce fischiando una certa frequenza, ovvero un certo numero di onde al secondo (abbiamo posto 50 per convenzione), e questo sembra un valore oggettivo. Certamente il fischio del treno non può produrre in un secondo 50, 40 e 60 onde al tempo stesso, né può produrre onde al tempo stesso gravi e acute. Le onde sono sempre quelle, 50 al secondo, e il suono sarà grave o acuto in sé in relazione a quella frequenza e a quella lunghezza d’onda: B conterà poniamo 60 onde soltanto perché le onde in avvicinamento restringendosi in lunghezza aumenteranno in frequenza, e di conseguenza sentirà un suono acuto che cresce in altezza; invece C conterà poniamo 40 onde, e sentirà un suono basso e grave, per il motivo opposto. L’“effetto Doppler” è per l’appunto un “effetto”, ed è impossibile sostenere che, poiché la percezione di un suono è relativa alla distanza dell’osservatore, allora il suono stesso sia in sé relativo, ovvero grave e acuto al tempo stesso. In realtà infatti sia B che C, misurando la loro distanza dal treno in avvicinamento o in allontanamento, e dunque sottraendo il grado di accavallamento o aggiungendo il grado di stiramento delle onde, possono dedurre esattamente il numero reale delle onde prodotto dal treno a una velocità data, e dunque la frequenza e la lunghezza oggettiva dell’onda sonora. Ma i paradossi del “treno relativistico” non sono ancora terminati. Esaminiamo al riguardo un’altra situazione descritta dal padre della relatività. Abbiamo un viaggiatore A che al centro di un vagone di un treno in moto accende una pila, il cui duplice raggio luminoso tocca entrambe le pareti. Verrebbe naturalmente da dire: i raggi luminosi toccano le equidistanti pareti opposte nello stesso tempo. Ma Einstein ribatte che questo è vero soltanto per il viaggiatore al centro del vagone57 in quanto due avvenimenti, simultanei per
57
A. Einstein - L. Infield, L’evoluzione della fisica, cit. p. 188.
139
chi li osserva all’interno di un dato sistema, appaiono successivi per chi dal di fuori a una certa distanza veda detto sistema in movimento. Egli dice: non possiamo dire in assoluto se il viaggiatore è fermo o in moto; per dirlo, dobbiamo scegliere un sistema di riferimento: allora il viaggiatore è fermo rispetto all’interno del vagone, e in moto rispetto al terreno. Così un osservatore B a terra, che posto esattamente di fronte al vagone vede il treno passargli davanti, vedrà una parete del vagone allontanarsi e l’altra avvicinarsi: di conseguenza, secondo Einstein, egli vedrà che il segnale luminoso diretto verso la parete in allontanamento effettua un percorso più lungo ed è più allungato mentre invece il segnale diretto verso la parete in avvicinamento è più corto ed effettua un percorso più breve, cosicché la luce – per questo osservatore a terra – toccherà la seconda parete prima dell’altra. O più semplicemente: il raggio che si avvicina nella sua direzione verrà rilevato con una maggiore frequenza e una minore lunghezza d’onda mentre per l’altro raggio sarà il reciproco, cosicché B non potrà rilevare alcuna simultaneità. Infine un terzo osservatore C, in viaggio su un altro treno che in senso opposto incrocia il primo, vedrà avvicinarsi la parete del vagone che si allontana da B e quindi vedrà arrivare prima il raggio che B vede arrivare dopo, mentre vedrà dopo l’altro raggio che B vede arrivare prima. Per Einstein, non v’è un sistema di riferimento privilegiato, e dunque non v’è motivo di preferire il punto di vista di un osservatore rispetto a quello di un altro: non abbiamo alcun criterio per decidere quale dei due o tre o mille osservatori abbia ragione. Così, basta mutare la prospettiva e immediatamente la simultaneità diventa successione e la successione simultaneità. La simultaneità appare relativa e dipendente dal sistema di riferimento: i due segnali luminosi sono e non sono simultanei al tempo stesso. Ciò che è simultaneo per un osservatore non lo è per un altro, e dice Einstein: ciascun osservatore vede ciò che deve vedere, e nessuno è vittima di un inganno percettivo. Dunque tutti hanno ragione: A per cui i segnali sono simultanei, B per cui il primo segnale segue il secondo, C per cui lo precede. La teoria della relatività appare qui come 140
quella teoria per la quale di un sistema si possono dare rappresentazioni totalmente diverse, ma tutte rigorosamente vere; essa appare come quella strana teoria in cui tutti hanno ragione pur dicendo cose assolutamente opposte. Come si vede, per il fenomenismo relativistico di origine machiana veramente esse est percipi: poiché il segnale luminoso nel vagone viene percepito in tempi diversi dai vari osservatori, in quiete o in moto e in moto in sensi contrari, allora la determinazione oggettiva del tempo reale impiegata dal doppio segnale nel toccare le pareti opposte appare subordinata se non ininfluente, quasi che il doppio segnale possa davvero toccare le pareti in due tempi diversi. Ma è proprio così? Sovviene qui l’esempio di Bergson58: un pittore dipinge a grandezza naturale Jean che è a pochi metri di distanza, e alle dimensioni di un nano Jacques che si trova a 300 metri; viceversa un altro pittore, situato presso Jacques, dipinge Jacques a grandezza naturale e Jean come un nano. Entrambi i pittori certo hanno ragione dal loro punto di vista e in base alle leggi della prospettiva: ma – conclude Bergson – dal fatto che entrambi abbiano ragione, si ha forse il diritto di concludere che Jean e Jacques abbiano al tempo stesso la taglia normale e la taglia di un nano, o che si possa attribuire loro a piacere la taglia che si vuole? Se fosse così, poiché un uomo visto a distanza appare rimpicciolito, allora potremo dire che quest’uomo sia privo di altezza o meglio che sia il portatore di mille altezze diverse, e magari potremmo aggiungere che quando si allontana l’uomo veramente diminuisce man mano di altezza mentre quando si avvicina veramente si ingrandisce. Naturalmente invece, proprio perché il rimpicciolimento degli oggetti a distanza è un effetto prospettico reale, allora calcolando il rapporto fra riduzione prospettica della grandezza e distanza, noi possiamo conoscere la grandezza reale di Jean e di Jacques. Così Gulliver è un gigante per i lillipuziani, mentre i lillipuziani sono dei nani per Gul-
58
H. Bergson, Durée et simultanéité. A propos de la théorie d’Einstein, cit. p. 100.
141
liver: entrambi certo hanno ragione eppure è possibile misurarne le altezze reali in base a determinati metri di misura. Ma il fatto è che in base all’assunto relativistico non sembra importante conoscere l’altezza reale e oggettiva: sembra invece che solo importi conoscere con esattezza come appaia l’altezza di Jean e di Jacques calcolata da Tizio, Caio, Sempronio e Pinco Pallo. Ma cosa è più importante: determinare le dimensioni reali del Sole oppure stabilire che ad un osservatore sulla Terra esso appaia grande come una moneta, ad uno su Mercurio come un melone, a uno su Saturno come una piccola biglia? Si potrebbe obiettare – circa questi strani segnali luminosi il cui tempo resta indeterminato – che ciò che Einstein mostra non è che non vi sia simultaneità oggettiva, ma semplicemente che gli osservatori possono non essere in grado di decidere se simultaneità vi sia o no. Senonché la cosa non sta nemmeno in questi termini, in quanto una misurazione oggettiva sussiste. Infatti il vagone, il viaggiatore e i due raggi luminosi costituiscono un sistema chiuso indistinguibile dalla quiete. Certamente il viaggiatore del vagone in moto non rimane fermo mentre le pareti “si spostano”: il viaggiatore è spostato tanto quanto le pareti, ed anzi all’interno del vagone tutto è fermo come in stato di quiete, cosicché le distanze rimangono invariate. Di conseguenza, dati due raggi luminosi inviati simultaneamente dal centro del vagone, i due raggi percorreranno la stessa distanza nello stesso tempo e dunque colpiranno le pareti opposte esattamente nello stesso momento, proprio come se il treno fosse fermo, essendo i raggi simultanei fin dalla partenza. Si potrebbe cioè dire, circa questo strano treno a fisarmonica che si allunga e si allontana da una parte e si accorcia avvicinandosi dall’altra, circa questo strano strano treno le cui pareti scappano da una parte e ti vengono addosso dalla parte opposta, che in realtà esso non sussiste, altrimenti sarebbe lecito domandare all’osservatore terrestre quanto tempo impiegherà la parete in preteso avvicinamento a urtare l’osservatore sul treno. In realtà i due segnali luminosi raggiungeranno le pareti del vagone simultaneamente: che poi a differenti osservatori esterni le cose appaiano nell’uno o nell’altro modo, è al142
tra questione; certo che un osservatore in moto verso il vagone vedrà prima una luce e poi l’altra, ma questo cosa significa? Se dunque si domandi come decidere quale degli osservatori abbia ragione, si risponderà: da una misurazione che rilevi l’uguaglianza degli spazi percorsi dalla luce nel vagone non si potrà non ricavare l’uguaglianza di tempi e dunque la simultaneità. Inoltre, anche ammettendo che il ragionamento di Einstein sia corretto, proprio non si vede perché i tre osservatori, a terra e sul treno, non debbano percepire lo stesso evento: se i due raggi percorressero spazi diversi, cosicché un raggio impieghi più tempo da una parte che non dall’altra nel toccare la parete, allora questo dovrebbe essere percepito anche dall’osservatore sul treno, e in linea di principio misurato con un cronometro. Ma in realtà le percezioni di B a terra e di C sull’altro treno sono fallaci, perché essi sommano il tempo impiegato dal segnale luminoso a raggiungere la parete in allontanamento con il tempo e la distanza di allontanamento di detta parete da loro: insomma la questione sembra riguardare in non piccola misura la neurofisiologia della percezione, ma in realtà B e C, vedendo l’osservatore al centro del vagone, e ragionando e tenendo in debito conto l’uno il proprio stato di quiete e l’altro il proprio stato di moto, concluderanno che i raggi di luce toccheranno le pareti simultaneamente e non prima l’uno e poi l’altro. Lampi e tuoni Per Einstein non v’è simultaneità oggettiva, ed egli mostra vari casi di (apparente) indistinzione relativistica fra simultaneità e non simultaneità. Ma per parte nostra proponiamo l’accoppiata lampotuono come un buon esempio di “simultaneità non simultanea”. In sé infatti il lampo e il tuono possono dirsi simultanei, perché la scarica elettrica che avviene in cielo produce contemporaneamente un fenomeno visivo (lampo) e un fenomeno acustico (tuono): poiché però le onde acustiche si propagano nello spazio a una velocità molto minore di quelle luminose (340 m/sec contro 300.000 143
km/sec), allora necessariamente noi prima vediamo il lampo e soltanto qualche attimo dopo udiamo il tuono. Tuttavia anche in questo caso noi domandiamo: come negare che in sé l’evento originario sia un tutt’uno praticamente simultaneo, per quanto poi percepito nella successione lampo-tuono? Il lampo e il tuono sono lo stesso evento sincronico, anche se percepito lungo un asse diacronico: che poi noi percepiamo prima il lampo e poi il tuono è affar nostro, che non intacca l’unicità in sé dell’evento. Infatti in concomitanza con l’evento quelle onde tutte (luminose e acustiche) sono emesse in una simultaneità praticamente assoluta, anche se quelle luminose ci raggiungano prima: un po’ come corridori che partano insieme, simultaneamente, per quanto poi uno arrivi prima e l’altro dopo. Parimenti: se un soggetto accende una luce che si propaga in due direzioni opposte, se preme un interruttore in base a cui (fatti salvi i nanosecondi di propagazione della corrente) si accendono cinque lampade, cos’è questa se non una simultaneità? Certo, nella teoria di Newton in cui erroneamente si suppone istantanea la propagazione della luce e dunque infinita la sua velocità il problema non si pone neppure, in quanto qualunque osservatore vedrà la stessa simultaneità: ma anche conoscendo la velocità della luce e dunque i tempi diversi della sua percezione per l’uno o per l’altro osservatore, non ne consegue la negazione della simultaneità e nemmeno la sua relativizzazione. Infatti, il fatto che l’uno o l’altro osservatore (in moto o fermo, vicino o lontano) possa vedere prima questa o quella luce non ne nega assolutamente la simultaneità di emissione: che due eventi non siano simultanei per tutti gli osservatori ancora non ne nega la simultaneità di emissione. Come negare che durante un temporale due fulmini possono apparire simultaneamente, del tutto a prescindere dal fatto che un osservatore più vicino all’uno che all’altro possa percepire prima l’uno e poi l’altro? Einstein dice che la simultaneità, essendo connessa alla velocità di propagazione della luce, dipende dall’osservatore, cosicché non possiamo dire se i due eventi siano simultanei: in particolare per Einstein due eventi possono dirsi simultanei solo se avvengono in uno stesso luogo per osservatori interni al sistema che possano re144
cepirli allo stesso modo, mentre due eventi che avvengono in due luoghi diversi separati da una grande distanza non possono più dirsi simultanei perché la luce impiegherà tempi diversi per “consegnare” le immagini all’uno e all’altro osservatore lontani dal sistema. Ma in realtà la simultaneità di due eventi è antecedente alla propagazione della luce che (questa sì, in modo relativo all’uno o all’altro osservatore) ne trasmette le informazioni. Circa i tempi di percezione, tutto dipende infine da quanto tempo impiega il segnale luminoso, nel percorrere una certa distanza, ad arrivare a questa o quella sorgente recettiva: per un osservatore in quiete relativa impiegherà un certo tempo, per un altro in avvicinamento un tempo minore, per un terzo in allontanamento un tempo maggiore. In tal modo gli orologi degli osservatori segneranno naturalmente tempi diversi, ma ciò non toglie che all’origine i tre segnali luminosi possano essere stati inviati simultaneamente ancorché non simultanea ne sia la recezione. Il fatto che tre segnali luminosi provenienti da uno stesso evento non pervengano simultaneamente a tre osservatori diversi non significa che nell’evento sorgente di quei segnali non vi sia una simultaneità oggettiva. Anzi, proprio accurate misurazioni dei tre tempi diversi di recezione del segnale luminoso in base alla distanza e allo stato di quiete o di moto dell’osservatore possono consentire la determinazione esatta e univoca della simultaneità oggettiva del fenomeno originario. Questo a dire il vero Einstein lo riconosce, ma allora si dovrà andare oltre e dire che due eventi possono essere in sé assolutamente simultanei, sebbene possano non esserlo relativamente a questo o quell’osservatore. Il duplice evento simultaneo – chiamiamola pure la “cosa in sé” – può apparire in tanti modi, ovvero può rifrangersi in tanti “fenomeni” quanti sono gli osservatori: ma esso rimane in sé simultaneo. Per dire ancora con Bergson, «la simultaneità reale resterà simultaneità, e la successione resterà successione».59
59
Ivi p. 128.
145
In realtà la relativizzazione einsteiniana della simultaneità dipende e consegue naturalmente dalla relativizzazione dello spazio e del tempo: infatti, se non esiste uno spazio e un tempo assoluto, se esistono solo spazi-tempi relativi, allora, di due eventi non appartenenti allo stesso spazio-tempo e non rilevati da osservatori interni, ovvero di due eventi spazialmente distanti e lontani, non avrà alcun senso dire che possano essere simultanei; non avrà senso dire che essi possano avvenire nello stesso tempo, e che dunque nello stesso tempo t possano avvenire in due luoghi lontani gli eventi x e y, per il semplice fatto che uno stesso tempo non v’è. Se ora io guardo fuori dalla finestra vedo che indubitabilmente in questo momento sussistono simultaneamente in un ordine dato tre alberi, un gatto, una casa, e quant’altro. Ma per Einstein questa simultaneità non vale più al di fuori di un dato e circoscritto ambito spazio-temporale. Di conseguenza non si potrà dire – nemmeno in linea di principio – che mentre sulla Terra ora io scrivo queste righe e simultaneamente il gatto dorme, in questo stesso momento su una stella lontana avverrà simultaneamente qualcosa quale che sia. Cosicché sorprende il paradosso che viene dalla riduzione einsteiniana della simultaneità a rilevazione soggettiva di un osservatore di contro a un altro: se infatti, al di fuori degli osservatori interni al sistema e per così dire dei suoi immediati paraggi, non esiste simultaneità assoluta ma solo relativa, allora dovremmo dedurne che in questo momento t1 nell’universo vi possa essere un solo evento in sé e non molteplici eventi simultanei. Ma forse nell’universo avviene un solo evento per volta? Noi non vediamo come si possa negare che in linea di principio, mentre sulla Terra in questo momento avviene un evento x, in questo stesso momento su Alpha Centauri possa avvenire un evento y; parimenti, se noi vediamo una stella esplosa distante quattro miliardi di anni luce, siamo autorizzati a dire che essa è esplosa quattro miliardi di anni fa all’incirca nello stesso momento e simultaneamente alla formazione del nostro sistema solare. Perché mai non possono esistere due eventi in sè simultanei, non solo all’interno di un medesimo sistema ma anche a lunghissima distanza? Einstein riconosce la simultaneità limitatamente a un siste146
ma dato e ai suoi osservatori interni, ma in realtà ciò deve valere per principio anche su grandi distanze. Peraltro, se si definisce la simultaneità relativa a questo o quell’osservatore, allora naturalmente anche la non-simultaneità, ovvero la successione causale per cui un evento segue a un altro, diventerà anch’essa relativa, cosicché per un osservatore una successione causale e temporale A-B può apparire simultaneità fra A e B: ma applicando questo ragionamento ne verrebbe abolito lo stesso nesso di causalità. Non potremmo più parlare di un “prima” e di un “dopo”, di una causa e di un effetto, e questo sembra alquanto paradossale: lo stesso Einstein non ha mai accettato questa abolizione nella fisica quantistica. Leibniz, a torto spesso definito un pre-relativista, definiva sì il tempo come «ordine ideale delle successioni» ma anche lo spazio come «ordine ideale delle simultaneità»: egli non annullava affatto l’oggettività della simultaneità. Si potrebbe dire che in termini spaziali la simultaneità, lungi dall’essere relativa, è la sola cosa che esiste e che tutto è simultaneo.
147
VIII Inerzia-gravitazione: l’equivalenza ambigua Tutto quanto sinora detto riguarda il principio di relatività ristretta, che concerne sistemi inerziali in quiete o in moto uniforme a velocità costante. Infatti in questi sistemi può facilmente rilevarsi un effetto di indistinzione fra lo stato di quiete e di moto: ad esempio un viaggiatore su un treno in moto uniforme può non accorgersi del proprio moto. Ma supponiamo che il treno freni o acceleri bruscamente: in tal caso il viaggiatore viene spinto inerzialmente in avanti o all’indietro contro la poltrona, e questa spinta fa capire al viaggiatore di non essere in quiete. Ecco perché sembrerebbe doversi dire che in caso di moto non uniforme (accelerato o decelerato) il principio di relatività non valga: per questo nella teoria della relatività ristretta l’accelerazione è assoluta come nella fisica classica. Sembrava così impossibile estendere il principio di relatività ai moti accelerati: ma siccome indubbiamente questa incapacità di estensione e generalizzazione sarebbe apparsa come la riprova di una deficienza strutturale nella teoria, poiché sarebbe apparso poco comprensibile dire che lo stato di quiete e di moto uniforme siano relativi e invece sia assoluto il moto accelerato, allora si comprende come Einstein – dopo aver esposto la teoria della relatività ristretta – abbia duramente lavorato per undici anni alla definizione di una teoria della relatività generale applicabile a tutti i moti. Egli intendeva passare dalla relatività ristretta alla relatività generale stabilendo che tutti i moti – e non solo quelli uniformi – sono relativi. Cercò dunque di estendere il principio di relatività anche ai sistemi uniformemente accelerati, e ciò ritenne di fare interpretandoli in modo tale da farvi rientrare la gravitazione: la teoria della relatività generale si presentò così come una nuova teoria della gravitazione. Il passaggio si presentava piuttosto ostico. Ma ecco come Einstein ritenne di risolvere il problema. Torniamo all’esempio del treno in frenata. Al riguardo Einstein dice che il viaggiatore «potrebbe anche interpretare così la sua esperienza: “il mio corpo di 148
149
riferimento (il vagone) rimane permanentemente in quiete. Rispetto ad esso, tuttavia, esiste (durante il periodo di applicazione dei freni) un campo gravitazionale, che è diretto in avanti e che è variabile rispetto al tempo. Sotto l’influenza di questo campo, la banchina insieme con la Terra si muove di moto non uniforme in maniera tale che la sua velocità originaria diretta all’indietro viene continuamente ridotta. Questo campo gravitazionale è anche quello che imprime la spinta all’osservatore”»60. Il che vuol dire: nei termini della relatività ristretta, quando il treno frena noi possiamo anche dire che la banchina, la stazione e la Terra tutta si allontanano meno velocemente dal treno, ma ora l’osservatore sul treno, pur riconoscendo il moto, potrebbe aggiungere: chi mi dice che il treno stia rallentando? Potrebbe esservi invece una forza gravitazionale, proveniente dalla parte della stazione alle spalle, che agendo sul treno ne rallenta la corsa: gli effetti sarebbero identici. E se invece il treno accelera, il passeggero potrebbe dire: davanti al treno potrebbe esservi una forza gravitazionale che attira il treno accelerandolo. Così, anche quando il treno frena o accelera cosicché il moto uniforme indistinguibile dalla quiete venga spezzato, anche in questo caso saremmo in una situazione di indistinzione relativistica. Potremmo anche riformulare l’esempio dicendo che, in caso di spinta in avanti, il viaggiatore può pensare sia a una frenata sia che il mezzo stia precipitando in un burrone: nel primo caso si tratterà di inerzia, per cui il viaggiatore prosegue inerzialmente il suo stato di moto anche quando questo sia stato in realtà bloccato o rallentato; nel secondo caso invece si tratterà di caduta uniformemente accelerata per attrazione gravitazionale: col che, nuovamente, ne avremmo un caso di indistinzione relativistica fra inerzia e accelerazione. Non ci soffermiamo ora sul carattere inverosimile e artificioso di queste argomentazioni: andiamo al nucleo della tesi di Einstein.
60
150
E il nucleo è questo: egli vuol dire che vi sono situazioni reali in cui non solo il moto (uniforme) è indistinguibile dalla quiete, ma anche in cui il moto è indistinguibile dall’inerzia. Nella fattispecie quando il treno frena o accelera il viaggiatore, che si sente spinto in avanti o all’indietro, esperisce la stessa situazione che vivrebbe se fosse “risucchiato” da un campo gravitazionale nell’uno o nell’altro senso: e in realtà in tutti i casi – secondo Einstein – si può mostrare la stessa indistinzione relativistica. È questo il nucleo del principio relativistico dell’equivalenza fra inerzia e gravitazione, uno dei cardini della teoria relativistica, esposto per la prima volta da Einstein nel 1907. Al riguardo va detto che già la fisica classica conosceva l’equivalenza fra gravitazione e accelerazione. Infatti Newton aveva spiegato l’accelerazione di un grave galileiano in caduta con la “forza impressa” (di cui al suo secondo assioma), posta equivalente a una forza gravitazionale: la gravitazione appariva cioè come una “forza impressa” rovesciata che, anziché spingere lontano un corpo, lo attraeva causandone un’accelerazione verso la sorgente gravitazionale pari all’entità della forza (gravitazionale) impressa e inversamente proporzionale alla massa del corpo attirato e accelerato. In tal modo la “massa gravitazionale” di un corpo (il cui peso è una variabile del campo gravitazionale attrattore) risultava equivalente alla sua “massa inerziale” (intesa come la resistenza che un corpo oppone al suo essere spostato, anche da un attrattore gravitazionale, che ovviamente coincide con quanto questo corpo sia legato gravitazionalmente al suolo e dunque con la “massa gravitazionale”). Ma la fisica classica qui si fermava: essa cioè poteva considerare la forza gravitazionale come un caso di “forza impressa”, ma si guardava bene dal dire che la “forza impressa” fosse sempre e solo gravitazionale: e in effetti certo non è gravitazionale la forza che imprimo alla pietra scagliandola. Viceversa Einstein conduce ben oltre l’equivalenza fra gravitazione e forza centrifuga impressa, fino a farne un’equivalenza universale.
A. Einstein, Relatività, cit. p. 98.
151
Strani ascensori e dischi rotanti secondo Mach Cerchiamo di riformulare la cosa attraverso il celebre paradosso dell’ascensore. Anzitutto, Einstein ripropone in esso in nuova variante la vicenda del treno: come cioè un viaggiatore in moto uniforme non si accorge del proprio moto, così chi prenda un ascensore – se privo di vista all’esterno – non ha modo di sapere (se non deducendolo dall’aver premuto un certo pulsante) se l’ascensore è fermo, se sale o se scende: e fin qui siamo ancora nell’ambito della relatività ristretta. Invero sembrerebbe esservi un mezzo per distinguere fra quiete e moto. Riproponendo mutatis mutandis la vicenda dei raggi luminosi all’interno di un treno in moto, Einstein dice: se l’ascensore sale verso l’alto, allora per un osservatore interno «un corpo lasciato cadere entro la cabina urta ben presto il pavimento, perché questo si muove verso l’alto e gli viene incontro»61; parimenti, facendo un salto in un ascensore in salita, il salto sarà minore che non su un ascensore in discesa, perché mentre si salta il pavimento dell’ascensore sale e si avvicina ai piedi di chi salta. Ma a questo punto Einstein immagina un incidente all’interno dell’ascensore: si rompono le funi e l’ascensore cade a terra. A dire il vero, l’inquilino dell’ascensore immaginato da Einstein ricorda un po’ l’appuntato della storiella che, invitato dal maresciallo a chiamare l’ascensore, lo chiama a viva voce. Egli infatti, benché l’ascensore cada a precipizio, è convinto di essere in quiete. Il punto è che Einstein (presupponendo una caduta ideale, senza urti né attriti) afferma che la convinzione dello sventurato è del tutto ragionevole. Dice infatti: il campo gravitazionale terrestre, che causa la caduta uniformemente accelerata dell’ascensore, esiste per un osservatore esterno che assistendo al fatto lo può connettere a una caduta gravitazionalmente indotta dopo la rottura delle corde. Ma tale campo gravitazionale non esiste per l’osservatore interno all’ascensore che non si accorge di nulla: egli «può
ignorare il campo gravitazionale»62. L’osservatore in ascensore, intende Einstein, ponendo se stesso come sistema di riferimento può anche considerarsi fermo: del resto, come abbiamo visto, egli può sempre dire di non essere lui a salire o a scendere ma addirittura l’universo intero a allontanarsi da lui. Così, nemmeno se l’osservatore nella cabina dell’ascensore facesse cadere per terra un oggetto sarebbe per Einstein una riprova dell’esistenza di una campo gravitazionale attrattivo operante dal basso: infatti anziché essere l’oggetto a cadere nell’ascensore potrebbe essere l’ascensore a salire verso l’oggetto in realtà sospeso per aria; questo perché l’oggetto potrebbe anche essere fermo nell’ascensore in assenza di un campo gravitazionale soggiacente, e potrebbe essere la cabina che sale verso l’alto perché attratta da un campo gravitazionale opposto. Chiaramente Einstein intende qui ribadire la sussistenza di certe situazioni in cui moto e quiete sono indistinguibili. Tuttavia anche in questo caso si potrebbero segnalare gli oggettivi indizi-spia della situazione: i piedi che non premono allo stesso modo sul pavimento, la sensazione di vuoto allo stomaco, etc., possono rivelare lo stato di caduta; in particolare si può osservare che se l’osservatore interno ignora il campo gravitazionale sfortunatamente il campo gravitazionale non ignora lui, cosicché il botto finale costituirà l’effettiva verifica della caduta dell’ascensore. Ma soprattutto è a rilevarsi come in realtà lo stesso Einstein proponga, per subito respingerla, una riprova oggettiva (a parte quella scarsamente convincente dei tempi di caduta di un oggetto) del moto dell’ascensore: dice infatti che se l’ascensore non fosse un sistema completamente isolato e se un raggio luminoso vi passasse orizzontalmente attraverso una minuscola apertura laterale della parete63, allora il raggio luminoso colpirebbe l’altra parete non in un punto esattamente opposto al punto d’entrata, bensì un poco al di sotto se la cabina è in moto verso
62 61
152
A. Einstein – L. Infeld, L’evoluzione della fisica, cit. p. 228.
63
Ivi p. 225, 227. Ivi p. 229.
153
l’alto o un poco al di sopra se la cabina sta scendendo. Ma siccome con questa riprova oggettiva verrebbe meno il principio dell’equivalenza degli osservatori, ciascuno dei quali avrebbe lo stesso diritto a ritenere vera la propria percezione, in quanto evidentemente in questo caso si avrebbe la riprova anche dall’interno delle ragioni dell’osservatore esterno che vede il moto di caduta dell’ascensore, allora Einstein si ingegna a smentire l’ideale verifica da lui stesso proposta. Con un escamotage (che «fortunatamente […] salva la conclusione alla quale eravamo pervenuti» circa l’equivalenza delle diverse percezioni degli osservatori64) egli dice che in realtà il raggio di luce, che penetrando nell’ascensore ne colpisce le pareti un po’ più in alto, non dimostra affatto il moto oggettivo di caduta dell’ascensore in quanto, mentre un osservatore esterno rileva che il raggio di luce procede orizzontalmente, invece l’osservatore interno all’ascensore potrebbe anche dire che in realtà il raggio di luce non colpisce il punto esattamente opposto della parete non perché l’ascensore sta scendendo ma perché il raggio di luce… si è curvato, ed è stato incurvato da un campo gravitazionale. E qui veramente siamo nel sofisma logico: primo, perché l’osservatore interno dovrebbe pur sapere – come Einstein – che solo un potentissimo campo gravitazionale potrebbe produrre un incurvamento simile della luce, essendo certamente il campo gravitazionale terrestre troppo debole per produrne un incurvamento visibile; secondo, perché basterebbe una verifica al buio per vedere che il raggio di luce non è affatto curvato (non in modo visibile), cosicché se il raggio di luce tocca la parete opposta dell’ascensore più in alto questo può essere soltanto perché nel frattempo l’ascensore è sceso. Il raggio di luce in realtà non si è affatto incurvato né appare curvato all’osservatore: esso ha semplicemente attraversato l’ascensore, e se ha colpito più in alto la parete opposta non è perché si è curvato verso l’alto bensì semplicemente perché l’ascensore si è ab-
bassato. Spiacente per Einstein, ma la sua verifica del moto oggettivo dell’ascensore è proprio valida, per quanto egli si ingegni per smentirla. Un’altra verifica oggettiva del moto dell’ascensore è quella proposta da D. Sciama che – pur accettando la teoria della relatività – osserva però che nell’ascensore in questione «esiste un modo per distinguere tra forza gravitazionale e forza inerziale», in quanto se un uomo all’interno di un ascensore sulla Terra lascia cadere con la destra e la sinistra due corpi, questi tenderanno a cadere per gravitazione verso il centro della Terra e dunque tenderanno ad incontrarsi, mentre invece in un ascensore metafisico librato nello spazio i due pesi cadranno paralleli senza incontrarsi65. L’argomento (pur richiedendo naturalmente un esperimento solo ideale) ci sembra migliore di quelli einsteiniani, anche se va ricordato che in realtà nel vuoto assoluto i pesi in assenza totale di masse gravitazionali attrattive non cadono affatto. Invece per Einstein su questo strano ascensore relativistico nessuna differenza è rilevabile fra inerzia e gravitazione. L’ascensore in caduta, lo si vede, nell’intento di Einstein richiama l’equivalenza relativistica e percettiva fra inerzia e gravitazione. Naturalmente nessuno nega che vi siano situazioni in cui gli effetti dell’inerzia e della gravitazione sono indistinguibili. Ma se Einstein rifiuta qualsiasi prova che possa definire oggettivamente se in una data situazione agisca uno stato inerziale o una forza gravitazionale, è per un motivo ben preciso: egli non si limita a richiamare le situazioni in cui è difficile o impossibile definire se si tratti di inerzia o di gravitazione, bensì intende proprio dedurne l’equivalenza e l’identità per così dire ontologica fra inerzia e gravitazione. Qui non si tratta più del fatto che il povero viaggiatore per qualche momento non sa se il treno stia frenando o stia cadendo dal ponte: si tratta invece di porre in campo scientifico, estrapolandola dall’identità di effetti in condizioni date, l’identità di natura fra due princìpi che invece la D. Sciama, The Physical Foundations of General Relativity, 1969, tr. it. La Relatività Generale, Bologna 1972, Zanichelli, pp. 53-54. 65
64
154
Ivi pp. 230-231.
155
scienza classica teneva ben distinti. L’alfiere di Einstein, Eddington, lo dice a chiare lettere: «La gravitazione e l’inerzia sono la stessa cosa»66; esse «sono unificate e la legge della gravitazione è anche la legge dell’inerzia»67. Ma è lecito questo passaggio? Consideriamo un altro classico caso einsteiniano al riguardo. Un osservatore seduto sul bordo di un disco in moto circolare uniforme percepisce una forza che lo spinge verso l’esterno. Per un osservatore esterno in quiete si tratta di quella che in termini classici si chiama forza centrifuga inerziale e tangenziale. Senonché, dice Einstein, «l’osservatore situato sul disco può considerare il suo disco come un corpo di riferimento in quiete: ha diritto di fare ciò in base al principio generale di relatività. Così egli considera come effetto di un campo gravitazionale la forza che agisce su di lui»68. Vale a dire: l’osservatore in moto uniforme (immaginiamolo ad occhi chiusi, sì da non vedere l’esterno) può non accorgersi del suo stato di moto e ritenersi in quiete, e può interpretare la forza subita non come una spinta inerziale ma al contrario (nuovamente) come un’accelerazione indotta da una sorgente gravitazionale esterna che tende a porlo in moto. Dunque per l’equivalenza relativistica, dipende solo dalla scelta del sistema di riferimento che un evento sia considerato un effetto di inerzia o di un campo gravitazionale: così Eddington può scrivere che «la forza centrifuga fa parte del campo gravitazionale, e obbedisce alla legge di gravitazione di Einstein»69. Al riguardo lo stesso Einstein immagina un dialogo surreale fra i due fisici osservatori: «non avete sentito una forza esterna tirarvi dal centro verso la periferia? [domanda l’“antiquato” fisico A] […]. Niente affatto [risponde il moderno fisico B]. Ho osservato i fatti da voi menzionati, ma ne rendo responsabile uno strano campo gravitazionale che agisce sul mio disco».70
A.S. Eddington, Spazio, tempo e gravitazione, cit. p. 177. Ivi p. 180. 68 A. Einstein, Relatività, cit. p. 104. 69 A.S. Eddington, Spazio, tempo e gravitazione, cit. p. 196. 70 A. Einstein – L. Infeld, L’evoluzione della fisica, cit. p. 240. 66 67
156
Ancora una volta, lasciamo stare l’inverosimiglianza della situazione (un moto circolare così rapido da sbalzare via è forse impercettibile?) e andiamo al sodo: si tratta qui di inerzia o di gravitazione? Einstein dice: la cosa è indecidibile e indifferente, sappiamo solo che per l’osservatore A è inerzia e per l’osservatore B è gravitazione, e più non dimandare. Ma ci può soddisfare questa risposta? Al riguardo noi ci chiediamo perché mai i due osservatori in questione, sia quello esterno in quiete sia quello interno partecipe del moto del disco rotante, non potrebbero concordare – proprio a livello percettivo prima ancora che sul piano del ragionamento – nel dire che, nel caso di un osservatore che sul bordo di un disco in moto percepisce una forza che lo spinge verso l’esterno, si tratti di espulsione inerziale, tangenziale, centrifuga e non di una lontana attrazione gravitazionale esterna. Poniamo un bambino che ruotando sempre più velocemente su una giostra alla fine ne venga sbalzato via. Diciamo naturalmente che questo è avvenuto per un’inerzia un tempo chiamata “forza centrifuga”. Ora, se Einstein dice invece che il bambino in realtà è stato attratto fuori dalla giostra da un campo gravitazionale, lo si può discutere nei simposi: ma certamente se il bambino dicesse alla madre di essere stato divelto e strappato dal seggiolino da una forza proveniente dall’albero, o addirittura dalla stella Sirio, allora si prenderebbe un ceffone perché le bugie non si dicono. Certo un padre relativista potrebbe dire: non importa che il bambino sia stato divelto dal seggiolino per inerzia centrifuga o per attrazione gravitazionale; l’effetto è comunque lo stesso, e fatto sta che il pupo si è fatto bua. Vero: però varrebbe la pena di capire se è preferibile tagliare l’albero o spostare Sirio o semplicemente far ruotare meno velocemente il seggiolino. Checché si dica sull’identità fra inerzia e gravitazione, un fagiolo sul bordo di un disco in rotazione sul grammofono a 78 giri viene espulso tangenzialmente per inerzia centrifuga e non per attrazione gravitazionale esterna. In realtà non vi è affatto identità, non solo di natura ma nemmeno di effetti suscettibili di calcolo, fra inerzia e gravitazione: infatti l’osservatore sul bordo del disco rotante di cui parla Einstein non può ritenere realmente equivalenti la forza centrifuga 157
impressa dalla rotazione del disco che lo scaglia via e una eventuale forza gravitazionale esterna che lo strappa dal disco, perché la prima produce un moto poi decelerato a causa dell’attrito mentre la seconda produce al contrario il moto uniformemente accelerato di un grave in caduta. In realtà, se si chiede quale sia questo misterioso campo gravitazionale esterno che consente di reinterpretare la “forza centrifuga” in termini di accelerazione gravitazionalmente indotta, allora vediamo che Einstein – nel suo intrecciare strettamente inerzia e gravitazione – si rifà al principio di Mach per il quale l’universo tutto eserciterebbe forze apprezzabili anche sulla materia più locale, cosicché l’inerzia di moto di un corpo sarebbe determinata dalle azioni su tal corpo esercitate da tutte le masse, anche le più remote, dell’universo: così nel famoso secchio rotante newtoniano (Philosophiae Naturalis Principia Mathematica, Definizione VIII, Scholium, IV) l’acqua sarebbe in movimento non per la rotazione “assoluta” del secchio, come intendeva Newton, bensì per l’effetto delle stelle lontane rotanti e in moto. In tal modo una stella lontana potrebbe indurre l’effetto centrifugo osservato71: così per esempio se nell’immagine stessa di una galassia a spirale sembra evidente il moto centrifugo dei bracci periferici, allora tale moto potrà essere causato non dalla rotazione intrinseca della galassia quanto piuttosto dalle vicine galassie rotanti che tendono a strappare le stelle periferiche dalla galassia di appartenenza. Da ciò consegue che, poiché nell’universo i moti delle stelle sono determinati dalle attrazioni gravitazionali esercitati da altre stelle anche molto lontane, allora se nell’universo vi fosse un solo corpo questo sarebbe immobile. Secondo Mach in assenza di altri corpi celesti esso nemmeno ruoterebbe su se stesso per forza propria, appunto in quanto la sua rotazione
71 Cfr. D. Sciama, The Unity of the Universe, 1959, tr. it. L’unità dell’universo, Torino 1965, Einaudi, pp. 78-120. Secondo Sciama le stelle della Via Lattea contribuirebbero solo per un decimilionesimo all’inerzia sulla Terra, la maggior parte della quale sarebbe il prodotto di lontane galassie in gran parte ancora sconosciute.
158
assiale può essere causata solo dai corpi celesti anche lontani che lo attorniano: in questo modo sarebbero i pianeti, o almeno la persistenza inerziale della originaria rotazione della nebulosa da cui ebbe origine il sistema solare, che ruotando attorno al Sole gli trasmetterebbero un moto rotazionale attorno a se stesso. In realtà, rimane discutibile un’applicazione radicale e integrale del principio di Mach ripreso da Einstein (peraltro piuttosto contraddittoriamente perché egli rifiutava i fenomeni di non località postulati dalla meccanica quantistica come un ritorno all’actio distans) in quanto essa condurrebbe a conseguenze paradossali e inaccettabili: torneremo su questi problemi cosmologici parlando delle tesi di Ghosh, ma per intanto diciamo che noi, pur edotti sulle catastrofiche conseguenze di un battito d’ali di farfalla sull’altro emisfero terrestre, proprio non riusciamo a credere che le galassie partecipino significativamente con actio distans al movimento che fa andare in avanti i passeggeri di un autobus in frenata. Né riusciamo a credere che la Luna ruotando attorno alla Terra ne determini con la sua piccola massa la rotazione assiale: una stella di neutroni sperduta nell’universo ruota attorno a se stessa per forza propria (stante i propri campi magnetici rotanti) e non indotta e – pensiamo – ruoterebbe su se stessa anche se nell’universo fosse il solo corpo celeste esistente, in completa assenza di masse gravitazionali esterne. Sappiamo oltretutto che nell’universo (che de Sitter – come vedremo – poneva addirittura convenzionalmente con massa nulla nei suoi calcoli) la densità media per metro cubo di massa rilevabile è prossima allo zero, per cui non si comprende come i campi gravitazionali possano avere effetti così rilevanti su masse lontanissime: e perché mai un campo gravitazionale potrebbe agire significativamente a tali distanze mentre al contrario la luce, che decresce anch’essa con la distanza nelle stesse proporzioni della gravitazione, non giunge integralmente a noi dalle stelle lontane così producendosi il cielo buio? In realtà Mach ha affermato una concezione strumentalistica ed economicistica della scienza, per cui essa – volta ad un ordinamento del materiale empirico e indifferente ad ogni ricerca delle cause – avrebbe semplicemente un valore pragmatico e 159
funzionale ma non veramente conoscitivo, all’interno di una più generale posizione antimetafisica fenomenistica ed empiristica se non sensistica, tale da abolire l’atomo, il concetto di forza nonché lo spazio, il tempo e il moto assoluti perché non percepibili come tutto ciò che fuoriesce dal dato sensibile: ma sembra evidente come in realtà poi tale posizione si rovesci contraddittoriamente – come nella sua peraltro interessante teoria degli “elementi puri” antecedenti alla biforcazione fra fisico e psichico – in metafisica, e talora in cattiva metafisica come appunto nell’assunto di una trama relazionale che come una sorta di rete mistica connetterebbe direttamente tutto con tutto, e le cose più lontane ancor più che le più vicine, e financo il secchio di Newton con le galassie. Così, pur di non ammettere la tesi “metafisica” per la quale la rotazione assoluta della Terra può generare moti centrifughi, Mach finisce per sostenere la tesi – ben più decisamente metafisica e insostenibile – che tali moti siano invece generati dalle stelle più lontane.72
72 Per questo, nonostante l’indubbia grandezza di Mach, occorre dire che «la superficie del pensiero machiano (e proprio questa ha influito in particolare estesamente) ha avuto, sotto molti aspetti, conseguenze dannose per lo sviluppo della fisica» (H. Dingler, Il metodo della ricerca nelle scienze, cit. p. 574). Come è noto, V.I. Lenin ha aspramente criticato l’“idealismo reazionario” di Mach in nome della teoria realistica e materialistica della conoscenza come rispecchiamento oggettivo (Materializm” i empirjukriticizm Kriticˇeskija zametki ob” odnoj reakcionnoj filosofii, 1909, tr. it. Materialismo ed empiriocriticismo. Note critiche su una filosofia reazionaria, Milano 1970, Ed. Sapere). Tuttavia, nel dubbio che il materialismo realistico sia migliore dell’“idealismo reazionario”, noi preferiamo la critica del grande scrittore R. Musil che, nella sua tesi di dottorato su Mach (Beitrag zur Beurteilung der Lehren Machs, 1908, tr. it. Sulle teorie di Mach, Milano 1973, Adelphi), sostanzialmente gli rimprovera una visione riduttiva della scienza che ne ignora i problemi di fondo (e che ha molto influenzato il riduzionismo del primo neopositivismo). È vero che secondo P. Feyerabend (Farewell to Reason, 1987, tr. it. Addio alla ragione, Roma 1990, Armando, pp. 192-217) la posizione machiana non è riduttivamente empiristica, ma alle sue citazioni di Mach se ne potrebbero aggiungere troppe altre di segno opposto.
160
La falsa coincidentia oppositorum Certo con ciò non si può negare che in taluni casi l’effetto osservato di una forza che spinge verso l’esterno sia dovuto a attrazione gravitazionale esterna: ad esempio in un sistema solare un pianeta può essere divelto dalla sua orbita non per fuga inerziale e tangenziale bensì a causa di un campo gravitazionale esterno. Ma allora, anziché identificare e confondere inerzia e gravitazione, andrà vagliato caso per caso – attraverso il calcolo delle forze, delle masse, delle distanze e delle velocità in gioco – onde distinguere a cosa sia dovuto il fenomeno: un atteggiamento diverso non può dirsi scientifico. Proprio quando gli effetti sembrano indistinguibili, occorre cercare di distinguerli. Se in un caso appare difficile capire se su un corpo agisce un’inerzia o una attrazione gravitazionale, anziché concluderne che inerzia e gravitazione sono la stessa cosa dovremmo invece osservare i fenomeni con molta attenzione, soprattutto negli indizi apparentemente secondari (ad esempio il raggio di luce nell’ascensore), appunto per capire se trattasi di inerzia o di gravitazione. Viceversa, il principio dell’equivalenza fra inerzia e gravitazione è fondato su questo pseudo-ragionamento: siccome in certi casi non sappiamo distinguere fra inerzia e gravità, poiché ad esempio una forza che ti spinge potrebbe essere sia un’inerzia centrifuga sia un’accelerazione gravitazionale, allora inerzia e gravitazione sono la stessa cosa. Scrive infatti Einstein: «non abbiamo alcun modo per distinguere un “campo centrifugo” da un campo gravitazionale: quindi possiamo ritenere che il campo centrifugo sia un campo gravitazionale». Senonché anche ammesso che la prima proposizione sia vera, e che veramente noi non abbiamo modo per distinguere un campo centrifugo da un campo gravitazionale (ciò che peraltro è alquanto discutibile), è chiaro che da questa prima proposizione in nessun modo segue logicamente la seconda, che sbrigativamente trae la conseguenza che dunque il campo centrifugo sia un campo gravitazionale: infatti in nessun modo, dall’eventuale identità di effetti fra inerzia e gravitazione per un osservatore dato, può dedursi una identità di natura. Poiché si tratta comunque di 161
una forza applicata a una massa, noi certamente possiamo dare una descrizione matematica e quantitativa di un fenomeno dato, ad esempio defininendo di quanto un dato corpo sia allontanato dal centro del proprio sistema, lasciando impregiudicato se trattasi di forza centrifuga inerziale o di forza gravitazionale: ma certamente in tal modo non avremo noi con ciò stabilito identità alcuna di natura fra cose in realtà diverse. Al più avremo posto un’equivalenza cinematica ma non dinamica: ma anche in matematica l’equivalenza non è affatto un’uguaglianza. In realtà inerzia e gravitazione appaiono due cose distinte e sembra impossibile confonderle, anche se talora gli effetti possono sembrarne indistinguibili. Anzi, inerzia e gravitazione sembrano non solo cose diverse, ma persino opposte. La gravitazione nel senso classico, newtoniano, esercita una forza attiva e attrattiva: viceversa l’inerzia è invece l’assoluta mancanza di forza. L’equivoco qui certamente si cela già nel termine classico di vis inertiae, che in realtà è un ossimoro: come supporre l’esistenza – dandovi così una sorta di status ontologico – di una “forza del non fare niente”, di una forza consistente nella mancanza di forza. In realtà l’inerzia di un corpo nel senso classico è la semplice persistenza di un corpo nel suo stato. Non è una forza, ma uno stato: uno stato meramente passivo che definisce quella condizione per cui un corpo di per sé tende a rimanere sempre com’è, in quiete se è in quiete o in moto se è in moto (finché tale stato non sia perturbato). Donde il possibile fraintendimento linguistico laddove Huygens nel XVII secolo definisce “forza centrifuga” una accelerazione impressa, e inerzialmente mantenuta, quale spinta inerziale e tangenziale impressa a una sua parte da un corpo rotante (che ad esempio provoca il rigonfiamento equatoriale di uno sferoide celeste): definizione ambigua appunto perché può far pensare a una forza repulsiva opposta ma complementare alla forza attrattiva, a una forza centrifuga di segno inverso ma attiva tanto quanto la opposta forza centripeta. Viceversa è molto facile mostrare che in realtà non esiste nessuna forza centrifuga, intesa come una forza che allontani un corpo da un centro dato: chiaramente si tratta semplicemente di forza impressa (secon162
da legge di Newton) e inerzialmente mantenuta, ovvero di un corpo scagliato lontano che non possiede nessuna forza intrinseca di allontanamento o, in altri casi, di un corpo strappato dal suo sistema da una forza gravitazionale esterna. Senonché proprio queste ambiguità semantiche hanno condotto all’equivoca definizione per la quale l’inerzia, identificata in uno dei celebri articoli del 1905 con il «contenuto di energia» di un corpo e surrettiziamente reificata e ipostatizzata come una forza o almeno una resistenza che mantiene un corpo nel proprio stato, resiste alle perturbazioni. Così per Einstein un corpo (una “massa inerziale” dotata di un certo «contenuto di energia») oppone resistenza all’applicazione di una forza su di esso, al suo essere spostato, e tale resistenza sarà proporzionale alla massa del corpo: «un corpo resiste al moto tanto più fortemente quanto più grande ne è la massa»73. Questa può sembrare una semplice parafrasi della legge newtoniana per la quale l’accelerazione impressa è inversamente proporzionale alla massa, ma così non è e nella formulazione einsteiniana sussiste un equivoco. Infatti, di contro a quanto sembra pensare Einstein, in realtà non c’è nulla in un corpo che lo mantenga nel suo stato resistendo al mutamento, non c’è nulla che lo mantenga immobile o in moto. Di conseguenza per muovere un corpo non bisogna vincerne l’inerzia, semplicemente perché l’inerzia non si oppone per nulla a che tale corpo venga mosso: il principio classico di inerzia dice anzi che una minima perturbazione modifica lo stato di un corpo («i corpi gravi, rimossi tutti l’impedimenti esterni ed adventizii, possono – dice Galileo – essere mossi da qualunque minima forza»). Dunque né l’inerzia né la massa di un corpo offrono vera resistenza ad una forza impressa e al conseguente mutamento di stato: offre resistenza invece il peso del corpo il quale non è altro che l’attrazione gravitazionale (per Einstein coincidente con l’inerzia) che applicata a quel corpo lo vincola al suolo. Date un calcio a una pietra: sarà il peso della pietra che resiste e non la sua inerzia e 73
A. Einstein - L. Infeld, L’evoluzione della fisica, cit. p. 46, 204.
163
nemmeno la sua massa. Infatti un corpo, anche di enorme massa, a cui sia stato tolto ogni vincolo gravitazionale non offrirà alcuna resistenza al moto: nel vuoto assoluto un moscerino potrebbe smuovere un elefante. Dunque l’identificazione e la confusione fra “massa pesante”, “massa inerziale”, “massa gravitazionale” e «contenuto di energia» cela in sé un fraintendimento: quando Einstein parla di «massa inerziale» che oppone resistenza quale «massa gravitazionale» che rimanda a una «massa pesante», giunge ad identificare e confondere concetti distinti.
IX La “curvatura dello spazio”, la gravitazione e le altre forze In merito alla “equivalenza ambigua” fra inerzia e gravitazione, Einstein giunge a dire che se questa equivalenza fosse smentita, l’intera teoria generale della relatività che vi poggia crollerebbe: la nuova teoria della gravitazione, scrive infatti, «riposa su un pilastro assai solido: l’equivalenza della massa pesante e della massa inerte [ovvero, l’equivalenza della gravitazione e dell’inerzia]. Senza tale equivalenza, passata inosservata nella meccanica classica, i nostri argomenti non avrebbero base»74. Ma perché questo? Ci si chiede ora perché Einstein insista tanto sull’identità – forzata oltre ogni limite – fra inerzia e gravitazione. Al riguardo, sembra si debba dire: l’equivalenza fra inerzia e gravitazione da una parte rapporta l’inerzia alla massa, alla gravitazione, al peso e all’energia, facendone qualcosa di molto diverso dalla fisica classica, ma dall’altra parte al tempo stesso riconduce la gravitazione all’inerzia e questa sembra essere l’autentica finalità dell’operazione einsteiniana. Dunque la relazione einsteiniana, anziché porre un’equivalenza fra inerzia e gravitazione, costituisce piuttosto una riduzione della gravitazione all’inerzia. Infatti la teoria della relatività generale costituisce una teoria non newtoniana della gravitazione che, contro ogni assunto classico, introduce l’idea di una gravitazione inerziale. Gravitazione classica e gravitazione relativistica In effetti la forza gravitazionale classica è alquanto strana, soprattutto considerando le enormi distanze fra i corpi celesti e l’in-
74
164
Ivi p. 227.
165
significanza al confronto delle masse gravitazionali coinvolte: paragonando il Sole a un’arancia, la Terra sarebbe un granello della dimensione di un millimetro in orbita alla distanza di dieci metri, Giove orbiterebbe a cinquanta metri di distanza, Saturno a cento metri, Urano a duecento metri, Nettuno a trecento, Plutone a più di quattrocento, mentre la stella più vicina nella Via Lattea si troverebbe a oltre mille chilometri. Di conseguenza, sapendo che le galassie più vicine distano fra loro almeno un milione di anni luce, diventa arduo immaginare attrazioni gravitazionali a tali distanze fra corpi – in scala – così minuscoli, soprattutto considerando che la forza gravitazionale è considerata oggi di gran lunga la più debole esistente in natura: come può una minuscola pallina attirare un granello distante centinaia di metri, come può una pallina a Milano risentire dell’azione di un’altra pallina posta a Cosenza? Il magnete attira il ferro, ma un minuscolo magnete non attirerà mai un piccolo pezzo di ferro posto a decine o centinaia o migliaia di metri di distanza. Che dunque un corpo celeste in assenza di visibili correlazioni appaia legato ad altri corpi enormemente lontani rimane un fenomeno non chiarito, proprio come appare a tutta prima misterioso il fatto che un insetto venga attirato dall’infinitesimo odore di un feromone chimico emesso da una femmina lontana anche dieci chilometri o un uccello dopo la migrazione torni al nido precedente distante migliaia di chilometri. Newton calcola e quantifica la gravitazione con la legge dell’inverso del quadrato della distanza, ma non riesce spiegarla: non a caso si è potuto dire che, mentre Cartesio nella sua fisica spiegava tutto ma non calcolava niente, viceversa Newton calcolava tutto (i suoi Principia sono una lunga sequela di teoremi matematici) ma non spiegava niente. Così già Berkeley, Leibniz e i cartesiani respingevano il concetto newtoniano di “forza”: in essa vedevano una sorta di “qualità occulta” istantaneamente e misteriosamente agente nel vuoto con inesplicabile azione a distanza (actio distans) e priva di qualsiasi indispensabile contatto meccanico fra i corpi. Così, dopo la successiva critica di Mach e di Hertz, tutta la scienza moderna ha progressivamente eliminato questo concetto rintraccian166
dovi un indebito carattere ontologico e metafisico75. Proprio in questo processo avvenne il passaggio dalla visione atomistica classica all’idea del mezzo interstellare o etere nella teoria ondulatoria della luce e poi nella teoria del campo elettromagnetico in cui l’etere sembra diventare il campo stesso: così anziché avere come nell’atomismo classico da una parte lo spazio vuoto (il kenÒj), il nonqualcosa (il mh` de´ n) e l’assoluto non essere (mh` Ôn), e dall’altra la materia, ovvero il qualcosa (de´ n), il pieno e l’essere (pamplÁrejÔn ) sotto forma di atomi discreti, subentrò l’idea di un continuo ovvero di un campo elettromagnetico ovunque pregno di forze i cui punti di massima condensazione chiamiamo materia visibile. In tal modo, a dire con Faraday, «la materia è presente ovunque e non v’è spazio senza materia». Questo plenum o spatium repletum (che sembra ricordare la cartesiana matière subtile), questo continuum o etere, questo medium o mezzo interstellare – supposto immobile o dinamico – era concepito come sottile, omogeneo, continuo e diffuso ovunque, quale tessuto connettivo e riempitivo del vuoto dell’universo. Esso sembrava richiesto dall’ottica, dall’elettromagnetismo e dalla stessa gravitazione: la luce, il suono, il calore, l’elettricità, il magnetismo, la gravitazione sembravano richiedere il mezzo interstellare o etere proprio in quanto, di contro a un’actio distans nel vuoto, appariva indispensabile suppore un medium quale supporto e veicolo e dunque quale mezzo di propagazione per la trasmissione delle onde e della gravitazione.
75 Il processo è stato attentamente ricostruito da M. Jammer in Concepts of force. A Study in the Foundations of Dynamics, 1957 (tr. it. Storia del concetto di forza, Milano 1971, Feltrinelli); v. anche M. Hesse, Forces and Fields. The Concept of Action at a Distance in the History of Physics, 1961 (tr. it. Forze e campi. Il concetto di azione a distanza nella storia della fisica, Milano 1974, Feltrinelli). E. Cassirer ha visto una conquista e un progresso nel passaggio operato dalla scienza moderna (e riguardante anche il concetto di forza) dal concetto di “sostanza” al concetto di “funzione”: v. Substanzbegriff und Funktionbegriff, 1910 (tr. it. Sostanza e funzione, Firenze 1973, La Nuova Italia).
167
La teoria della relatività generale costituisce l’epilogo di questo processo. Chiaramente, il problema per Einstein era eliminare definitivamente quella misteriosa forza che agirebbe istantaneamente a distanza e sulla cui natura nulla si sa. Einstein affrontò il problema utilizzando le geometrie non euclidee e segnatamente la geometria ellittica e sferica di Riemann intendendo lo spazio repletum come uno spazio “curvo”: come Newton aveva in certo modo dichiarato esistente lo spazio euclideo, così Einstein dichiarò poter esistere uno spazio riemanniano. Al riguardo egli sostenne che i pianeti orbitano attorno al Sole non perché attratti dalla forza gravitazionale solare, bensì in quanto essi si muovono di moto inerziale non rettilineo bensì curvilineo, seguendo orbite circolari o meglio geodetiche, come scorrendo lungo i binari di una traiettoria prestabilita dalla “curvatura dello spazio” operata dal campo gravitazionale solare. La massa «pesante e inerte» del Sole curva, deforma e distorce lo spazio circostante come una patata al centro incurva un telo steso orizzontalmente (per primo Eddington usò questa immagine), in tal modo definendo delle traiettorie, dei solchi geodetici per i pianeti che vi scorrono. I pianeti non ruotano circolarmente attorno al Sole perché ne sono attratti bensì perché lo spazio in cui si muovono è esso stesso curvo, così come gli atleti al velodromo percorrono le piste circolari perché quelli sono i percorsi a seguirsi e non certo perché attratti dal centro del velodromo. Infatti nel “campo gravitazionale” di cui Einstein fornisce le equazioni, e che nel suo intendimento sarebbe dovuto essere un’estensione del campo elettromagnetico di Maxwell, la sorgente gravitazionale non è univocamente focalizzata in uno o più punti circondati dal vuoto bensì distribuita come energia in tutto lo spazio seppur naturalmente con picchi di più alta concentrazione e condensazione energetica. In tal modo la massa del Sole non influisce direttamente sulle traiettorie dei pianeti, ma solo indirettamente attraverso la curvatura dello spazio. I pianeti si muoverebbero sì di moto rettilineo inerziale, ma in uno spazio incurvato il moto rettilineo diventa geodetico: se la “pista” è curva la traiettoria sarà curva. Così se la velocità di un pianeta aumenta in perielio, questo non sarà perché il pianeta si trova 168
più vicino al Sole bensì soltanto perché più vicino al luogo di massima curvatura dello spazio – proprio come l’acqua in rotazione che accelera in prossimità del centro di un vortice. Parimenti la rotazione assiale di un pianeta, congiunta al moto di rivoluzione, diventa equiparabile al rotolare di una palla lungo una certa traiettoria. In questo modo il moto orbitale di un pianeta attorno al Sole sembra piuttosto l’oscillare avanti e indietro, su e giù, prima in salita e poi in discesa di un pendolo: il perielio sarebbe semplicemente il punto più “basso” in cui l’oscillazione del pianeta partendo dall’afelio acquista in “discesa” con la massima curvatura la massima velocità (energia potenziale minima ed energia cinetica massima), mentre invece l’afelio sarebbe il punto più “alto” e più distante di minima curvatura in cui il pianeta così accelerato “risale” venendo lanciato per forza d’inerzia fino al polo opposto (energia potenziale massima e cinetica minima) per poi tornare indietro e così via. Anche il ruotare del pianeta attorno al Sole, per cui esso non ridiscende come un pendolo per la stessa via, può così apparire come l’effetto di una sorta di vis rotatoria impressa un po’ come nelle giostre dove la cabina oscillante a pendolo acquistando velocità effettua a un certo punto una rotazione completa. Secondo questa spiegazione il moto dei pianeti non sarebbe più determinato da un’intersezione e composizione vettoriale delle forze, con l’orbita ellittica quale risultante dalla sommatoria fra l’attrazione gravitazionale e l’opposta inerzia centrifuga, bensì sarebbe soltanto e unicamente inerziale. I pianeti si muoverebbero per inerzia secondo la via più semplice: al riguardo Eddington riesumava il principio di minima azione di Maupertuis, mentre Russell (nel suo libro sulla relatività76) parlava di una sorta di “pigrizia cosmica”. Sembra così di rivedere la teoria pre-newtoniana di Galileo, per la quale i pianeti si muovono inerzialmente in circolo attorno al Sole: per Galileo infatti (ma già per Buridano) l’inerzia circolare è la sola reale, mentre l’inerzia rettilinea rappresenta solamente un caso idea76
B. Russell, L’ABC della relatività, cit.
169
le. E anche sembra di vedere una moderna riedizione della teoria dei vortici (tourbillons) di Cartesio, per la quale i pianeti scorrono in un vortice con il Sole al centro: Newton certo rilevava l’incompatibilità fra la teoria dei vortici e la terza legge di Keplero, ma in ogni modo noi sappiamo che in effetti il sistema solare nasce da una nebulosa con moto a vortice, e sappiamo che facendo ruotare dell’acqua non è il centro a creare il vortice e ad attrarre l’acqua bensì è la rotazione circolare dell’acqua a produrre il centro del vortice. In questo senso dunque si potrebbe anche dire che i pianeti in realtà continuino semplicemente a ruotare inerzialmente nello stesso senso in cui un tempo ruotava la nebulosa primordiale da cui ha avuto origine il sistema solare, e che il moto di rivoluzione dei pianeti non sia altro che la rotazione assiale del sistema solare tutto, senza che ciò manifesti un’intrinseca relazione con il Sole: l’orbita curvilinea dei pianeti è semplicemente generata dal moto rotatorio del sistema. Naturalmente questa difesa di uno “spazio curvo” richiedeva che questo spazio – intrinsecamente connesso alla materia – fosse un medium plenum o uno spatium repletum, stante che non si vede come si possa curvare il vuoto: e infatti Einstein, che pur nella teoria della relatività ristretta aveva fatto sparire l’etere dalla scienza dopo le risultanze degli esperimenti di Michelson e Morley in quanto inosservabile, dovette in certo modo reintrodurlo nella forma di etere non dinamico nel 1917 dopo aver esposto con la teoria della relatività generale la sua nuova teoria della gravitazione. Nel 1919 egli scrisse a Lorentz: «sarebbe stato più corretto se nelle mie prime pubblicazioni mi fossi limitato a sottolineare l’irrealtà della velocità dell’etere, invece di sostenere soprattutto la sua non esistenza. Ora comprendo che con la parola etere non si intende altro che la necessità di rappresentare lo spazio come portatore di proprietà fisiche». Così nel 1920, in una conferenza all’Università di Leida poi pubblicata col titolo Aether und Relativitätstheorie77, egli
77 A. Einstein, Aether und Relativitätstheorie, 1920, tr. it. L’etere e la teoria della relatività, in Opere scelte, cit. pp. 507-516.
170
disse: «una più ponderata riflessione ci suggerisce che la negazione dell’etere non è necessariamente richiesta dal principio di relatività ristretta. L’esistenza dell’etere può essere ammessa, purché si rinunci ad attribuirgli un determinato stato di moto»78; «secondo la teoria della relatività lo spazio è dotato di proprietà fisiche: in questo senso, allora, un etere esiste. Secondo la teoria generale della relatività uno spazio senza etere è inconcepibile», anche perché senza di esso «la propagazione della luce vi sarebbe impossibile»79. In tal modo l’etere (che però nell’intendimento di Einstein non poteva valere in nessun modo quale parametro di rilevazione di tempi e moti assoluti) veniva ad identificarsi con lo spazio stesso e in particolar modo con il campo gravitazionale: le variazioni di densità nell’etere concepito quale mezzo elastico e le sue modificazioni nelle interrelazioni con la materia divennero le proprietà elastiche di uno spazio passibile di contrazione, estensione, incurvamento. A un certo punto poi il campo gravitazionale generato da una sorgente massiva con un certo tasso di densità gravitazionale venne ipotizzato come costituito da onde gravitazionali o “gravitoni” che si allontanerebbero dalla sorgente, come le onde elettromagnetiche da una carica elettrica, con velocità pari a quella della luce in ogni direzione così appunto costituendo il “campo” attorno alla sorgente, evidentemente circolare in quanto le onde partecipi della rotazione assiale della sorgente avrebbero un moto tangenziale, cosicché il campo da esse costituito trasmetterebbe la propria azione trasportando e trascinando con sé i pianeti anche molto lontani in un moto orbitale. Le onde sarebbero insomma onde del campo così come le onde d’acqua sono onde del mare: spostando il mezzo attraversato, come un sasso o una nave l’acqua, i gravitoni determinerebbero onde che si riverberano con “effetti di risonanza” e perturbazioni del campo con continuo trasferimento di energia al suo interno: come un birillo che, cadendo, trasmette la propria energia al successivo e
78 79
Ivi p. 511. Ivi p. 516.
171
quindi a tutti gli altri contigui facendoli cadere. Così l’energia si propaga nel campo rimbalzando da un elemento all’altro: in tal modo e solo in tal modo due particelle lontane potrebbero interagire senza contatto. Le onde sarebbero come tante corde sparse per ogni dove attorno alla sorgente e sempre più esili con la distanza: l’energia vi si trasmette come con uno strappo che, dato alla corda da un’estremità, si propaga lungo la corda che così oscilla e tuttavia oscilla sempre meno con la distanza. In tal modo la sorgente non agirebbe direttamente sui pianeti, bensì indirettamente attraverso il campo d’etere immobile ma flessibile e curvato dalle onde gravitazionali. Gli scienziati relativisti possono così dire, secondo una nota espressione di J. Wheeler: «lo spazio agisce sulla materia, dicendole come muoversi; a sua volta la materia reagisce sullo spazio, dicendogli come curvarsi». Dunque per Einstein ricondurre la gravitazione all’inerzia mostrandola da essa indistinguibile, fare della gravitazione un’inerzia, significava abolire la forza newtoniana. La gravitazione sembra definitivamente abolita e, su queste premesse, Eddington poteva concludere sulle orme di Einstein: «la gravitazione è irreale allo stesso modo della forza centrifuga».80 Rilievi critici sulla gravitazione e lo spazio curvo Questa teoria, che spiega le orbitae planetarum come un moto inerziale, sembra indubbiamente avere il vantaggio di semplificare i termini del problema. Tuttavia, vogliamo porre alcune domande. Tralasciamo la critica implicita alla teoria newtoniana: Newton stesso rispose ai suoi critici dicendo di dedurre matematicamente (con la legge dell’inverso del quadrato della distanza) gli effetti della forza gravitazionale, senza voler aggiungere a ciò alcuna speculazione sulla sua natura (hypoteses non fingo); non solo, ma nella ter80
172
A.S. Eddington, Spazio, tempo e gravitazione, cit. p. 92.
za lettera a Bentley aggiunse, presentandola come una sua idea personale e non come legge scientifica, di ritenere impossibile l’actio distans e necessaria l’esistenza di un mezzo quale agente di trasmissione altrimenti impossibile nel vuoto. Dunque la gravitazione newtoniana, se non intesa banalmente, non è incompatibile in linea di principio con una teoria del campo o del mezzo interstellare. Venendo alla teoria einsteiniana della gravitazione, che intende superare le difficoltà della teoria classica, noteremo che essa presenta difficoltà concettuali non minori di quelle rintracciate nella teoria che vuole superare: essa rischia di essere un rimedio peggiore del presunto male. Anzitutto dobbiamo considerare che l’idea di “spazio curvo” nacque nello svolgimento del pensiero matematico essenzialmente nel tentativo di uscire da un’impasse teorica: nel XVIII secolo G. Saccheri aveva posto come assurda l’ipotesi dell’angolo ottuso, dicendo l’impossibilità di un triangolo rettangolo con angolo ottuso e somma angolare eccedente i 180°, ma naturalmente fin dalla trigonometria di Tolomeo e ancor prima si sapeva che tale ipotesi, assurda per una superficie piana, diventava vera per un triangolo sferico su superficie curva; così quando K. Gauss, passando dal puro ragionamento matematico a una concreta rilevazione, triangolò la cima di tre montagne in Germania nonché tre stelle in cielo e vide che la somma angolare eccedeva i 180°, attribuì la cosa nel primo caso essenzialmente alla curvatura terrestre (Disquisitiones circa superficies curvas) infine prospettando (in prudenti comunicazioni private) future «idee diverse sulla natura dello spazio»; poi vennero costruite (J. Bolyai, N. Lobacevskij) le prime geometrie non euclidee su superficie curva, e quando Lobacevskij misurò nel triangolo stellare Sole-Terra-Sirio una somma angolare eccedente i 180° sempre più si fece strada l’idea di uno “spazio curvo”. Così H. Helmholtz (Über die Tatsachen, welche der Geometrie zu Grunde liegen: Sui fatti che stanno alla base della geometria, 1868) disse che la rilevazione empirica dei triangoli stellari avrebbe detto l’ultima parola sulla reale natura ontologica dello spazio: con somma angolare di 180° lo spazio sarà piano e euclideo, con somma angolare di173
versa da 180° sarà curvo e non euclideo. E siccome mai né in cielo né in terra la somma angolare degli angoli del triangolo risultava esattamente 180° alla misurazione, allora cominciò a prendere corpo l’idea di una reale natura ontologica dello “spazio curvo”, che costituì lo sfondo della geometria sferica di B. Riemann. Come si vede, lo “spazio curvo” di Einstein costituì l’ultimo capitolo di questa estrapolazione fisica dalla matematica. Senonché, alcuni rilievi vanno qui posti. Anzitutto, e senza con ciò minimamente negare il valore e l’importanza delle geometrie non euclidee, va detto che gli scarti e le approssimazioni risultanti non solo alla misurazione empirica sul terreno ma proprio al calcolo (nella determinazione della somma angolare del triangolo ma anche nel teorema di Pitagora, ove i quadrati dei cateti possono non risultare aritmeticamente equivalenti al quadrato dell’ipotenusa, nonché nella determinazione della circonferenza e dell’area del cerchio) risultano non solo su superficie curva ma anche su superficie piana in quanto dovuti all’incommensurabilità e alla risultanza di numeri irrazionali (come e =2 e p) approssimati per eccesso o per difetto. Dunque le risultanze approssimate, e la possibilità di costruire geometrie non euclidee su superfici curve, non depongono in nessun modo a favore dell’esistenza reale di uno “spazio curvo”81. Come già diceva Poincaré, è da ritenersi illegittima qualsiasi estrapolazione di dati matematici o di metrica fisica in affermazioni ontologiche circa la natura reale dello spazio, sia nel senso (equivoco) di uno spazio “piano” sia nel senso (altrettanto equivoco) di uno spazio “curvo”. Come la geometria euclidea non dimostra l’esistenza reale di uno “spazio piano”, così le geometrie non euclidee non dimostrano l’esistenza di uno “spazio curvo”. In realtà è una contradictio in terminis parlare sia di “spazio piano” sia di “spazio curvo”: una superficie può essere piana o curva, euclidea o non euclidea, ma non lo spazio. In particola81 Su questo problema rimando a M. de Paoli, Sapienza e Oblio. Ars Mathematica Regia, Padova 2004, Edizioni Sapere.
174
re per quanto riguarda lo “spazio curvo” vedremo più oltre come la stessa cosmologia sia oggi tornata a parlare (peraltro con la consueta scorretta terminologia) di uno “spazio euclideo”, in accordo ai dati che rivelano scarsa densità media di materia visibile “incurvante” lo spazio, relegando in un mitico passato lo spazio curvilineo che si sarebbe poi “disteso”. In realtà e come si è detto lo “spazio curvo” – non potendo certamente essere la curvatura di un vuoto – può essere soltanto la curvatura di un plenum, di un mezzo in cui avvenga il movimento, dunque in ultima analisi di una superficie o di una sorta di volume solido o almeno gassoso, cosicché lo spazio non appaia più quale un contenente ma possa essere identificato con la materia. Così questi pianeti einsteiniani, che nel loro moto seguono la curvatura dello spazio, sembrano poggiare su qualcosa. Ciò appare come una sorta di riedizione moderna non solo di idee classiche (la materia impalpabile di Cartesio e Leibniz), ma anche antiche (i pianeti trasportati dalle sfere di Aristotele) e perfino mitiche come nelle più antiche cosmologie (la Terra poggiante sulle acque, il mondo poggiante su una tartaruga, Atlante che sorregge il mondo): ma in realtà per quanto oggi si parli di “materia oscura” è difficile ritenere che nell’universo non esista un vacuum. Sembra qui tornare l’antica idea di un sostegno, ma ai primordi del pensiero occidentale fu una grande conquista l’idea di Anassimandro per la quale la Terra non poggia su qualcosa bensì è sospesa nell’universo. Per questo non può non suscitare perplessità la metafora di Eddington del Sole che curva lo spazio circostante come una patata curva il lenzuolo disteso: infatti, cosa incurva il lenzuolo? Il peso della patata, ma il peso della patata cos’è? Nient’altro che la forza gravitazionale con cui la massa della patata è attirata verso terra. Ora, la metafora applicata al Sole e allo spazio non quadra: perché una stella nello spazio, che necessariamente si deve supporre ampiamente vuoto, praticamente non pesa. La stella è sospesa nello spazio, non c’è nelle immediate vicinanze il campo gravitazionale di un’altra stella che attiri la prima determinandone il peso, non c’è l’equivalente della Terra soggiacente al lenzuolo che attira la patata 175
e fa curvare il lenzuolo. Ponete nello spazio interstellare una patata su un lenzuolo: poiché la patata – in assenza pressoché totale di attrazione gravitazionale – sarà praticamente priva di peso, allora certamente non vedrete il lenzuolo incurvato dalla patata: invece nella teoria della relatività proprio il peso (la «massa pesante») sembra paradossalmente diventare una sorta di valore assoluto. Quindi l’esempio di Eddington, per quanto poi ampiamente ripetuto e illustrato nei testi, è fuorviante e non rispecchia la situazione reale: con tutto il rispetto per il grande astrofisico inglese, sembra proprio un discorso della patata. Einstein reputa inverosimile che una stella possa attrarre un pianeta o deviare dalla sua traiettoria un corpo celeste, ma poi ritiene possibile una cosa ancora più inverosimile: che il campo gravitazionale di questa stella, la sua forza gravitazionale dichiarata inesistente e di fatto identificata con la «massa pesante», possa addirittura deformare lo spazio. In questo modo si reputa assurdo che un’arancia possa attrarre un granello a dieci o cento o quattrocento metri, ma si reputa del tutto comprensibile che quest’arancia possa “curvare lo spazio” nel raggio di centinaia e migliaia di metri. La forza gravitazionale di Newton che attira un pianeta è bandita come inverosimile: ma a ben vedere questa “pesante” massa gravitazionale di Einstein che perfino deforma lo spazio non sembra più plausibile. Un ulteriore problema che poi si pone è che cosa sia e cosa costituisca questo “campo gravitazionale curvo” generato dalla sorgente: l’etere, nella nuova forma immaginata da Einstein, per quanto plausibile sembra comunque inosservabile; e le onde gravitazionali, pur parimenti plausibili, per quanto attentamente ricercate non sono mai state rilevate. Tutto quanto sappiamo in termini di rilevazione della densità media di materia presente nell’universo è un valore assolutamente esiguo (circa 0,015 di particella per metro cubo): e per quanto si possa supporre che nei pressi di una massa gravitazionale tale valore sia decisamente più alto, resta difficile pensare a una densità tale da trascinare i pianeti curvandone le orbite. Insomma se parliamo di materia visibile o rilevabile, allora nell’universo non c’è abbastanza massa per “curvare” lo spazio; e se parliamo di materia invisibile o non rilevata (etere, onde 176
gravitazionali o anche la “materia oscura” oggi tanto propagandata) siamo ovviamente nel campo di un’ipotesi al fondo non meno speculativa della vecchia actio distans che a torto si attribuisce univocamente a Newton. Inoltre uno “spazio curvo” siffatto, curvato al centro dal Solepatata, dovrebbe essere immaginato non come uno spazio riemanniano bensì piuttosto lobacevskijano: in termini di superficie, dovrebbe essere immaginato non come una superficie convessa a curvatura positiva, ma concava a curvatura negativa; in termini geometrici, dovrebbe essere descritto non attraverso una geometria ellittica bensì iperbolica. In termini più semplici, questo spazio “curvato” al centro dal Sole-patata dovrebbe essere immaginato come una sorta di imbuto, o meglio come una scodella vista dall’interno o come un autodromo vecchia maniera (si pensi all’autodromo di Monza) il cui centro è in basso e i cui bordi sono rialzati. Ora in questo spazio, in cui le distanze e le velocità dei pianeti dovrebbero essere determinate dal grado di curvatura, i pianeti più vicini al Sole come Mercurio dovrebbero ruotare su orbite più curve, là dove è massimo il grado di curvatura, mentre i pianeti più lontani come Nettuno dovrebbero ruotare “più in alto” in orbite presso il bordo lontano della superficie curva, in spazi più prossimi alla curvatura nulla e dunque quasi euclidei. Ma allora perché le orbite dei pianeti sono quasi complanari e (tranne quella di Plutone che è l’ultimo pianeta) tutte giacciono sostanzialmente sul medesimo “piano” costituito dall’equatore celeste? La complanarità non rivela affatto, quantomeno non nella terza dimensione, qualcosa di curvo. E poi, perché i pianeti in cinque miliardi di anni non sono ancora precipitati sul Sole, se l’incurvatura dello spazio li fa continuamente precipitare? In realtà sembrerebbe che solo uno spazio non curvo può evitare il collasso dei pianeti sul Sole. Si potrebbe al riguardo ancora porre un’altra obiezione: infatti, poiché secondo Einstein nello spazio incurvato dal Sole i pianeti seguono delle geodetiche che sarebbero la via più breve fra due punti e l’equivalente di una retta su una superficie curva, allora in uno spazio “incurvato” la traiettoria curvilinea più breve dovrebbe essere circolare, mentre invece i pia177
neti (prescindendo dal problema dei tre corpi) seguono delle ellissi, cosicché la spiegazione relativistica delle orbite dei pianeti sembra incompatibile con le leggi di Keplero (già Newton contestava la teoria cartesiana dei pianeti trasportati circolarmente dal vortice della materia sottile come incompatibile con le leggi di Keplero). Invero esporremo più oltre una possibile spiegazione dell’ellitticità dell’orbita, comunque incompatibile con il principio einsteiniano di relatività, e per ora soltanto noteremo come nel quadro della teoria relativistica della gravitazione (come peraltro nel quadro della teoria classica) il problema sembra irrisolto. Vi è poi un ulteriore argomento che, in base alle stesse osservazioni al telescopio, sembra comprovare la scarsa plausibilità di un universo “curvo”: infatti in presenza di una “curvatura dello spazio”, almeno se concepita come curvatura positiva di uno sferoide, le galassie oltre una certa distanza scomparirebbero sotto la linea dell’orizzonte rendendosi invisibili – proprio come sulla Terra è impossibile vedere l’altro emisfero e le navi a un certo punto scompaiono al di sotto dell’orizzonte –, mentre invece noi vediamo al telescopio milioni di galassie anche lontane oltre dieci miliardi di anni luce ed abbiamo, se pur non la certezza, certamente il fondato sospetto che se non ne vediamo altri milioni per lo spazio di altri miliardi di anni luce è solo per la limitatezza intrinseca della nostra strumentazione e non perché il telescopio sia giunto all’estremo limite dell’orizzonte galattico oltre il quale non si possa andare. Il minimo che si possa dire è che, se curvatura dello spazio v’è, questa potrà magari essere collocata ancora più in là ma certamente non si vede per tutti i miliardi di anni luce in cui in ogni direzione si spinge il telescopio. Se poi al di sotto di questa linea dell’orizzonte posta come coincidente con i poteri di risoluzione dei nostri telescopi vi fossero altre galassie, allora la radiotelescopia dovrebbe captarne i segnali in onde radio, proprio come una nave può ricevere un messaggio dall’altro emisfero. Dunque almeno per tutto il vastissimo ed enorme spazio monitorato dai nostri telescopi, misurabile in miliardi e miliardi di anni luce, non v’è traccia di spazio sferico proprio perché in esso le galassie non scompaiono affatto. 178
Infine, se si tratta di una “gravitazione-pesante” non agente direttamente sui corpi celesti, bensì solo indirettamente attraverso la cosiddetta “curvatura dello spazio” che imprimerebbe una determinata traiettoria ai corpi stessi, allora, per l’omogeneità e l’uniformità fra terra e cielo imprescindibile dopo Galileo e Newton e per il valore universale delle leggi di natura, dobbiamo naturalmente dire – e Einstein infatti dice – che la stessa cosa vale per la gravitazione terrestre: dunque anche sulla Terra i gravi cadrebbero al suolo in ragione della curvatura dello spazio circostante la Terra. Ma allora ci si chiede cosa è più semplice e verosimile pensare: che la mia pipa è caduta a terra perché attratta dalla gravitazione terrestre o perché la “curvatura dello spazio” in quel metro cubo l’ha fatta cadere? Diremo che la mela cade non perché attratta dalla Terra ma perché precipita in uno spazio curvo? Non si risponda naturalmente che in realtà il grave cade in una sorta di parabola curvilinea perché questo è perfettamente spiegabile nei termini della fisica classica (Galileo) come intersezione fra caduta perpendicolare e moto orizzontale terrestre. Insomma nella teoria di Einstein la caduta dei gravi sulla terra e le orbite dei pianeti in cielo ritornerebbero ad essere fenomeni separati e non comprensibili unitariamente, com’era nella fisica prenewtoniana. Parimenti, il fenomeno delle maree si spiega assai meglio con un influsso diretto di un campo gravitazionale che non nei misteriosi termini di una improbabile curvatura dello spazio, che proprio non si vede come potrebbe sollevare le acque del mare.82
82 Proprio il diniego del concetto equivoco di “spazio curvo” è alla base della teoria gravitazionale alternativa di A.N. Whitehead (The Principle of Relativity, Cambridge 1922, University Press). Mantenendo la relatività ristretta (ma respingendo l’invarianza di c e il paradosso dei gemelli), egli cercò di costruire una teoria della relatività facendo uso del calcolo tensoriale senza però assumere alcuna “curvatura dello spazio” e dunque senza presupporre alcuna variazione relativistica del rapporto fra massa e gravitazione: egli assume invece uno spazio uniforme che nessuna materia ha il potere di “curvare”, e questo sia per consentire misurazioni adeguate sia per ridurre l’abisso scavato dalla teoria della relatività fra l’astrazione matematica e il mondo fenomenico. La teoria, dapprima analizzata con interesse da
179
In conclusione sembra doversi dire che l’abolizione relativistica della forza gravitazionale, ridotta a «massa inerte e pesante», apra più problemi di quanti non ne risolva. In realtà il campo gravitazionale curvo di Einstein non è meno misterioso della forza newtoniana; lo “spazio curvo” non è meno metafisico ed è altrettanto inosservabile dello spazio assoluto newtoniano. La vera natura della gravitazione continua a sfuggirci, e più vive che mai appaiono le parole di Newton in proposito, nello Scholium generale aggiunto alla seconda edizione dei Principia: «ho spiegato i fenomeni del cielo e del nostro mare mediante la forza di gravità, ma non ho mai fissato la causa della gravità. […] Non sono ancora riuscito a dedurre dai fenomeni la ragione di queste proprietà della gravità, e non invento ipotesi (hypotheses non fingo). […] È sufficiente che la gravità esista di fatto, agisca secondo le leggi da noi esposte [legge dell’inverso del quadrato], e spieghi tutti i movimenti dei corpi celesti e del nostro mare». L’impasse di Einstein Del resto una riprova delle grandi difficoltà riguardo la natura della gravitazione sembra rintracciabile anche nelle lunghe e vane ricerche einsteiniane successive all’esposizione della relatività gene-
Eddington e discussa lungamente dall’autore con lo stesso Einstein che mai ne fu convinto, riformulata da altri autori negli anni venti e negli anni cinquanta-settanta, si accordava pienamente (come deve essere per ogni teoria gravitazionale plausibile) con gli attuali valori del perielio di Mercurio, della deflessione della luce e del red shift cosmologico. Essa sembrò smentita per errate previsioni del moto delle galassie e delle forze mareali, ma la questione non è ancora ritenuta chiusa: il problema è però che la teoria di Whitehead implica il ritorno - ormai difficilmente giustificabile - all’actio distans come se le teorie del campo non fossero mai state. Ma ciò che dal nostro punto di vista è interessante sottolineare è come sembri perfettamente possibile costruire una moderna teoria gravitazionale senza alcuno “spazio curvo” (Sulla teoria gravitazionale di Whitehead v. M. Bramé, cit.).
180
rale. Infatti Einstein, dopo aver esposto nel 1916 la teoria della relatività generale, conscio che nell’elettromagnetismo una carica elettrica oscillante produce onde elettromagnetiche che si allontanano dalla sorgente alla velocità della luce agendo su cariche anche molto distanti ma decrescendo – come già mostrato da Coulomb – in ragione dell’inverso del quadrato della distanza proprio come la forza gravitazionale, e supponendo che dunque per omologia anche una massa gravitazionale produca onde gravitazionali o gravitoni, cercò per quasi quarant’anni una “teoria del campo continuo unificato” in grado di ricondurre a un’unica matrice le sue equazioni del campo gravitazionale e le equazioni d’onda maxwelliane del campo elettromagnetico, nel tentativo di mostrare sia il campo elettromagnetico sia il campo gravitazionale come due risvolti di una stessa realtà, effetti specifici di una omologa “curvatura dello spazio”. Parimenti la nuova teoria del campo unificato avrebbe dovuto applicarsi anche alla fisica delle particelle e dunque alla meccanica quantistica finalmente purificata dalle sue macchie (che per Einstein erano il principio di indeterminazione di Heisenberg e il principio di complementarità di Bohr), in modo tale da consentire una reductio ad unum delle nuove forze (interazione nucleare forte e debole) che la fisica delle particelle andava supponendo all’interno dell’atomo. Il fine ultimo era così dedurre dalle nuove equazioni del campo l’elettromagnetismo classico, la gravitazione relativistica e la fisica quantistica83. Al riguardo Einstein intendeva fare per le altre forze di natura ciò che aveva tentato con la forza di gravità: estendere a tutte l’idea della curvatura dello spazio (quantificandola attraverso nuove equazioni di campo) quale chiave esplicativa, così riducendole a una descrizione puramente geometrica e in tal modo smaterializzandole e abolendone la natura di “forze” (scriveva infatti J. Jeans: «la teoria fisica della relatività ha reso evidente […] che le forze elettriche e magnetiche non sono affatto reali; sono mere co83 P. Greco, Il sogno di Einstein. Alla ricerca di una Teoria del Tutto, Napoli 2000, Cuen.
181
struzioni mentali che ci facciamo […]. Lo stesso vale per la forza di gravitazione newtoniana»). A questo scopo Einstein cercò per anni di utilizzare la teoria matematica di Kaluza-Klein, che prevedeva i vari tipi possibili di “curvatura” di uno spazio a cinque dimensioni: ma poi ne vide il carattere arbitrario e privo di riscontri fisici, e anche tutti gli altri suoi tentativi successivi finirono in altrettanti “vicoli ciechi” quasi a realizzare l’antica profezia di Poincaré sul destino finale del fisico di Ulm. Così il pluridecennale e ostinato tentativo di Einstein di trovare una teoria del campo unificato, nonostante l’enorme dispendio di energie, fallì. Perché fallì? Al riguardo sembra proprio doversi dire che in base ai presupposti relativistici appare impossibile trovare l’unificazione cercata, perché non si vede come sia possibile estendere ulteriormente l’idea di “curvatura dello spazio”, in realtà già ampiamente problematica per il campo gravitazionale. Infatti diventa evidentemente difficile dire plausibilmente che anche le sorgenti elettriche o i poli magnetici determinino con la loro “massa pesante” un incurvamento del campo circostante, esprimendo questo con un certo tensore G a indicarne il grado di curvatura: un campo elettromagnetico curvo non risulta generalizzabile. Così la teoria relativistica del campo gravitazionale (a partire dai tentativi di H. Weyl fino a quelli dello stesso Einstein) non riuscì a includere la teoria del campo elettromagnetico semplicemente perché non può: perché le equazioni di Maxwell, comunque radicate nella fisica classica, non possono esserne facilmente divelte e piegate alle finalità estranee della geometria dei tensori e dello spazio curvo pur all’uopo considerato pentadimensionale. In pari tempo la teoria del campo, pur essendo una teoria classica di continuità come la teoria classica del campo di Maxwell, non poteva eliminare del tutto le singolarità discrete che, anziché riducibili ad effetti del campo, sembravano ovunque risultare alle equazioni anche come sorgenti del campo stesso: in altri termini la totalità del campo non appariva soltanto quale generatrice ma anche come generata da una o più sorgenti, in quanto non esiste un campo elettrico senza cariche elettriche né un campo magnetico 182
senza poli o aghi magnetici né evidentemente un campo gravitazionale senza sorgenti gravitazionali. Così la teoria della relatività non poteva rapportarsi alla teoria dell’elettromagnetismo. Non a caso R. Feynman elaborò in tutt’altra direzione una “elettrodinamica quantistica” (Quantum Electrodynamics o QED) in cui le interactions elettromagnetiche fra elettroni e fotoni (rappresentati rispettivamente da una linea ondulata e da una retta) sono descritte (“diagrammi di Feynman”) prescindendo dalla mediazione del campo elettromagnetico classico la cui considerazione determina l’insorgere di quantità infinite, e le cui equazioni Einstein avrebbe voluto traducibili in quelle del campo gravitazionale, bensì sono descritte come dirette azioni e retroazioni fra cariche discrete e puntiformi agenti alla velocità della luce: ove, a parte i casi di azione diretta (collisione elettrone-positrone = fotone, decadimento del fotone in elettrone-positrone, emissione o assorbimento di un fotone da parte di un elettrone), il percorso di una particella (definito con “integrali di cammino”) è influenzato con actio distans dal percorso di una particella lontana (con la strana possibilità di positroni “equivalenti” a onde “anticipate” dal futuro che viaggiano all’indietro nel tempo giungendo all’assorbitore prima di essere partite dalla sorgente).84 Parimenti, mentre la teoria della relatività ristretta (con la sua fondamentale relazione funzionale e viluppo reciproco fra massa e velocità) sembrava trovare conferme nella fisica atomica, seppur come si è visto non senza certi equivoci semantici, invece la teoria della relatività generale, che già non riusciva a includere l’elettromagnetismo, così non riusciva nemmeno a inglobare la fisica delle particelle. Pochi e parziali furono i successi delle varie teorie al riguardo: dopo la teoria relativistica dell’elettrone di Dirac (equazione di Dirac o equazione del moto dell’elettrone), dopo i poco fruttuosi tentativi di Eddington (Relativity Theory of Protons and
84 Cfr. R. Feynman - R. Leighton - M. Sands, The Feynman Lectures on Physics, 3 voll., 1963-1965 (tr. it. La fisica di Feynman, con testo inglese, Bologna 2001, Zanichelli) e R. Feynman, La strana teoria della luce e della materia, cit.
183
Electrons, 1936), dopo i tentativi (criticabili) di ricondurre le velocità superluminali dei mesoni ad effetti relativistici di curvatura dello spazio-tempo, vi furono solo i vani sforzi di Einstein nella sua ricerca di una teoria relativistica del campo unificato. La teoria del campo continuo urtava contro la fisica quantistica del discreto. Cosicché, poiché la teoria della relatività speciale (parte della teoria generale) dovrebbe valere particolarmente per velocità prossime a quelle della luce e poiché queste velocità si riscontrano nella fisica delle particelle, ci si deve chiedere perché a tutt’oggi risulti problematica l’unificazione fra campo gravitazionale relativistico e meccanica quantistica. Qui chiaramente non si tratta semplicemente del fatto che ad Einstein non piacesse la meccanica quantistica, bensì sembra proprio esservi un’inconciliabilità che resiste a tutti gli sforzi di unificazione compiuti dai maggiori fisici da Eddington a Dirac allo stesso Einstein. Così Heisenberg, uno dei padri fondatori della meccanica quantistica, scrisse al riguardo: «qualsiasi teoria che cerchi di rispondere contemporaneamente alle esigenze della relatività speciale e della teoria dei quanta porterà a delle inconsistenze matematiche, a forti divergenze nelle regioni delle altissime energie e degli altissimi momenti»; «tutti gli schemi matematici fin qui escogitati hanno di fatto condotto a divergenze, cioè a contraddizioni matematiche, o non sono venuti incontro a tutte le esigenze delle due teorie»85. Evidentemente nell’atomo con ogni probabilità sono in gioco forze che non si lasciano ricondurre a deformazioni spazio-temporali, donde l’antitesi persistente fra relatività e quanta: non a caso nell’equazione di Schrödinger (prima del collasso d’onda indotto dalla misura) si richiede il tempo assoluto e d’altra parte, se il nucleo dell’atomo devía le particelle a, dovremmo forse dire che le particelle sono deviate dall’incurvarsi dello spazio fra il nucleo e le particelle? Probabilmente dunque nel mondo atomico si devono riconsiderare diversamente le forze gravitazionali. W. Heisenberg, Physics and Philosophy, 1958, tr. it. Fisica e filosofia, Milano 1961, Il Saggiatore, p. 191. 85
184
Eddington disse che la forza gravitazionale è irreale tanto quanto la forza centrifuga: ma se è molto facile eliminare la forza centrifuga (mostrandola inesistente e riconducendola – questa sì – all’inerzia o anche all’accelerazione impressa), non sembra – almeno a prima vista – altrettanto facile cancellare la forza gravitazionale che, cacciata dalla porta, sembra sempre rientrare dalla finestra. Di fatto la gravitazione è oggi considerata una delle quattro forze fondamentali assieme all’elettromagnetismo, alla forza nucleare forte e alla forza debole: e – benché non siano stati rintracciati – si parla come si è detto di “gravitoni”, che non sembrano poi così dissimili dalle particelle gravitazionali puntiformi e infinitesimali che per Newton costituiscono la massa gravitazionale di un corpo celeste. Per quanto la loro natura ci sfugga, le “forze” (ma la stessa terminologia antropomorfa è impropria) sembrano veramente sussistere e ovunque la natura le manifesta: le cariche elettriche, i magneti, le attrazioni gravitazionali, le forze atomiche, sembrano reali e non riconducibili a un puro matematismo geometrico quali effetti di deformazione spazio-temporale. Così mentre la teoria del campo elettromagnetico di Maxwell dimostrava la propria plausibilità anzitutto unificando nel concetto di onda la luce, l’elettricità e il magnetismo in un campo unico più generale e dunque più semplice, mostrando la reciproca interscambiabilità in condizioni date fra fenomeni elettrici e magnetici precedentemente separati, ovvero la possibilità della creazione di un campo magnetico attraverso una corrente elettrica e viceversa (induzione elettromagnetica), invece la teoria relativistica del campo gravitazionale ridotto a campo geometrico non appare generalizzabile in alcun modo, e nonostante ogni sforzo non sembra riconducibile a una teoria più ampia e generale in grado di unificare con più alto grado di semplificazione diversi campi della realtà quali la gravitazione, il magnetismo e la fisica delle particelle: ove in ciò naturalmente non può non vedersi infine un limite intrinseco, un defectus originario della teoria stessa. Questo fu visto con tutta chiarezza dallo stesso Einstein. Perché infatti egli cercava ostinatamente la teoria del campo unificato? Sì, certo, per trovare leggi matematiche e fisiche dotate del massimo 185
grado di universalità, bellezza e semplicità, sulle orme di Newton che in base alla stessa legge di gravitazione aveva compreso la caduta dei gravi sulla Terra e l’orbita di un pianeta in cielo e di Maxwell che in un pugno di equazioni aveva congiunto l’elettricità, l’ottica e il magnetismo. Ma a ben vedere non si trattava solo di ciò: ciò che muoveva Einstein era un bisogno più impellente e pressante, era una necessità. Per Einstein era in certo modo una questione di vita o di morte, in quanto era in gioco la sopravvivenza stessa della sua teoria. Egli riteneva infatti che, se la teoria della relatività con le sue equazioni del campo non si fosse rivelata compatibile con la teoria del campo elettromagnetico e se non fosse stata applicabile alla fisica delle particelle, allora ciò sarebbe stato – per la sua teoria – l’inizio della fine. La critica che Einstein muoveva alla meccanica quantistica, di non riuscire a fornire un’immagine completa del mondo (perché scissa fra descrizione corpuscolare e ondulatoria), si ritorceva ora contro di lui. Mentre la teoria della relatività veniva sempre più accettata nella comunità scientifica, il solo Einstein (in questo veramente con la lungimiranza dell’uomo di genio) ne vedeva le crepe: per questo faceva ogni sforzo per salvare la sua teoria. E per questo il fallimento del suo pluridecennale tentativo, che sempre più lo isolò dal mondo scientifico che non lo capiva e reputava che la sua fosse solo una stranezza senile, lo amareggiò e infine perfino lo condusse a dubitare della sua teoria. Alla fine Einstein tornò ad essere lo scienziato solitario che in fondo era sempre stato (“io non sono fatto per cavalcare in gruppo”): il vecchio scienziato finiva per ricordare il giovane studente e l’impiegato dell’ufficio brevetti che, tutto solo, creava la teoria della relatività, con la differenza che ora una nuova creazione appariva impossibile. Probabilmente non fu senza sottintesi la sua risposta nel 1943 ad una lettera di una bambina che gli confidava le proprie difficoltà in matematica, quando Einstein scrisse: «non preoccuparti delle difficoltà che incontri in matematica, perché le mie sono ancora maggiori». In realtà Einstein, che pur negli ultimi anni sosteneva che solo nei secoli futuri sarebbe stato compreso, seppe anche con grande onestà intellettuale riconoscere l’impasse. Nel 1949, ormai non più gio186
vane e riguardando il passato, scrisse a M. Solovine: «Lei pensa che io consideri con tranquillità e soddisfazione le opere della mia vita. Non è così. Non esiste una sola idea della cui durata io sia sicuro, né sono sicuro di essere mai stato sulla buona strada»86. Nel 1952 scrisse a M. von Laue: «ci si vede confinati in un vuoto concettuale senza speranza. I miei sforzi di interpretare fisicamente la teoria generalizzata della gravitazione sono completamente falliti». Infine, nella sua ultima lettera a M. Besso spedita da Princeton il 10 agosto 1954 un anno prima della morte, scrisse: «considero assolutamente possibile che la fisica possa in realtà non essere fondata sul concetto di campo, cioè su strutture continue. Allora, di tutto il mio castello in aria, compresa la teoria della gravitazione, ma anche di tutta la fisica contemporanea, non resterebbe praticamente niente»87. Insomma, après moi le déluge! Infine, nel suo ultimo testo scientifico, scritto dodici giorni prima della morte quale prefazione all’opera Cinquant’anni di relatività, Einstein scriveva: «siamo molto lontani dal possedere una base concettuale della fisica alla quale poterci in qualche modo affidare».88 Equazioni del campo e reificazione dello spazio Probabilmente, il pessimismo di Einstein era eccessivo. In realtà, per evitare l’impasse e il déluge, una prima via sembra consistere anzitutto nel rifiutare nel modo più deciso ogni rappresentazione rozzamente realistica e ontologica della riduzione geometrica della gravitazione nei termini consueti e quanto mai ambigui dello “spazio curvo”, certo in alcun modo rappresentabile né intuitivamente né
86 A. Einstein, Lettera a M. Solovine del 28 marzo 1949 (in Lettres a Maurice Solovine, Paris 1956, Gauthier-Villars). 87 A. Einstein, Lettera a M. Besso del 10 agosto 1954 (tr. in Opere scelte, cit. p. 706 in pp. 703-706. La versione è lievemente modificata). 88 AA.VV., Cinquant’anni di relatività, cit.
187
logicamente, così prendendo le distanze nel modo più netto dai “discorsi della patata”, dalle ingannevoli visualizzazioni e dalle presentazioni divulgative (ivi compresa perfino quella di un Russell) più note e correnti ma anche più riduttive e in molti casi decisamente semplicistiche. Scrive al riguardo Reichenbach: «La teoria della relatività non afferma affatto che ciò che prima era l’immagine geometrica delle cose adesso, all’improvviso, è curvo nel senso riemanniano. Si afferma, piuttosto, che una tale raffigurazione non esiste, e che con le relazioni metriche si esprime qualcosa di completamente diverso da un duplicato dell’oggetto»89. In realtà le deformazioni relativistiche non vanno entificate e ipostatizzate in modificazioni e deformazioni reali dello spazio, bensì vanno intese funzionalmente come le risultanti matematiche dell’utilizzazione di certi parametri e coordinate: «la geometria dello spazio fisico non è un risultato immediato dell’esperienza, ma dipende dalla scelta della definizione coordinativa»90. Scrive Cassirer: «non si tratta più di sapere cosa sia lo spazio, né se gli si debba attribuire una determinata costituzione – euclidea, lobacevskijana o riemanniana –, bensì si tratta di sapere quale uso si debba fare di insiemi diversi di presupposti geometrici nell’esporre i fenomeni della natura e le loro interdipendenze legali»91. E Schlick: «non è corretto affermare che l’esperienza potrebbe dimostrarci l’esistenza di una “struttura non euclidea dello spazio”, e cioè che essa potrebbe costringerci a scegliere tra le due possibili assunzioni [spazio piano/curvo, euclideo/non euclideo]»92. Il problema non consiste nella falsa alternativa spazio piano/spazio curvo, bensì consiste nel vedere quale geometria sia meglio utilizzabile per fornire il modello più adeguato di una determinata realtà. Si tratta insomma di vedere «se sia più pratico impiegare la geometria eucli-
H. Reichenbach, Relatività e conoscenza a priori, cit. pp. 154-155. H. Reichenbach, Filosofia dello spazio e del tempo, cit. p. 44. 91 E. Cassirer, Sulla teoria della relatività di Einstein, cit. p. 588. 92 M. Schlick, Spazio e tempo nella fisica contemporanea. Un’introduzione alla teoria della relatività e della gravitazione, cit. p. 48. 89 90
188
dea oppure una geometria non euclidea nella descrizione fisica della natura»: chiamiamo “spazio euclideo” o “piano” quello in cui decidiamo di descrivere le relazioni fra i corpi con una matematica euclidea, “spazio non euclideo” o “curvo” quello in cui decidiamo di descrivere le relazioni fra i corpi con una matematica non euclidea; questo è tutto, ma noi possiamo anche passare da un sistema all’altro come quando misuriamo la temperatura con un termometro Fahrenheit e poi convertiamo i risultati nel sistema Celsius. Nella fattispecie, potrebbe essere preferibile o necessario abbandonare le determinazioni di misura euclidee per descrivere nella maniera più semplice il comportamento fisico di certi corpi nello spazio. Così, almeno per quanto riguarda le grandi distanze astronomiche, può essere preferibile definire il movimento di un corpo in un campo gravitazionale attraverso i dieci parametri delle equazioni relativistiche anziché attraverso uno solo; e dal momento che i corpi celesti effettuano rotazioni circolari e rivoluzioni curvilinee, dal momento che le immaginarie figure geometriche disegnate dai corpi celesti non sono triangoli o quadrati ma piuttosto geodetiche, ellissi, iperboli, parabole, allora per descrivere le loro dinamiche può essere preferibile usare un sistema metrico non euclideo e coordinate gaussiane anziché cartesiane, proprio “come se” lo spazio fosse curvo, senza che però certo mai si intenda ingenuamente che veramente e realiter possa trattarsi di “spazio curvo”. Come le linee curve dell’equatore e dei meridiani non sono reali, ma solo idealmente raffigurate su una superficie terrestre ideale, così le coordinate gaussiane non esistono nella realtà. Anzi, mentre le linee dell’equatore e dei meridiani si riferiscono comunque ad una superficie terrestre approssimativamente curvilinea, invece le coordinate gaussiane non attestano uno spazio realmente curvo: piuttosto, esse servono a identificare gli eventi in uno spazio-tempo non realmente curvo, ma soltanto idealmente immaginato tale. Se un oggetto è posto in linea retta a 100 metri di distanza da me io posso sempre presupporre che, immaginata una collina fra me e l’oggetto, l’oggetto disterà 150 metri calcolando la percorrenza della collina: ma ciò non significa che realmente vi sia la collina interposta fra me e l’oggetto. Così il coef189
ficiente K di curvatura, anziché esprimere il tasso della incomprensibile “curvatura dello spazio”, può semplicemente esprimere il coefficiente di curvatura (ad esempio di torsione o di rotazione) dell’orbita. Anziché dire “di quanto” si incurvi lo spazio, esso può semplicemente dire “di quanto” si incurvi l’orbita: in effetti per il principio relativistico è cinematicamente equivalente dire che la rotazione assiale sia fatta dalla Terra o dal cielo delle stelle fisse. È dunque importante rifiutare l’ingannevole visualizzazione dello spazio curvo. Al riguardo Reichenbach ha mostrato come la visualizzazione, effetto della «funzione produttrice di immagini», abbia esercitato con la sua sottile costrizione all’assenso una deleteria funzione coercitiva nel sancire il primato della geometria euclidea93: Reichenbach cercava una corretta visualizzazione non euclidea, ma che dire intanto della nuova e non meno coercitiva visualizzazione non euclidea che ha condotto al “discorso della patata” (e poi – come vedremo – al “discorso del palloncino”), che ha condotto a immaginare lo spazio ridotto alla superficie di un lenzuolo, a vedere le traiettorie dei pianeti come binari ferroviari o come solchi nel terreno con salite e discese, a pensare la “curvatura dello spazio” come una scodella vista dall’interno come iperbolica e vista rovesciata dall’esterno come ellittica, fino a un profluvio di immagini topologiche stiracchiate e deformate in tutti i modi? Non vi è anche qui una forza cogente e dogmatica dell’immagine, della visualizzazione, che spinge all’assenso con altrettanta irriflessa e ingannevole e fuorviante costrizione? Non a caso Heisenberg, vedendone l’inganno, detestava le immagini correnti degli atomi uncinati con orbite planetarie. Dunque, lo “spazio curvo” può essere in realtà soltanto la descrizione matematica non euclidea di determinati fenomeni che avvengono nello spazio: non può essere inteso come una rappresentazione realistica e ontologica, e meno che mai nei termini di una visualizzazione. Lo stesso Einstein lo scrisse, ma praticamente solo in una lettera privata del 1946 ad una ragazzina 93
190
H. Reichenbach, Filosofia dello spazio e del tempo, cit. pp. 63-116.
inglese: «usata in senso giusto, la parola “curvo” non ha lo stesso significato che le attribuiamo nel linguaggio corrente».94 Senonché una volta detto questo occorre trarne la conclusione decisiva: dire cioè che in realtà Einstein non può contrapporre alla teoria gravitazionale di Newton una teoria gravitazionale veramente superiore, bensì semplicemente un più evoluto linguaggio matematico (tratto da Gauss, Riemann, Ricci Curbastro, Levi Civita) atto a esprimere meglio le dinamiche celesti. Peraltro la ricerca di questo più evoluto linguaggio matematico costituì uno scoglio e una barriera che arrestarono e bloccarono per anni Einstein nella sua definizione della teoria della relatività generale, fino a fargli temere vana l’impresa: Einstein considerò poco o nulla la sua idea della gravitazione e della relatività generale, che avrebbe senz’altro abbandonata come inutile e infruttuosa se, su indicazione di Grossmann, non ne avesse trovato quasi bell’e pronta la desiderata e invocata espressione matematica nelle equazioni del campo e nel calcolo tensoriale. La matematica relativistica, quasi approntata per Einstein da grandi matematici precedenti, non fu la veste esteriore e aggiuntiva della teoria della relatività generale, bensì ne fu la sostanza stessa e l’intima linfa95. In questo senso si potrebbe replicare la famosa frase di Hertz e dire che, come la teoria elettromagnetica di Maxwell è nient’altro che le equazioni di Maxwell, così la relatività generale di Einstein è nient’altro che le equazioni del campo di Einstein: la parte solida della teoria della relatività generale sono le equazioni del campo, e tutto il resto – gli spazi curvi, l’inerzia gravitazionale, etc. – la parte caduca e transeunte. 94 Cit. dalla raccolta di lettere di Einstein in risposta a personaggi vari, per lo più non celebri, in A. Einstein: The Human Side. New Glimpses from his Archives, Princeton 1979, University Press, tr. it. A. Einstein, Il lato umano. Spunti per un ritratto, a cura di H. Dukas e B. Hoffmann (rispettivamente segretaria e collaboratore di Einstein), Torino 1980, Einaudi, p. 101. 95 Questo aspetto emerge bene nel libro di F. Toscano dal significativo titolo Il genio e il gentiluomo. Einstein e il matematico italiano che salvò la teoria della relatività generale, Milano 2004, Sironi. Il matematico italiano è Ricci Curbastro.
191
Senonché, che cos’è il calcolo tensoriale che Einstein applica nella sua teoria, a che cosa servivano e a che cosa ancora servono sostanzialmente i tensori? Certamente i creatori del calcolo tensoriale non pensavano agli spazi curvi e alla relatività: in realtà i tensori erano e sono di fatto usati dagli ingegneri per la misurazione del grado di deformazione subita da un corpo elastico sottoposto a sollecitazioni; con i tensori ad esempio è possibile calcolare come e in che misura un corpo sferico sottoposto a pressione o a stiramento possa essere deformato in ellisse. Ora, cosa ha a che vedere questo con lo “spazio curvo”? I corpi celesti sono oggetti deformabili dalle forze applicate: ad esempio la rotazione assiale di un pianeta lo appiattisce ai poli e lo gonfia all’equatore; ad esempio per le forze applicate l’orbita di un pianeta può essere “stirata” in ellittica o sinusoidale. Ma cosa può essere la deformazione di uno spazio “piano” in uno “curvo”? Si vuole che le equazioni ricavate da Einstein attraverso il calcolo tensoriale – che stabiliscono una relazione fra il primo membro dato come tensore metrico G atto a definire attraverso dieci potenziali i diversi gradi di curvatura dello spazio e il secondo membro dato come quantificatore della massa-energia – definiscano uno spazio “curvo” e financo un universo “curvo”. Ma in realtà le equazioni di Einstein non conducono affatto direttamente a uno spazio curvo in cosmologia: esse invece, dato per presupposto e per definizione uno spazio curvo, ricavano le possibili relazioni fra la supposta curvatura dello spazio e la massa; in altri termini la cosiddetta misura della “curvatura dello spazio” ottenuta tramite le equazioni relativistiche è più semplicemente la misura di una certa massa con la quale, presupposta la curvatura dello spazio, si deduce di quanto lo spazio verrebbe magicamente “curvato”. Ma in realtà non si misura e non si può misurare nessuna “curvatura dello spazio”: si intende misurare di quanto lo spazio venga “curvato”, ma in realtà si misura qualcosa di assai più definito, come la deformazione subita da un corpo celeste o dalla sua orbita a causa delle sollecitazioni. Quando Einstein misura (e torneremo su ciò) l’orbita anomala di Mercurio, egli crede di misurare di quanto lo “spazio curvo” incurvi l’orbita di Mercurio, ma in realtà egli non fa altro 192
che misurare il grado di curvatura dell’orbita di un oggetto definito (Mercurio) per poi attribuire tale curvatura allo spazio. Similmente quando Einstein misura la deflessione della luce in vicinanza al Sole (e anche su ciò torneremo), egli dice di misurare di quanto lo “spazio curvo” incurvi la luce solare, ma in realtà egli non fa altro che misurare di quanto si incurvi la luce solare. Lo “spazio curvo” è soltanto un fantasma metafisico immaginato dietro le spalle di corpi o traiettorie curve: ma se io mi piego ad arco e misuro di quanti gradi sono piegato ad arco, sono io che mi piego ad arco e non un fantomatico spazio curvo attorno a me. Ma allora, se lo “spazio curvo” è solo un modo abbreviato e impreciso di dire a cui non corrisponde nulla nello spazio, se la curvatura dello spazio-tempo si riduce a un complesso di equazioni matematiche privo di un autentico referente nella realtà, di cui solo può descrivere il contorno fenomenico, allora in ultima analisi la teoria fisica della gravitazione viene meno. Noi non riusciamo ad immaginare nulla di reale in questo spazio relativistico ridotto a un intreccio di coordinate riemanniane, in cui si rivela quello che Duhem definiva una sorta di “imperialismo algebrico”. A rigore la teoria della gravitazione einsteiniana è una teoria matematica ma, per quanto pur si applichi alla realtà, non è né cinematica né dinamica: in altri termini non è una teoria fisica in quanto non fornisce alcun modello se non matematico della realtà. Certo può essere preferibile esprimere le orbite dei pianeti non in termini di caduta dei gravi, forze centrifughe, composizione vettoriale delle forze, equazioni differenziali, bensì in termini di coordinate gaussiane, tensori, parametri di curvatura, equazioni del campo. Resta però il fatto che, nonostante la funzionalità della strumentazione matematica, la natura della gravitazione continua a sfuggirci. Se si è rivelato incongruo il tentativo di Eddington di visualizzare lo “spazio curvo” con il “discorso della patata” (così come incongruo è stato il tentativo di visualizzare l’atomo come un sistema planetario ben ordinato), se si è rivelato ingannevole il tentativo di Russell di fornire in qualche modo una rappresentazione fisica dello “spazio curvo”, nemmeno ci convincono del tutto gli autori come Cassirer, Schlick o 193
Reichenbach che, paghi di una pur valida descrizione matematica, assicurano che il resto sia soltanto uno pseudo-problema metafisico privo di autentico senso. Si rasenta qui una filosofia convenzionalistica, che dichiara inessenziale il problema della realtà risolvendolo nella scelta di adeguati parametri matematici di misurazione. Cosicché risorge il dilemma di Husserl: il simbolismo matematico e formale descrive i fenomeni del mondo, ma al contempo ne sembra occultare con un velo cifrato la natura reale. Come nella meccanica quantistica noi descriviamo con alto tasso di precisione la probabilità matematica dell’apparire di un certo fenomeno senza che ciò nulla ci dica sulla sua reale natura (corpuscolare e/o ondulatoria), così nella teoria gravitazionale della relatività usiamo gaussiane, tensori, coefficienti di curvatura per descrivere matematicamente e appropriatamente una realtà che rimane indecifrata. Come diceva Eraclito, «la natura ama nascondersi». Verso una unificazione elettromagnetica delle forze Per quanto riguarda dunque il problema della forza gravitazionale, di cui appare insufficiente la riduzione einteiniana a inerzia e a determinazione metrica del campo, sembrerebbe in prima istanza che essa debba essere ripensata anzitutto restituendone pienamente la natura di forza. Viceversa, dopo la riduzione relativistica, la forza gravitazionale è stata espulsa dall’atomo: qualunque cosa avvenga nell’atomo, si è detto, non sono in gioco forze gravitazionali perché esse sono troppo deboli e quindi ininfluenti. E poiché si intende che anche le forze elettromagnetiche non spieghino la stabilità dell’atomo, tendendo semmai a romperla, allora si sono introdotte altre forze per spiegarne la dinamica. Rivediamo in sintesi la storia, onde trarne certe indicazioni. Nell’atomo – come si sa – esiste un nucleo con protoni e neutroni, e una parte più esterna con elettroni rotanti. I protoni hanno carica positiva, gli elettroni negativa. Le cariche dello stesso segno si respingono, e con tanta più forza quanto più esse sono vicine. Di 194
conseguenza, siccome gli atomi – ad eccezione dell’atomo di idrogeno che è il più semplice con un protone e un elettrone – contengono più protoni (il nucleo dell’atomo di uranio, oltre a 135-148 neutroni, contiene 92 protoni), allora i protoni tutti, avendo carica positiva, tendono decisamente a respingersi e ad allontanarsi. Parimenti anche gli elettroni alla periferia dell’atomo, avendo carica negativa, tendono a respingersi e ad allontanarsi. Infine le forze elettromagnetiche non possono legare neutroni e protoni nel nucleo in quanto non possono agire sui neutroni privi di carica. Stando così le cose si è ritenuto che le forze elettromagnetiche non spieghino la coesione e la relativa stabilità dell’atomo: si rileva infatti che tali forze trattengono gli elettroni legati al nucleo per la reciproca attrazione delle cariche opposte, mentre invece per via della stessa carica da una parte i protoni dovrebbero respingersi fra loro e dall’altra parte dovrebbero respingersi fra loro gli elettroni. E siccome si ritiene che nemmeno la forza gravitazionale possa spiegare tale coesione e stabilità in quanto troppo debole, allora si sono postulate due forze: l’interazione nucleare forte e l’interazione debole. La forza di interazione debole (postulata da Fermi nel 1933) presiederebbe alle interazioni fra il nucleo e gli elettroni, ma è supposta anche responsabile della disintegrazione di protoni in neutroni e viceversa e dunque del decadimento radioattivo beta con emissione di particelle. Invece l’interazione forte (postulata da H. Yukawa nel 1935) come una colla molto potente terrebbe insieme protoni e neutroni nel nucleo: nel nucleo avverrebbe una lotta fra interazione forte e forza elettrica; le forze elettriche tenderebbero a separare e ad allontanare i protoni ma l’interazione forte, prevalendo sulla repulsione elettromagnetica, li tiene vincolati assieme ai neutroni. Tuttavia l’interazione forte, pur enormemente potente, nulla potrebbe a distanze maggiori: essa non decrescerebbe con l’inverso del quadrato della distanza bensì agirebbe solo a brevissima distanza nel nucleo, senza nemmeno giungere all’elettrone. Avremmo così ben tre forze diverse per spiegare le interazioni fra i tre tipi di particelle che compongono l’atomo e una forza (gravitazionale) per spiegare le interazioni fra corpi, e ciascuna di que195
ste forze agirebbe tramite specifiche particelle mediatrici: come le onde elettromagnetiche sono le mediatrici della forza elettromagnetica, così i mesoni o pioni sarebbero i mediatori della interazione forte, i bosoni W e Z i mediatori della interazione debole e i gravitoni (o onde gravitazionali) i mediatori della forza gravitazionale. Senonché, mentre le onde elettromagnetiche hanno sicuramente a che fare con l’elettromagnetismo, la connessione fra i mesoni e l’interazione forte e quella fra i bosoni e l’interazione debole è assai più postulata che rilevata e le onde gravitazionali non sono mai state rilevate. Non stupirà dunque che l’unificazione assai ricercata fra queste forze, volta a rivelarle quali manifestazioni di un’unica forza, sia apparsa alquanto problematica. Non v’è dubbio che la proliferazione delle forze nella fisica contemporanea riveli un guasto teorico di fondo. Un primo problema infatti subito si pone: quando si dice che le interazioni forti e deboli agiscano a brevissima distanza (le prime solo all’interno del nucleo atomico, le seconde nel nucleo e nell’atomo) senza poter esercitare alcuna forza alle grandi distanze sui moti dei pianeti e delle galassie, mentre invece al contrario le forze gravitazionali agirebbero solo a grandi distanze, a livello di pianeti e sistemi solari e galassie e per nulla affatto al livello dell’atomo, si introduce una frattura incomprensibile fra mondo macroscopico e microscopico, tanto più che invece si è disposti ad ammettere che le forze elettromagnetiche agiscano sia a lunga sia a brevissima distanza. Ma una frattura è introdotta anche all’interno dello stesso mondo “infinitamente piccolo” delle particelle. Infatti: se l’interazione forte tiene insieme i protoni, allora l’atomo di idrogeno con un solo protone non necessita di nessuna “forza forte” e ne avremmo inesplicabilmente che, pur essendo i protoni tutti simili fra loro, soltanto alcuni di essi avranno come optional il requisito della forza forte, a meno di non pensare che l’atomo di idrogeno sia provvisto di una “forza forte” assolutamente inutile per tenere insieme i protoni e i neutroni che non ha. Un ulteriore problema circa l’“interazione forte” sta inoltre nell’assunzione contraddittoria di una forza dichiarata enormemente forte, la più forte in assoluto onde tenere insieme 196
protoni e neutroni nel nucleo, che però non è abbastanza forte per assolvere al suo compito in quanto (anche se la maggior parte dei nuclei è stabile) non impedisce che nelle sostanze radioattive le forze elettriche repulsive dei protoni nel nucleo, pur poste come molto più deboli, ciononostante vincano sulla presunta interazione forte che terrebbe i protoni insieme fra loro e insieme con i neutroni, così determinando una situazione di instabilità e i conseguenti fenomeni di decadimento radioattivo con disintegrazione del nucleo. Si noti infatti che il fenomeno del decadimento radioattivo, che manda a pallino l’interazione “forte” che evidentemente tanto forte non è, non riguarda soltanto le sostanze dai nuclei con rilevante peso atomico (come l’uranio e il radio), in cui forse potrebbe ancora essere comprensibile che l’alto numero di protoni reciprocamente repulsivi (92 nel nucleo dell’uranio) e l’eccessiva dimensione del nucleo per il numero parimenti alto di neutroni (135-148 per l’uranio) possano indebolirne la compattezza e far prevalere le forze elettriche repulsive che disintegrano il nucleo, bensì riguarda anche alcune sostanze i cui atomi, veramente piccoli, hanno pochi protoni e dunque un peso atomico veramente minimo e una forza elettrica repulsiva ininfluente: anche essi decadono e vedono disintegrato il loro nucleo, e non sembra affatto che le scarse forze repulsive elettriche dei loro pochi protoni debbano vincere nessuna potentissima forza di interazione forte per disintegrare il nucleo. La vittoria delle forze elettriche sulla possente interazione forte rimane dunque inesplicata ma proprio per questo, stante cioè l’impossibilità che nei fenomeni di decadimento e disintegrazione del nucleo le deboli forze elettriche possano vincere l’interazione forte supposta fortissima, si è chiamata in causa la forza di “interazione debole” che (oltre che tenere insieme il nucleo e gli elettroni) sarebbe in grado di vincere nel nucleo l’interazione forte provocando i fenomeni di decadimento. Il nucleo dell’atomo diventerebbe così il teatro di una battaglia senza tregua fra la forza di interazione forte e la forza di interazione debole: se vince la prima il nucleo dell’atomo è stabile, se vince la seconda decade. Senonché nemmeno l’introduzione ad hoc della “interazione debole” quale supporto delle 197
cariche elettriche repulsive risolve il problema. L’“interazione debole” venne dapprima postulata da Fermi per spiegare il decadimento b, ma il decadimento b manifesta fenomenicamente soltanto un neutrone che decade in un protone e un elettrone. Siccome però in questo decadimento risulta che il neutrone perde massa in violazione dei princìpi di conservazione, allora Pauli ipotizzò che un neutrino di massa infinitesimale (e praticamente non rilevabile perché poco interattivo) entrasse nell’operazione onde riottenere la conservazione96, e parimenti Fermi in aggiunta al neutrino postulò l’azione dell’interazione debole. In tal modo dall’apparenza fenomenica di un neutrone che produce un protone e un elettrone si giunse al contorno piuttosto fantomatico del neutrino e dell’interazione debole, e in seguito tale interazione venne applicata quale matrice esplicativa di tutti i fenomeni di decadimento. Infine S. Weinberg, A. Salam e S. Glashow hanno ricevuto il Nobel con la motivazione di essere pervenuti ad una prima unificazione delle quattro forze, in quanto l’interazione nucleare debole e la forza elettromagnetica sono state considerate unificate per particelle ad alta energia quali manifestazioni di un’unica “forza elettrodebole”, ma ciò è avvenuto solo a prezzo di rilevanti forzature teoriche. Infatti la suddetta unificazione richiedeva non solo la previsione di particelle (con massa circa novanta volte superiore a quella del protone) dotate o sprovviste di carica elettrica (rispettivamente i bosoni W e Z), che vennero effettivamente rilevate (o prodotte) senza però che ne risultasse evidente la connessione con l’interazione debole, bensì richiedeva anche la rilevazione mai risultante del cosiddetto “campo di Higgs” e del “bosone di Higgs” interagente con esse. In particolare Weinberg non ha veramente mostrato un reale collegamento fra le due forze in questione, come ha fatto Maxwell mostrando in condizioni date e sperimentabili la trasformazione reciproca delle forze elettriche in magnetiche e viceversa: ha soltan96 Sui problemi inerenti il decadimento b e i princìpi di conservazione vedi l’Appendice.
198
to detto che ad altissime temperature (che C. Rubbia al Cern ha successivamente mostrato superiori ad un centinaio di GeV ove un GeV corrisponde all’energia di una particella di gas alla temperatura di circa 1013 gradi), e cioè alle altissime temperature del Big Bang (presupposto indimostrato di tutto il ragionamento) le due forze, anzi le quattro forze, costituivano una sola forza originaria poi divaricatasi. Il che equivale a dire: qui e ora non si registra nessuna reale connessione fra le due forze, ma io vi dico che tale connessione (non solo fra queste due ma fra tutte le forze) c’è indubbiamente stata 15 miliardi di anni fa. Ma certo non costituisce soluzione adeguata dichiarare d’ufficio l’unificazione delle forze cosa avvenuta al tempo di un Big Bang che (come vedremo) è in realtà quasi sicuramente inesistente. Una unità di forze – peraltro parziale – ottenuta in laboratorio in condizioni artificiali non equivale comunque a un’unità reale rinvenuta in natura. Al riguardo vi è stato perfino chi ha detto (J. Horgan, 1994) che per unificare le quattro forze occorrerebbe un acceleratore della circonferenza di mille anni luce, ma dire questo significa semplicemente ammettere che la fisica attuale non è in grado di rilevare alcuna unificazione reale in natura fra le forze: sarebbe forse bene lasciare un po’ stare gli acceleratori, che non possono risolvere tutti i problemi. La situazione sembra dunque ingarbugliata, e al riguardo sembrerebbe doversi dire che esiziale sia stata l’espulsione d’ufficio della forza gravitazionale dall’atomo nonché la scarsa considerazione dell’incidenza reale delle forze elettromagnetiche. Infatti il nucleo, pur essendo centomila volte più piccolo dell’atomo, contiene in enorme concentrazione con i suoi protoni e neutroni il 99% della massa dell’atomo – dunque praticamente tutta la massa: infatti l’elettrone è leggerissimo avendo una massa inferiore di ben 1800 volte a quella del protone e dunque a quella dell’atomo più leggero che è quello di idrogeno. Ora la massa è sempre gravitazionale, e dunque non si vede come fare eccezione per la massa concentrata nel nucleo dell’atomo proclamandone ininfluente e trascurabile il coefficiente gravitazionale che invece dobbiamo presumere altissimo, superiore alle forze elettriche repulsive dei protoni anche perché nel nucleo ol199
tre ai protoni v’è un numero pari o superiore di neutroni che non esercitano forza elettrica ma esercitano forza gravitazionale. Invero sembrerebbe di avere qui, nell’altissima densità gravitazionale del nucleo, il corrispettivo microcosmico dell’altissima densità e concentrazione gravitazionale di noti fenomeni stellari (nane bianche, stelle di neutroni, buchi neri, a non dire la densità gravitazionale che per milioni di anni blocca nel nucleo stellare i raggi gamma: si tornerà su questi fenomeni). Che dunque la stessa forza di gravità possa agire tanto nell’atomo che in una stella sembra indubbio, anche in considerazione del fatto che una stella è fatta di particelle e non si vede perché la gravità possa tenere insieme i neutroni in una stella di neutroni e non in un nucleo atomico. Essendo la massa del protone 1800 volte quella dell’elettrone, ciò spiega perché le masse gravitazionali dei protoni possano attrarsi, con tanta più forza stante la loro vicinanza, in modo da vincere la repulsione delle rispettive cariche elettriche: solo il crescere della distanza indebolisce la forza di gravità e qui la distanza veramente minima, corrispondente alla elevatissima densità delle particelle, appare un fattore passibile di moltiplicare esponenzialmente la forza gravitazionale nel mondo subatomico. Dunque la gravitazione può tenere insieme i protoni pur elettricamente repulsivi nel nucleo nonché i neutroni e parimenti essa (grazie anche alla carica positiva del nucleo) può tenere legati i leggerissimi elettroni di carica negativa impedendone la reciproca repulsione elettrica. È dunque possibile rintracciare nell’altissima densità e ridotta distanza fra le particelle del campo subatomico nonché nella presenza di cariche elettriche e campi magnetici attrattivi (oltre che repulsivi) il fattore di moltiplicazione esponenziale della forza gravitazionale, molto più debole invece nel campo macroscopico in quanto indebolita dalle distanze e dalla minor densità oltre che dal minor campo elettromagnetico. Non sembra possibile dunque continuare a ripetere che la forza gravitazionale sia troppo debole per spiegare i fenomeni atomici (si legge perfino che essa sarebbe miliardi di volte più debole della forza elettromagnetica, e molti miliardi di volte più debole dell’interazione forte), appunto perché invece essa nel mondo microscopico dell’ato200
mo e soprattutto nel nucleo acquisisce esponenzialmente una enorme forza per via della densità e delle ridotte distanze. Al riguardo sembra opportuno modificare il valore del quanto gravitazionale G, non considerandolo più come una costante universale fissa e inalterabile alla maniera della costante h di Planck: non perché G come nelle teorie di Milne e Dicke (e ancor prima in Dirac) sia una variabile decrescente nel tempo con la pretesa espansione dell’universo e il crescente diluimento di massa (solo in un universo in evoluzione le costanti potrebbero variare), ma perché la legge dell’inverso del quadrato della distanza potrebbe risultare solo approssimativamente vera non solo per le grandi distanze (come è già stato più volte ipotizzato da Eulero in poi), bensì soprattutto alle distanze infinitesimali all’interno dell’atomo. Del resto la stessa legge galileiana di caduta dei gravi, la terza legge kepleriana, il secondo principio newtoniano, oltre alla la formula gravitazionale classica, pur valide per approssimazione nel mondo macroscopico in condizioni ideali, sono in realtà prive di valore universale perché inficiate dalla mancata considerazione dell’incidenza reale delle masse nonché dei fattori di densità e polarizzazione fondamentali nel mondo subatomico, ciò che ha portato all’introduzione in esso di forze ad hoc. In tal modo, per estendere l’ambito della forza gravitazionale, occorre tarare i coefficienti numerici delle formule onde renderli applicabili al mondo subatomico in considerazione di tutti i fattori soprattutto elettromagnetici: in tal modo la forza gravitazionale sarebbe molto forte a livello atomico e molto più debole alle grandi distanze ove invece opererebbe approssimativamente secondo la legge dell’inverso del quadrato della distanza. Così sia l’interazione forte che nel nucleo connette i protoni e i neutroni sia l’interazione debole che al nucleo connette gli elettroni possono essere considerate una forza gravitazionale, cosicché nel nucleo e nell’atomo agisca essenzialmente la stessa forza. In virtù di questo procedimento le cosiddette interazioni forte e debole diventano superflue e riducibili alla forza gravitazionale, e veramente apparirebbe più agevole il cammino verso l’unificazione delle forze: non si tratterebbe più di forze diverse, che agirebbero a distanze piccole o grandi, ma della stessa forza con intensità decrescente con diversi valori e salti discontinui dal livel201
lo atomico al livello astronomico. La forza gravitazionale opererebbe quindi anche (e con potenza enormemente maggiore) nel mondo subatomico in cooperazione con le forze elettromagnetiche, senza la necessità di inventarsi altre forze. Per tutto questo sembra potersi dire che l’attuale proliferazione delle forze sia dovuta essenzialmente all’abbandono della forza gravitazionale, iniziato con Einstein: non si può vedere l’unità delle forze anzitutto perché il ruolo centrale di questa forza è stato misconosciuto. Questo ha portato a introdurre altre forze non necessarie. Sembra quindi che nell’atomo la forza gravitazionale appaia predominante e che essa, espulsa d’ufficio, debba esservi reintrodotta.97 Il problema dell’unificazione delle forze sorge anzitutto in 97 Il sospetto - ma solo il sospetto - è venuto a Schrödinger: «a volte mi sono trastullato con l’idea (senza cavarci alcunché) che la tremenda forza nucleare è proprio ciò che la gravitazione diventa a piccolissime distanze» (Corrispondenza E. Schrödinger - B. Bertotti, lettera del 7.1.1959, in AA.VV., Erwin Schrödinger scienziato e filosofo, Padova 1994, Il Poligrafo, p. 168). Anche in Q. Majorana si trova questa idea (Le teorie di Alberto Einstein, 1951, ora in Episteme n. 2, 21 dicembre 2000). Un tentativo di unificazione delle forze su base gravitazionale è rintracciabile nella “fisica unigravitazionale” di R. Palmieri (La fisica unigravitazionale, Napoli 1971, Athena). Egli però si è spinto troppo oltre in quanto (richiamando i casi in cui l’elemento attrattivo prevale su quello repulsivo, quando a basse temperature e a basse velocità gli elettroni di due correnti parallele - procedenti nello stesso verso in stato di reciproca quiete relativa - anziché respingersi per l’identica carica negativa si attraggono, nonché la discussa “fusione fredda” in cui - sempre a basse temperature e velocità - i protoni anziché respingersi per l’identica carica positiva si attraggono) giunge a generalizzare affermando che nelle cariche elettriche di ugual segno non sussisterebbe alcuna forza repulsiva, cosicché tutte le forze repulsive - viste come meramente apparenti - vengono ricondotte in modo forzato alla forza gravitazionale (un elettrone che si allontana da un altro viene visto come non respinto bensì inverosimilmente attratto dalle stelle lontane o equiparato a un pianeta che dopo il perielio si allontana dal Sole, sebbene in questo caso la sua velocità dovrebbe diminuire e non aumentare). Così per Palmieri la sola forza esistente nell’universo sarebbe la gravitazione. Senonché i fenomeni emissionistici e repulsivi (la radiazione elettromagnetica e il decadimento radioattivo) sembrano indubbi, e nell’esperimento di E. Rutherford la particella alfa scagliata contro il nucleo dell’atomo non causa una disintegrazione bensì ne viene proprio respinta in senso opposto come da una forza contraria, come una palla da un muro.
202
quanto le forze stesse sono già state precedentemente separate ed inventate ad hoc: ma le forze gravitazionali e elettromagnetiche sembrano spiegare i fenomeni atomici senza interazione né forte né debole. I protoni si respingerebbero fra loro per le uguali cariche positive e parimenti gli elettroni si respingerebbero per le uguali cariche negative, ma questa repulsione è vinta da una duplice forza elettromagnetica (in quanto i protoni e gli elettroni si attraggono per le opposte cariche) e gravitazionale. Ma allora a questo punto appare possibile un passo ulteriore e financo si potrebbe dire che la gravitazione, anziché essere ciò a cui ricondurre tutte le forze, potrebbe invece (senza con ciò essere negata) essere a sua volta ricondotta all’elettromagnetismo. Infatti le attrazioni fra gli atomi, ancor prima che a forze gravitazionali, appaiono dovute alle forze elettromagnetiche. Si intende che gli atomi siano elettricamente neutri e dunque insensibili nel reciproco contatto a qualsiasi forza elettromagnetica: poiché infatti nell’atomo isolatamente considerato vi è un ugual numero di protoni positivi e di elettroni negativi (atomo di elio con due protoni e due elettroni, atomo di carbonio con sei protoni e sei elettroni e così via nella scala di Mendelejev per progressione di numero atomico), allora stante la perfetta parità fra le opposte cariche del protone e dell’elettrone e la loro conseguente reciproca elisione, ne verrebbe che l’atomo risultando elettricamente neutro non possa risentire della forza elettrica cosicché la coesione e i legami atomici sembrano dover richiedere la forza gravitazionale. Ma in realtà solo un atomo isolato e ideale è neutro poiché quando due atomi entrano in contatto, stante che le interazioni atomiche che formano le molecole sono in realtà interazioni fra i rispettivi elettroni (i nuclei rimangono intatti occorrendo forze enormi per spaccarli), allora avviene un trasferimento di elettroni cosicché un atomo può cedere elettroni a un altro atomo con conseguente perdita per entrambi della carica neutra: l’atomo che cede elettroni cedendo cariche negative avrà più protoni che elettroni e così acquista carica positiva, mentre al contrario quello che ne acquista avrà più elettroni che protoni e diventa negativo. Gli atomi dunque appaiono legarsi fra loro non in ba203
se ad attrazioni gravitazionali bensì principalmente in base ad attrazioni elettriche con atomi di segno opposto quando l’atomo perde la carica neutra per via di cessione, acquisto e scambio degli elettroni esterni. Di conseguenza gli atomi della stessa carica si respingeranno con i rispettivi elettroni mentre quelli di carica opposta si attrarranno, e questo è spiegabile in termini di forza elettromagnetica ancor prima che in termini di forza gravitazionale, anche considerato che la forza gravitazionale può spiegare l’attrazione fra gli atomi ma non può spiegarne i fenomeni di reciproca repulsione. Poiché inoltre i protoni con carica positiva e gli elettroni con carica negativa sono fra le particelle più diffuse nell’universo, e poiché le particelle sono in moto e le cariche elettriche delle particelle in moto generano per induzione elettromagnetica campi magnetici e viceversa, allora non dobbiamo parlare semplicemente di cariche elettriche bensì della ben più potente forza elettromagnetica. I campi magnetici determinano un moto rotatorio e orbitale anzitutto nelle particelle: l’elettrone che subisce l’attrazione elettrostatica da parte del nucleo è dotato di spin rotazionale, e negli acceleratori le particelle vengono mantenute nella traiettoria circolare dell’anello attraverso campi magnetici. Parimenti la magnetosfera terrestre (e quella di molti pianeti), attirando come una calamita le particelle cariche (protoni ed elettroni provenienti dal Sole con il vento solare e raggi cosmici provenienti dagli spazi più lontani), le rallenta facendo loro perdere energia, quindi le intrappola e ne devía la traiettoria trasformandola in circolare attorno al campo magnetico terrestre ove le particelle si accumulano costituendo attorno alla Terra (per un’ampiezza di otto raggi terrestri e dunque per decine di migliaia di chilometri) le due grandi fasce di Van Allen (Van Allen Belts), una più esterna ricca di elettroni e l’altra più interna ricca di protoni (con più alta energia per via delle collisioni con l’atmosfera). Similmente la rotazione assiale dei corpi celesti, che per il principio di Mach si spiegherebbe soltanto con l’attrazione gravitazionale esercitata da altri corpi celesti anche lontanissimi, sembra invece principalmente intrinseca e indotta per forza elettromagnetica (compreso il caso in cui la rotazione magnetica di una nebulosa trasmette la rotazione al 204
nucleo centrale protostellare). In particolare nelle stelle di neutroni e nelle pulsar l’enorme compressione gravitazionale della stella sembra in realtà essenzialmente la manifestazione di un potentissimo campo elettromagnetico, che per l’attrazione delle cariche opposte fonde i protoni positivi e gli elettroni negativi in neutroni: infatti in queste stelle il campo elettromagnetico è esponenzialmente aumentato sia dall’enorme incremento della velocità rotazionale (addirittura stimata in migliaia di rotazioni al secondo) sia dalla enorme compressione. In particolare secondo le equazioni di Maxwell quando un oggetto magnetizzato si rimpicciolisce di un fattore 2 il suo campo magnetico aumenta di un fattore 4, e poiché una stella di neutroni si riduce addirittura di un fattore 105 di conseguenza il suo campo magnetico diventa 1010 volte più intenso: di conseguenza il campo elettromagnetico di queste stelle terminali, divenuto intensissimo (migliaia di miliardi di volte più intenso di quello solare), può “incollare” protoni ed elettroni fondendoli in neutroni (cosicché i protoni nonché gli elettroni originari, trasformati in neutroni e privi di carica, non si possono più respingere), in un processo in cui la forza gravitazionale non appare altro che una manifestazione abnorme della forza elettromagnetica.98 Non sembra dunque eccessivo dire che la stessa rivoluzione orbitale dei corpi celesti sia dovuta non a campi gravitazionali bensì a campi magnetici, o almeno a campi magnetici passibili di determinati effetti gravitazionali (si tornerà su ciò in merito al perielio di
Va detto però che la corrente spiegazione per la quale le stelle di neutroni e soprattutto le pulsar (pulsating stars) ruotino (per via della rotazione accelerata dell’asse dell’enorme campo magnetico) a velocità altissima emettendo dal polo magnetico radiazioni come fari (una frequenza – una rotazione) fino a migliaia di rotazioni al secondo appare paradossale per l’incredibile velocità che un corpo celeste per quanto piccolo dovrebbe avere per ruotare attorno a se stesso migliaia di volte in un secondo oltretutto senza essere disgregato dalle forze centrifughe, cosicché (nonostante sia indubbio che la rotazione di un corpo celeste sia essenzialmente dovuta ai campi magnetici) l’altissima frequenza di radiazione di queste stelle terminali “pulsanti” potrebbe anche non essere connessa a un moto rotatorio così veloce. 98
205
Mercurio). I campi magnetici sembrano i veri o almeno i principali responsabili dell’incurvamento delle traiettorie nonché della rotazione e della rivoluzione dei corpi celesti tutti (pianeti, stelle, galassie). L’eccezionale importanza che i flussi di energia elettrica e i campi magnetici rivestono nel plasma interstellare e intergalattico, con conseguente produzione di vortici e spirali che conducono alla formazione delle galassie e dei sistemi stellari, è stata peraltro ben compresa nella teoria di Alfvén99. Tenendo conto di tutto ciò sembra possibile affermare la riducibilità della gravitazione all’elettromagnetismo: la stessa caduta dei gravi, ciascuno dei quali contiene una certa quantità di ferro ed è fatto di particelle elettromagnetiche, potrebbe essere spiegata come dovuta (stante il nucleo di ferro fuso della Terra) ad attrazione da parte del campo magnetico terrestre (per il quale probabilmente un chilo di ferro toccherebbe terra prima di un chilo di paglia). Peraltro la possibile riducibilità delle forze gravitazionali alle forze elettriche (e quindi elettromagnetiche) sembra confermata anche dalla legge di Coulomb per cui le forze elettriche decrescono anch’esse in ragione dell’inverso del quadrato della distanza proprio come le forze gravitazionali. Del resto le onde gravitazionali sono solo ipotizzate e non sono mai state rilevate nonostante i raffinatissimi e costosissimi strumenti di rilevazione approntati, cosicché infine diviene lecito il sospetto che queste onde-fantasma mai da alcuno rilevate potrebbero non esserci; invece le onde elettromagnetiche esistono sicuramente perché, previste teoricamente da Maxwell, sono state scoperte da Hertz. Nessun’altra forza, a parte quella costituita dalle onde elettromagnetiche, è mai stata rilevata: tutte le altre – gravitazione, nucleare forte, interazione debole – sono state solo ipotizzate per cercare di rendere conto dei fenomeni attrattivi. Quando dunque Einstein ha eliminato la forza gravitazionale newtoniana riducendo la gravitazione ad inerzia e a geometria del campo, forse si è fermato a metà strada perché avrebbe po99
206
tuto eliminare anche la sua nuova forza gravitazionale riducendola al campo elettromagnetico, anziché concepire quest’ultimo come un’estensione e una generalizzazione della gravitazione. In altre parole Einstein nel suo tentativo di costruire una teoria unificata ha cercato di ridurre l’elettromagnetismo alla gravitazione mentre invece avrebbe dovuto tentare la via contraria, che si prospettava molto più proficua. Così infine il comun denominatore delle forze potrebbe essere non la gravitazione ma l’elettromagnetismo: esso appare ora attrattivo, e cioè gravitazionale con particolare accentuazione della forza attrattiva in presenza di fenomeni magnetici e di cariche contrarie, ora repulsivo in presenza di cariche di ugual segno. Infatti sembra che sostanzialmente in natura si debba distinguere fra forze attrattive (gravitazional-magnetiche con cariche opposte) e repulsive (le forze elettromagnetiche della stessa carica, la radiazione tutta dai raggi gamma ai raggi x alla luce fino alle onde radio, il decadimento a e b): le forze elettromagnetiche attraggono o respingono a seconda delle cariche, le forze gravitazional-magnetiche attraggono sempre. Si potrebbe infine dire che giustamente Empedocle pensava che le due grandi forze che connettono il mondo sono Amore (Fil…a) che unisce, lega, connette e Odio (Ne‹koj) che allontana, spezza e separa. Si direbbe che l’unificazione delle forze vada cercata in questa direzione e che essa appaia, se non proprio in bella vista come la lettera rubata di Poe che nessuno vede, comunque all’orizzonte.
H. Alfvén, Cosmical Electrodynamics, Oxford 1950, University Press.
207
X La deflessione e il perielio diversamente interpretati Giungiamo ora alle due cosiddette “prove” della teoria della relatività generale: la deflessione della luce e il perielio di Mercurio. E subito ci preme precisare un punto. In accordo con P. Duhem100, sosteniamo che è veramente difficile trovare un experimentum crucis, vale a dire decisivo e definitivo in senso baconiano, insindacabile e in grado di dire l’ultima parola sulla verità o la falsità di una teoria scientifica, confermandola o smentendola in blocco. Una verifica è sempre più o meno parziale, esposta al dubbio e all’interpretazione: nella maggior parte dei casi essa può valere solo con grado più o meno alto di probabilità, e tale probabilità sarà tanto più alta quanto più tale verifica è associata ad altre. La deflessione della luce secondo Einstein e secondo Newton Per quanto riguarda la deflessione gravitazionale della luce, si intende che Einstein (che iniziò le sue ricerche in proposito con un articolo del 1911 su L’effetto della gravitazione sulla propagazione della luce101) ha previsto e misurato in anticipo con buona approssimazione il grado di deflessione e incurvatura della luce causata dalla prossimità di un campo gravitazionale. La deflessione gravitazionale della luce, difficilmente osservabile nel debole campo gravitazionale terrestre (nonostante il citato esempio einsteiniano del raggio di luce “curvato” nell’ascensore), è invece più chiaramente rilevabile nel campo gravitazionale di una stella (si consideri che la forza gravitazionale di una stella come il Sole è 27 volte e la sua
P. Duhem, La teoria fisica: il suo oggetto e la sua struttura, cit. A. Einstein, Über den Einfluss der Schwerkraft auf die Ausbreitung des Lichtes, in Annalen der Physik, 1911 n. 35 (tr. it. L’effetto della gravitazione sulla propagazione della luce, in Opere scelte, cit. pp. 221-232). 100 101
208
209
massa è 300.000 volte quella terrestre). Infatti una stella può non trovarsi là ove la si vede, lungo la retta tracciata dal raggio di luce che ci colpisce, in quanto la luce da essa proveniente, se deflessa, fornisce false indicazioni sulla direzione di provenienza, ciò per cui occorre distinguere fra posizione reale e posizione apparente di una stella. Un’eclisse solare è la condizione migliore per verificare il grado di deviazione della luce e, dopo vari inutili tentativi di E. Freundlich (la sua spedizione in Crimea per osservare un’eclisse venne vanificata dallo scoppio della prima guerra mondiale), Eddington poté organizzare una verifica nel 1919 in Brasile e nel golfo di Guinea durante un’eclisse di Sole. In occasione di questa eclisse, le stelle vicine al disco solare apparvero spostate in fotografia rispetto alla loro posizione normale: cosicché, non potendo esse essersi spostate, si constatò che la gravitazione solare ne aveva deflesso la luce. Per la verità ad Einstein non fu difficile prevedere l’esistenza di una deflessione, dopo che Newton (prima delle Quaeries dell’Optiks) l’aveva prevista due secoli prima: infatti in base alla sua teoria gravitazionale Newton aveva detto che come una forza gravitazionale può deviare l’orbita altrimenti rettilinea di un pianeta, così può anche deviare la luce poiché anch’essa, stante la sua natura corpuscolare, è dotata di massa (nonostante la teoria einsteiniana che vuole i fotoni privi di massa). Nella teoria classica, la previsione della deflessione gravitazionale della luce – con suo conseguente rallentamento e dunque abbassamento della frequenza e allungamento della lunghezza d’onda – rientra nel capitolo dell’ottica riguardante i fenomeni di rifrazione: così J. Soldner, nel 1804, calcolò il grado di deflessione gravitazionale della luce e confermò la teoria di Newton misurando l’angolo di deviazione in 0,875 secondi d’arco; e questa, con lievissimo scarto, fu la prima valutazione einsteinana102. Dunque il titolo del Times all’indomani della verifica di Eddington nel 1919 A. Einstein, L’effetto della gravitazione sulla propagazione della luce, in Opere scelte, tr. cit. p. 231. 102
210
(«Nuova teoria dell’universo: demolite le idee di Newton») fu veramente alquanto esagerato. Piuttosto, se novità vi è, essa consiste in primo luogo nel fatto che Einstein affrontò il problema in base alla teoria relativistica del campo gravitazionale ma soprattutto nel fatto che, partendo dalle sue equazioni del campo, egli dedusse infine una misurazione dell’angolo di deviazione più precisa di quella classica. Infatti Einstein, corretti nel famoso articolo sulla relatività generale del 1916 i suoi precedenti calcoli ancora newtoniani del 1911 (che poi erano quelli del non citato Soldner), valutò il grado di spostamento angolare come doppio rispetto a quello newtoniano: lo spostamento angolare risultò così non 4m/pr bensì 8m/pr; non 0,875 secondi d’arco bensì 1,74.103 Perché questa differenza a vantaggio del calcolo di Einstein? Iniziamo a vedere quali sono gli errori del calcolo newtoniano. E anzitutto diciamo che ai tempi di Newton le caratteristiche peculiari del Sole non erano note: Newton non conosceva con precisione il valore della massa solare e quindi non poteva calcolare esattamente quanto questa massa agisse in termini di attrazione gravitazionale. In secondo luogo la definizione newtoniana e classica della massa come quantitas materiae – seppur valida rispetto al concetto relativistico che ne fa una variabile cinematica – rimane in parte ambigua in quanto, precisando la massa come il numero di particelle costituenti un corpo in un dato volume e calcolandola moltiplicando tale numero per il volume, ne ottiene necessariamente una misura imprecisa perché non tutte le particelle costituenti un corpo hanno lo stesso volume (ad esempio, e come si è detto, la massa del protone è duemila volte quella dell’elettrone ma minore di quella del neutrone). In terzo luogo Newton non conosceva i campi magnetici solari né l’esatta entità della deformazione geometrica del Sole (con schiacciamento ai poli e rigonfiamenti equatoriali) dovuta alla sua rotazione, tutti fat-
103 A. Einstein, Die Grundlage der allgemeinen Relativitätstheorie, in Annalen der Physik, 1916 n. 49 (tr. it. I fondamenti della teoria della relatività generale in Opere scelte, cit. pp. 338-343).
211
tori questi pure rilevanti in termini di attrazione gravitazionale. In quarto luogo la pur mirabile ottica newtoniana non era esente da certi errori in seguito corretti nello sviluppo del pensiero scientifico: ad esempio secondo Newton (come già per Cartesio e contrariamente a Fermat) la luce viaggerebbe più velocemente in un mezzo denso come l’acqua che non in uno rarefatto come l’aria; in particolare egli pensava che la luce sarebbe stata accelerata dal campo gravitazionale solare, proprio come un grave galileiano in caduta, e non sapeva che invece questo effetto è superato dall’effetto contrario per il quale la luce attratta viene rifratta e in realtà rallentata dalla più densa atmosfera terrestre, con la conseguenza che anche questo errore teorico doveva necessariamente riflettersi nei calcoli. In breve, per vari motivi Newton sottostimava l’entità dell’influsso gravitazionale solare (oltre che gli influssi magnetici) e di conseguenza sottostimava l’ampiezza del grado di deflessione causata da quell’influsso. Egli applicava meccanicamente la legge (in realtà come ogni legge approssimata in presenza di condizioni al contorno) per cui l’influsso gravitazionale diminuisce con l’inverso del quadrato della distanza, e non considerava che alle piccole distanze la sorgente gravitazionale non è riducibile a una massa puntiforme idealizzata, come invece può essere agevolmente considerata sulle grandi distanze, in quanto a tali vicinanze assumono grande rilievo proprio quei dati inerenti le caratteristiche morfologiche, strutturali e dinamiche della stella che invece nella sua epoca erano poco conosciuti. Tutte queste limitazioni dovevano necessariamente riflettersi nei calcoli che appunto per ciò risultarono non molto precisi. Ma quanto va qui notato è che in tutto questo non appare affatto un defectus o una macula originaria della teoria newtoniana della gravitazione e dell’ottica (come si ritenne quando Fizeau e Foucault dimostrarono attraverso la misurazione che la velocità della luce è minore in un mezzo denso rispetto a uno rarefatto): si tratta invece più semplicemente da un lato di errori teorici specifici su punti particolari per quanto importanti, e dall’altro lato di una conoscenza relativamente scarsa all’epoca (e dunque non direttamente imputabile a Newton) di dati imprescindibili per corrette misurazioni del grado di deflessione della luce. 212
Passiamo ora ad Einstein. Anzitutto consideriamo che egli, pur avendo detto di aver automaticamente ricavato l’angolo di deflessione da una semplice applicazione delle sue equazioni del campo senza direttamente porsi lo specifico problema della deflessione della luce, in realtà solo dopo ripetuti tentativi giunse a quella misurazione. Inoltre egli godeva di molti vantaggi potendo usufruire di secoli di progresso scientifico: sapeva naturalmente che la luce deflessa rallenta e non accelera e poteva calcolare la massa e vari dati del Sole, e dunque il grado di deflessione della luce causata dal campo gravitazionale solare, in modo certamente più preciso di Newton e di Soldner. Del resto che le misurazioni e i calcoli si facciano più precisi nel tempo è del tutto normale: la misurazione della circonferenza terrestre è diventata sempre più precisa dopo i primi tentativi di Eratostene, e solo per approssimazioni successive si è giunti all’esatta misura della velocità della luce. Venendo dopo Newton, Einstein in realtà poteva soltanto migliorarne le misure e sarebbe stato ben strano se, due secoli dopo, avesse fornito un valore peggiore per la deflessione della luce. Ma siccome si insiste che la maggior precisione della misurazione einsteiniana sia un frutto eminente della teoria della relatività, una conseguenza matematica della stessa tale da fornirne una indubbia conferma, allora è opportuno spendere su ciò qualche parola. Einstein reinterpretò la deflessione gravitazionale, per la quale il Sole agirebbe sulla luce come una lente gravitazionale deformante, nei termini della sua teoria dello spazio “curvato” dal campo gravitazionale. Per questo egli non parla in termini classici di rifrazione, bensì in termini di “curvatura” dello spazio e della stessa luce: quella deviazione classicamente definita rifrazione del raggio di luce sarebbe, per tornare all’immagine rozzamente realistica di cui si è detto in precedenza, il ritardo del raggio dovuto al fatto che esso, nei pressi dell’incurvatura e dell’avvallamento dello spazio-lenzuolo operata dal Sole-patata, percorrerebbe una traiettoria più lunga, per così dire prima in discesa e poi in salita. Ove noi, senza tornare su quanto detto, semplicemente constatiamo: noi rileviamo un raggio di luce deflesso e rifratto da una massa gravitazionale, e per nulla affatto uno spazio “curvato”; non risulta uno spazio “curvo” in quanto tale, bensì semmai le onde, i foto213
ni che costituiscono la luce appaiono deviati in prossimità di un campo gravitazionale. Così, vedendo ora la cosa dal punto di vista matematico, ci domandiamo: in che modo Einstein, applicando la sua teoria gravitazionale dello “spazio curvo”, giunse a una misurazione più precisa dell’angolo di deflessione? Al riguardo si è detto: egli giunse a un valore migliore perché calcolò una deviazione supplementare, rispetto a quella calcolata da Newton, dovuta all’incurvamento dello spazio. Ma in che modo fece questo calcolo? Aggiungendo al valore newtoniano un coefficiente K esprimente un grado di “curvatura dello spazio”, quantificato e calibrato in modo da ottenere il valore rimasto fuori dalla valutazione newtoniana. Così Einstein disse: quanto manca è dovuto alla curvatura spaziale per cui, dando un valore a questo grado di curvatura K compatibile con il residuo mancante che si deve approssimare, ne avremo la risultanza finale. In tal modo noi avremmo una prima deviazione (newtoniana) di 0,875 e una seconda deviazione (einsteiniana), sempre di 0,875, che produce 1,74 che è con migliore approssimazione del precedente il valore cercato. Senonché in tutto questo, come si vede, lo “spazio curvo” non è affatto l’essenziale: essenziale è invece che si sia inserito quel valore. Il grado K esprime senz’altro un coefficiente di curvatura, ma nulla ci impedisce di considerare quel coefficiente, quella curvatura aggiuntiva espressa da K, non come il valore dell’improbabile grado di “curvatura dello spazio” bensì come il valore di curvatura o meglio di deflessione della luce. Per questo appare più corretto dire che il campo gravitazionale solare, anziché incurvare lo spazio circostante, semplicemente devía la traiettoria del raggio di luce: la deflessione gravitazionale della luce appare meglio spiegabile – corretti gli errori – nei termini della fisica classica, in termini di rifrazione, che non in termini di “spazio curvo”.104 Si potrebbero ricordare al riguardo le lunghe discussioni avvenute nella scienza italiana nei primi decenni del XX secolo volte a riproporre la teoria balistica newtoniana della luce e a contestare la legittimità della deduzione relativistica del grado di deflessione della luce in base al concetto di “curvatura dello spazio” (v. Maiocchi, Einstein in Italia. La scienza e la filosofia italiane di fronte alla teoria della relatività, cit. pp. 127-142). 104
214
Infine: il valore einsteiniano fornisce una migliore approssimazione di quello newtoniano, ma è davvero così preciso? In realtà quanto venne verificato in Brasile e nel golfo di Guinea in occasione dell’eclisse del 1919 non fu così univoco. Anzitutto Eddington esercitò una forma di censura poiché, adducendo la scarsa definizione delle immagini, escluse i risultati che fornivano il valore più basso e vicino alla previsione newtoniana: come scrive l’astronomo J. Müller (in una lettera a U. Bartocci resa pubblica) «the 1919 eclipse that made Einstein famous from night to day was manipulated by Eddington, who took only 6 of 24 photographic plates that were in favor of Einstein and discarded the other 18 that were not». Infatti Eddington alla fine considerò solo due dati. Il primo era il valore più preciso ma anche il più scomodo: ricavato dalle lastre migliori, fu ottenuto in Brasile e indicava uno spostamento troppo alto di 1,98 secondi d’arco, inaccettabile per la teoria einteiniana. Il secondo valore considerato fu ottenuto nel golfo di Guinea, ma le lastre sortirono di bassa qualità e Eddington dovette impegnarsi in una tortuosa serie di calcoli supplementari per ottenerne un valore indiretto di 1,61 secondi d’arco: il valore per quanto basso era più vicino alla previsione di Einstein di 1,74 secondi, ma il modo in cui Eddington l’aveva ricavato sapendo già il risultato cui doveva pervenire e torcendo i valori all’uopo lasciò parecchi dubbi. A questo punto fra valori piuttosto discordanti Eddington, dopo avere respinto quelli troppo bassi e inficianti la previsione einsteiniana, fece una media fra i due considerati: in tal modo 1,79 – media fra 1,98 e 1,61 – apparve con approssimazione il valore cercato di 1,74. Come si vede non v’è bisogno di essere scettici ad oltranza per nutrire qualche dubbio su questa “conferma”: in questo senso l’ostentata indifferenza di Einstein circa i risultati delle rilevazioni, e la sua successiva famosa affermazione che la teoria era corretta e che se i dati fossero stati diversi sarebbe stato dispiaciuto per Dio, riletta in controluce sembra quasi l’affermazione di chi sapeva che non sarebbe stato tradito dall’amico Eddington. Oggi perfino convinti assertori della teoria della relatività come 215
Sciama esprimono perplessità al riguardo: «si può a buon diritto sospettare – scrive infatti Sciama – che se gli osservatori non avessero saputo prima quale valore “dovevano” ottenere, i risultati da loro pubblicati avrebbero un campo di variabilità molto più vasto»105. Del resto varie altre rilevazioni, effettuate in più luoghi del mondo durante eclissi dal 1922 al 1952, diedero valori non univoci: se nel 1922 i dati sembrarono confermare le previsioni einsteiniane, in seguito si rilevarono grandi spostamenti d’arco con oscillazioni fra 1,42 e 2,73. Così anche Born nell’ultima edizione del suo libro sulla relatività (1962) dovette ammettere che «non si è ancora arrivati ad una conferma sperimentale definitiva: alcune misure recenti mostrano uno spostamento più grande del 10% del valore teorico [di Einstein]».106 Dunque i valori ottenuti in trent’anni sono in realtà alquanto vari: in linea generale, anche considerando gli ultimi segnali radio della sonda Cassini che hanno rivelato una deviazione in prossimità del Sole compatibile con i dati relativistici, ciò che possiamo dire è che essi infine sono più precisi dei valori newtoniani senza che però ciò confermi in toto (come sempre si legge) la teoria della relatività, proprio come i calcoli spesso largamente corretti di Tolomeo sulle posizioni dei pianeti e delle stelle non dimostrano affatto la giustezza del geocentrismo. In questo senso occorre anche ridiscutere la tesi epistemologica di Duhem, per la quale la verifica scientifica può comprovare con un certo tasso di probabilità soltanto un largo plesso semantico di concetti che definiscono una teoria e mai un singolo asserto: «non si può collaudare un pezzo singolo – scrive Duhem in La thèorie physique – […]. La scienza fisica è un sistema che deve essere considerato come un tutto, chiuso in se stesso; è un organismo, di cui non si può far funzionare una singola parte, senza far agire anche tutte le altre, anche le più lontane». Nella visione olista e gestaltica di
105 106
216
D. Sciama, La Relatività Generale, cit. p. 83. M. Born, La sintesi einsteiniana, cit. p. 420.
Duhem, visibilmente, tout se tient ma, per quanto ciò possa essere vero in taluni casi, e anche se certamente Duhem molto contribuì al superamento di una visione ingenua e riduzionista del verificazionismo, la tesi per cui “o tutto o nulla” non è generalizzabile perché non è sempre vero che la verifica con tasso più o meno alto di probabilità comprova in blocco il tutto teorico o lo smentisce del tutto: in molti casi una verifica può invece comprovare con alta probabilità proprio un elemento o pochi elementi del plesso teorico globale ma non tutto il sistema concettuale nel suo complesso. Nella fattispecie la misura einsteiniana della deflessione della luce comprova da una parte l’insufficienza di taluni parametri newtoniani e dall’altra la miglior adeguatezza al calcolo delle equazioni einsteiniane, ma non comprova la giustezza in tutto e per tutto della teoria generale della relatività con tutti i suoi postulati, le sue assunzioni e i suoi corollari sullo spazio, la massa, la luce, la gravitazione. L’interpretazione relativistica del perielio di Mercurio Veniamo ora al perielio di Mercurio107. Si tratta di un caso particolare – e particolarmente eclatante – del fenomeno anticamente conosciuto come “precessione degli equinozi”. Per gli antichi, la precessione degli equinozi consisteva in un impercettibile spostamento dell’Axis mundi che comportava un lento movimento delle “stelle fisse” (ovvero delle costellazioni dello Zodiaco) e un parallelo lento movimento del Sole, con conseguente avanzamento di moto retrogrado che in 25.800 anni produceva un giro completo, ovvero una completa rivoluzione della sfera del cosmo e dello Zodiaco tutto. Per quanto riguarda il moto apparente del Sole lungo la propria orbita o Sentiero dell’eclitti107 N.T. Roseveare, Mercury’s Perihelion from Le Verrier to Einstein, Oxford 1982, Clarendon Press.
217
ca, i due punti equinoziali (di intersezione dell’eclittica con l’equatore celeste) e i due punti solstiziali (estremi del percorso ascendente e discendente) dell’orbita non rimangono fissi bensì anno per anno lentamente arretrano di un grado ogni 72 anni con conseguente variazione nell’inizio delle stagioni. Noi oggi, dopo la rivoluzione copernicana, sappiamo che il fenomeno della precessione è dovuto al lento movimento conico dell’asse terrestre (con inclinazione attuale di 23°) e dei pianeti tutti, che nel giro di vari millenni comporta una lentissima rotazione dell’orbita del pianeta su se stessa fino alla sua completa inversione; parimenti sappiamo che l’inclinazione crescente dell’asse dei pianeti, con conseguente rotazione dell’orbita, è anche dovuta alla perturbazione gravitazionale esercitata dagli altri pianeti (problema dei tre corpi108). Circa invece Mercurio, stante l’inclinazione dell’asse l’orbita ellittica del pianeta avanza e ruota lentissimamente nei secoli attorno al Sole: essa avanza impercettibilmente di anno in anno il proprio perielio pur mantenendolo alla stessa distanza dal Sole, cosicché se un anno Mercurio giunge al perielio nel punto P allora dopo 88 giorni (il tempo di una rivoluzione) esso giungerà in perielio più in avanti nel punto P1; e questo avanzamento progressivo del perielio, stimabile in 574 secondi d’arco per secolo, fa sì che l’orbita ellittica di Mercurio ruoti molto lentamente circolarmente su se stessa, formando attorno al Sole un moto a rosetta come i petali di una rosa, fino a un rovesciamento e a un giro completo dell’orbita in tre milioni di anni. L’anomalia consiste proprio in quello scarto di 574 secondi, molto superiore a quello degli altri pianeti (infatti si calcolano 8.63 secondi d’arco per Venere, 3.84 per la Terra, 1.35 per Marte, 0.06 per Giove con valori sempre più decrescenti e sempre meno
108 Rimando a M. de Paoli, Le orbite imperfette e il problema dei tre corpi, in Theoria Motus, cit. pp. 83-122. V. anche R. Marcolongo, Il problema dei tre corpi, Milano 1919, Hoepli.
218
Fig. 1 Avanzamento del perielio di Mercurio
rilevabili per i pianeti più esterni). Newton disse: il Sole causa l’orbita ellittica di Mercurio, e gli altri pianeti ne causano la precessione del perielio. Ma il calcolo della perturbazione degli altri pianeti giunse a spiegare 532 dei 574 secondi di avanzamento del perielio per secolo: 277 sarebbero dovuti al vicino Venere, 153 dovuti al massiccio Giove, 90 alla non lontana Terra, 12 a Marte e agli altri pianeti più lontani. Restavano però inesplicati i restanti 42 secondi di eccedenza, e quindi appariva chiaramente che il moto del perielio di Mercurio non può essere completamente spiegato in base all’influenza degli altri pianeti (non rientra cioè nel problema dei tre corpi). Fra le varie teorie in passato proposte per spiegare l’anomalia, si pensò a una perturbazione causata da un anello di asteroidi e financo da un pianeta sconosciuto cui venne dato il nome di Vulcano: ma né l’uno né l’altro vennero trovati. In precedenza si era anche pensato che bastasse una lieve modificazione dei coefficienti newtoniani per rendere conto con migliore approssimazio219
ne delle discrepanze del perielio, dicendo con Laplace che in realtà la legge newtoniana della gravitazione inversamente proporzionale al quadrato della distanza è «estremamente vicina alla realtà» ma non assolutamente esatta. Del resto non vi sarebbe nulla di strano nel dire che una legge scientifica proceda con un certo grado di approssimazione: anche quando si dice che la formula della molecola dell’acqua è H2O si procede per idealizzazione, in quanto in realtà nell’acqua la quantità di idrogeno non è esattamente doppia rispetto all’ossigeno (essendo un po’ meno: 1,97). Così in passato per un certo periodo scienziati come Eulero, Clairaut, d’Alembert, Laplace dissero che, supponendo che l’attrazione non decresca esattamente e assolutamente col quadrato perfetto della distanza e che la distanza rispetto a cui decresce l’attrazione vada elevata non alla potenza 2 bensì alla potenza 2,00000016, si potrebbe rendere conto con buona approssimazione delle traiettorie in avanzamento al perielio senza fuoriuscire dalla fisica classica, e nel XIX secolo l’astronomo S. Newcombe propose una simile lievissima modifica del coefficiente newtoniano. Ancora oggi Ghosh (su cui torneremo) spiega alcuni fenomeni celesti – sulle orme di Eulero e di Laplace – modificando la legge newtoniana per le grandi distanze, e noi stessi abbiamo rilevato in precedenza come potrebbe essere possibile eliminare la “interazione forte” modificando per le distanze atomiche la legge dell’inverso del quadrato. Anche M. Milgrom propone una Modified Newtonian Dynamics (una dinamica newtoniana modificata), ovvero una modificazione della legge newtoniana dell’inverso del quadrato (ma anche della stessa gravitazione einsteiniana) per rendere conto delle eccessive velocità delle stelle e delle galassie periferiche. Tuttavia, per quanto riguarda il problema del perielio di Mercurio, si è da più parti rilevato che nel caso specifico qualunque modifica nei coefficienti newtoniani in realtà peggiorava anziché migliorare l’accordo con i dati sperimentali cosicché una semplice soluzione del problema del perielio attraverso questa via venne scartata. Einstein fece un primo tentativo per risolvere il problema nel 220
1913 con Michele Besso109 e, stante l’errato calcolo della massa del Sole, ne risultò addirittura un valore di 1821 secondi (oltre 30 minuti) ampiamente errato per eccesso. Allora essi rifecero i calcoli usando la teoria matematica Einstein-Grossmann e inserendo il valore corretto della massa, ma questa volta risultò una misura troppo piccola di 18 secondi d’arco per secolo. Un altro tentativo venne fatto indipendentemente nel 1916 da J. Droste che, riferendosi alla teoria di Einstein, ricavò nuovamente per la variazione del perielio di Mercurio il dato scorretto di 18 secondi d’arco. Infine, con le sue equazioni volte a correlare massa gravitazionale e curvatura dello spazio, Einstein (nell’articolo sulla relatività generale del 1916) riuscì a dedurre lo scarto pur senza annullarlo: risultarono ad Einstein 43 secondi per secolo anziché 42110. La cosa venne considerata una conferma della teoria della relatività generale e della sua ipotesi dell’esistenza di uno spazio “curvo” e tanto più “curvato” nei pressi di una massa gravitazionale come una stella. Si disse così che il rovesciamento circolare dell’orbita di Mercurio attorno al Sole in tre milioni di anni e in pari tempo la sua eccedenza al perielio di 42 secondi per secolo era dovuta non ad asteroidi né a un pianeta sconosciuto bensì, stante la massima vicinanza di Mercurio al Sole, ad una accentuata “curvatura dello spazio” in prossimità del Sole che modifica lievemente e lentamente ma continuamente la traiettoria del pianeta fino al suo rovesciamento parimenti causandone in perielio la lenta “precipitazione” geodetica come in una sorta di imbuto. Ma è proprio così? Einstein, è vero, si è avvicinato più di Newton al valore esatto dell’avanzamento del perielio di Mercurio, ma questa deduzione del valore del perielio di Mercurio – come già la misura
109 Cfr. A. Einstein – M. Besso, Manuscript on the Motion of the Perihelion of Mercury, 1913, in Collected Papers, cit. IV, p. 360 sgg. Il manoscritto, di 56 pagine, fu ritrovato in Europa nel 1955. 110 A. Einstein, I fondamenti della teoria della relatività generale, 1916, in Opere scelte, tr. cit. p. 343.
221
della deflessione della luce – basta a dimostrare la verità dell’intera teoria della relatività generale o piuttosto dimostra soltanto un calcolo più preciso di altri? Einstein giunge con le proprie equazioni del campo ad ottenere un valore piuttosto preciso del grado di curvatura K: ma resta a vedere se tale grado di curvatura, inteso da Einstein come un grado di “curvatura dello spazio” su cui si immette l’orbita di Mercurio, non possa invece intendersi come un grado di curvatura dell’orbita del pianeta, proprio come in precedenza il preteso quantificatore della “curvatura dello spazio” ci è più plausibilmente apparso come il quantificatore del grado di curvatura o deflessione della luce. Dunque per quanto riguarda l’avanzamento del perielio di Mercurio non ci sentiremmo di dire che le verifiche ai calcoli depongano in modo così dogmatico e certo in favore in favore della cosiddetta “curvatura relativistica dello spazio”, come si dice nei testi usuali e correnti di teoria della relatività ove si continua imperterriti a parlare in linguaggio baconiano di prove certe e risolutive; né comprendiamo perché mai si insista tanto sul calcolo del perielio di Mercurio quale prova della teoria della relatività mentre invece sempre si sorvola sulla mancanza in Einstein di un calcolo adeguato del moto del perielio di Marte e del moto del nodo di Venere che per parallelo dovrebbe essere inteso come un falsificatore della relatività generale. Un’ipotesi alternativa: moto del Sole e perielio Al riguardo a noi sembrano possibili altre letture della fenomenologia in questione, senza chiamare in causa quale spiegazione l’inverosimile “spazio curvo”: a chi infatti obietti che la legge newtoniana dell’attrazione direttamente proporzionale alla massa e inversamente proporzionale al quadrato della distanza non spieghi adeguatamente l’eccedenza dei 42 secondi di Mercurio, si risponderà che non per ciò è necessario abbandonare la legge classica in favore della teoria einsteiniana della gravitazione, visto che comunque nemmeno essa perviene a una risultanza in tutto esatta. Per formulare il problema nei termini della fisica classica non v’è nemme222
no bisogno di una modificazione più o meno plausibile dei coefficienti newtoniani, in quanto sembra sufficiente l’adeguata considerazione di vari elementi finora sottaciuti inerenti il moto e la conformazione della massa solare nei pressi di Mercurio. Entrando in medias res circa il problema del perielio di Mercurio, una cosa infatti colpisce: sembra strano cioè che si siano spiegati 532 dei 574 secondi di scarto secolare del perielio di Mercurio con l’influsso di tutti i corpi celesti del sistema solare senza considerare il Sole che è il più massivo, il più importante e il più vicino a Mercurio. Si è pensato cioè che il Sole determini l’orbita ellittica di Mercurio ma nulla possa sulla variazione del suo perielio e sulla rotazione di quell’orbita. Ma se l’orbita di Mercurio in prossimità del Sole evidenzia perturbazioni di tal genere, allora alla fin fine probabilmente il problema consiste anzitutto nel fatto che in prossimità del Sole il campo gravitazionale è evidentemente più intenso di quanto riteneva Newton (che infatti sottostimava anche il grado di deflessione della luce in prossimità della massa solare), e inoltre certamente assai meno omogeneo. Se a grandi distanze l’influsso gravitazionale del Sole su un pianeta può anche essere equiparato all’influsso di una sorgente puntiforme omogenea (come si fa nell’idealizzazione corrente del problema dei tre corpi ridotti per convenzione a masse puntiformi), è invece evidente che alle piccole distanze (quale quella Sole-Mercurio) entri in gioco un numero di variabili che – altrove ininfluenti e trascurabili – possono modificare in profondo il campo gravitazionale. A nostro avviso il merito di Einstein nell’affrontare il problema del perielio di Mercurio fu proprio nell’aver posto l’importanza del Sole al riguardo, sebbene ciò egli abbia fatto nei termini della sua particolare teoria gravitazionale (che presume lo spazio incurvato dal Sole) da cui invece noi vorremmo prescindere. Con ogni probabilità infatti il Sole non determina soltanto l’orbita ellittica di Mercurio, ma in certa misura contribuisce anche (con i pianeti) a determinarne l’avanzamento del perielio. A questo proposito, circa l’influsso gravitazionale del Sole sulla rotazione dell’orbita del vicinissimo Mercurio, iniziamo con una 223
domanda più generale: perché l’orbita di un pianeta attorno al Sole – parliamo naturalmente di un’orbita ideale con due corpi, senza considerare le alterazioni e le complicazioni dovute agli interventi di n corpi – è un’ellisse (o un poligono di infiniti lati per composizione vettoriale delle forze inscritto nell’ellisse: cfr. Newton, Principia, Libro I Teorema I e II) con il Sole in uno dei fuochi e non un cerchio con il Sole al centro? Ovvero: perché un pianeta ruotando attorno al Sole non ne è equidistante in tutti i punti (= cerchio) bensì ora più lontano ora più vicino (afelio/perielio = ellisse)? Perché le orbite dei pianeti, anziché disegnare un cerchio come si è creduto per millenni e come ancora credeva Galileo, disegnano invece quella sorta di cerchio allungato chiamato ellisse e che secondo Newton è in realtà un poligono inscritto nell’ellisse? Tentando una risposta diciamo: potrebbe essere l’“effetto di trascinamento” dovuto al moto del Sole (240 Km/sec) attorno al centro galattico che periodicamente “lascia indietro” i pianeti nell’afelio avvicinandoli in perielio, ciò che fa sì che le orbite non siano dei cerchi bensì delle ellissi. Insomma: Gianni (Mercurio) ruota a cerchio attorno a Andrea (Sole) che sta fermo, ma se nel frattempo Andrea si muove in avanti allora Gianni continuando a ruotare attorno a Andrea disegnerà un’ellisse. La cosa infatti che più colpisce non è solo che l’orbita sia un’ellisse quanto il fatto che il Sole non ne sia il centro bensì ne occupi uno dei fuochi. Cosicché si può dire: il Sole spostato nel fuoco è precisamente il Sole in moto che si è allontanato dal centro naturale dell’orbita dei pianeti. È lo stesso motivo per cui un grave in caduta, se non fosse spostato in avanti di alcuni millimetri dalla rotazione dell’aria, resterebbe lievemente indietro (seppur non tanto quanto paventassero i tolemaici nel rifiutare come assurdo il moto terrestre) nel toccare il suolo della Terra che nel frattempo si è spostata in avanti. Al riguardo dunque non dovremmo nemmeno dire che un pianeta in perielio si avvicini al Sole, bensì piuttosto che il Sole in perielio si avvicini al pianeta. Naturalmente questa spiegazione (come peraltro il rilevamento del clinamen nella caduta dei gravi e alcune risultanze del moto mareale su cui ci siamo a lungo soffermati in Theoria Motus) è incompatibile con il princi224
pio relativistico per il quale il moto di un sistema non determini conseguenze rilevabili all’interno del sistema stesso. Ora, compreso perché – in base al moto di rivoluzione solare attorno al centro galattico – l’orbita dei pianeti in generale e di Mercurio in particolare sia ellittica, sorge appunto il nostro problema riguardante l’avanzamento del perielio e la rotazione circolare dell’orbita ellittica. Perché dunque l’orbita ellittica di Mercurio ruota circolarmente attorno al proprio asse fino al capovolgimento? Per spiegare ciò noi non chiameremo in causa uno spazio “curvo” che come un otto volante rovescia i passeggeri a testa in giù. Consideriamo invece che l’influsso gravitazionale della rotazione assiale diurna del vicinissimo Sole possa determinare la millenaria rotazione dell’orbita di Mercurio. Al riguardo scrive Born: «la forza esercitata su di un corpo da una massa elevata dovrebbe variare d’intensità secondo che quest’ultima sia a riposo o in rotazione. In base a quest’ipotesi il moto dei pianeti del nostro sistema planetario dovrebbe essere perturbato per effetto della rotazione del Sole attorno al suo asse […]. Tale perturbazione darebbe nuovamente origine a un moto del perielio. […] Lo stesso avviene anche nel caso dei satelliti dei pianeti»111. Tuttavia Born, dicendo (come peraltro già intravisto da J. Lense e H. Thirring nel 1918) che potrebbe esistere un moto del perielio dei pianeti dovuto alla rotazione solare e un moto del perielio lunare dovuto alla rotazione terrestre, aggiunge (come Lense e Thirring) che l’entità di un simile effetto e per i pianeti e per la Luna può essere previsto teoricamente e calcolato ma non misurato per la sua piccolezza. Da questo rilievo, visto che invece l’effetto di rotazione del perielio di Mercurio è massimo e non insignificante, Born deduce la sterilità dell’«ipotesi» dell’influsso della rotazione assiale di un corpo celeste su un proprio satellite, e conclude giustificando il fatto che «studiando il moto di un corpo attorno a un altro abbiamo sempre trascurato finora il moto di quest’ul111
M. Born, La sintesi einsteiniana, cit. p. 408.
225
timo»112. Viceversa noi pensiamo non solo che tale moto non sia da trascurarsi e che quest’ipotesi sia assolutamente ragionevole, ma anche che l’effetto risultante debba proprio essere non minimo ma rilevante e pienamente osservabile almeno per un pianeta molto vicino al Sole e più sottoposto al suo campo gravitazionale come Mercurio, i cui 42 secondi di scarto nel perielio sembrano proprio dovuti alla rotazione solare. Infatti, secondo quanto scrisse Einstein in una lettera a Mach, la rotazione di un corpo celeste genera una “corrente gravitazionale” (frame-dragging) ovvero un effetto di trascinamento capace di provocare rotazioni in altri corpi vicini: con la rotazione di un corpo celeste ruota anche, per effetto di trascinamento, tutto il mezzo circostante, tutto quanto cade nel campo gravitazionale di quel corpo, o meglio è lo stesso campo gravitazionale a ruotare un po’ come quando ruotando il cucchiaio nel minestrone ruota tutto il minestrone. Se certo oggi non possiamo più pensare (come Keplero) che la rotazione assiale del Sole determini una forza e una spinta centrifuga che causi l’orbita dei pianeti, nemmeno però possiamo sottovalutare in tutto gli effetti di tale rotazione. In effetti sappiamo che la rotazione assiale di un corpo celeste provoca determinate conseguenze gravitazionali su un satellite: ad esempio la rotazione della Terra influenza le correnti atmosferiche deviandole secondo la rotazione in un senso nell’emisfero settentrionale e nel senso opposto in quello meridionale (forza di Coriolis); inoltre la rotazione della Terra contribuisce potentemente per forza centrifuga a staccare, separare e allontanare i fondali oceanici e le placche sotterranee così causando la deriva dei continenti; infine il rallentamento della rotazione terrestre di circa due millesimi di secondo per secolo, provocata dalle maree a loro volta causate dall’influsso gavitazionale luni-solare sulla Terra, determina un allargamento dell’orbita lunare con un’impercettibile spinta in avanti e un progressivo allontanamento della Luna dalla Terra di tre centi112
226
Ivi p. 409.
metri l’anno per il quale essa sfuggirà un giorno al campo gravitazionale terrestre. Parimenti, nel 1976 e nel 1998 furono rilevate minuscole eccentricità nelle orbite di satelliti artificiali terrestri; e nell’aprile 2004 la Nasa ha lanciato in orbita un satellite al fine di misurare con la massima precisione il grado di rotazione, determinata dalla rotazione con la Terra di tutto il campo gravitazionale terrestre, dell’asse di quattro giroscopi in dotazione del satellite. Così, per quanto riguarda il Sole, la sua deformazione geometrica con schiacciamento ai poli e rigonfiamento equatoriale, dovuta alla rotazione assiale differenziata (25 giorni all’equatore e 27 alle alte latitudini), determinando un’intensità variabile del campo gravitazionale, che ad esempio è più forte ai poli in quanto essi a causa dello schiacciamento solare sono più vicini al centro della stella che è il punto di massima densità gravitazionale, può in effetti modificare l’orbita di Mercurio. Al riguardo R. Dicke, misurando nel 1966 la deformazione geometrica del Sole rilevò livelli di distorsione cento volte superiori a quanto ritenuto dalla teoria solare corrente: se questi dati sono esatti (e non dovuti a variazioni di luminosità solare fra regioni polari e equatoriali) allora diventa impossibile sottostimare, come faceva Born, l’impatto della rotazione solare e della conseguente deformazione geometrica del Sole sull’orbita del suo più vicino pianeta. Così la rotazione assiale del Sole determina un campo di trazione, un “effetto di trascinamento” centrifugo dell’orbita del pianeta, incurvandola lentamente nel verso della rotazione (non dimentichiamo del resto che il “vento solare” ha la capacità di determinare il moto della coda delle comete in senso opposto alla direzione della cometa). Tutte queste variazioni gravitazionali del Sole (soprattutto ma non solo dovute alla sua rotazione) potrebbero causare un ulteriore spostamento dell’asse di Mercurio rispetto a quello determinato dagli altri pianeti, sia per le variazioni di densità gravitazionale alla superficie solare sia per l’effetto di trascinamento della rotazione, in tal modo co-determinando la lenta rotazione dell’orbita di Mercurio. Dicendo meglio l’“effetto di trascinamento”: Gianni (= Mercurio) ruota a cerchio attorno a Andrea (= Sole) cui è legato da una corda tesa (= attrazione 227
gravitazionale), e se Andrea si muove in avanti allora trascinerà con sé Gianni che ruotando attorno a Andrea disegnerà non più un cerchio bensì un’ellisse; ora, se Andrea muovendosi in avanti ruota al contempo circolarmente su se stesso, allora Gianni (vincolato ad Andrea tramite la corda) non solo ruoterà a ellisse attorno a Andrea bensì anche l’ellisse ruoterà circolarmente su se stessa fino a fare un giro completo. La differenza è che Mercurio, non essendo unito al Sole da un’asta rigida, solo molto lentamente e inerzialmente ne seguirà la rotazione ruotando la propria orbita. Si comprende così perché tale avanzamento del perielio e rotazione dell’orbita sia molto più accentuata nel caso di Mercurio che non negli altri pianeti: praticamente ininfluenti sugli altri più lontani pianeti, tali effetti sarebbero invece massimi su Mercurio così prossimo al Sole. Se la rotazione assiale solare co-determina gravitazionalmente la rotazione dell’orbita dei pianeti, allora naturalmente tale influsso sarà massimo su Mercurio che, essendo il pianeta più vicino al Sole, ruoterà circolarmente la propria orbita in tre milioni di anni mentre per gli altri pianeti più lontani con orbita più grande l’effetto sarà molto più piccolo e il periodo molto più lungo. A tutto ciò vorremmo aggiungere l’azione dei campi magnetici solari che, provocando sul Sole le “macchie” osservate da Galileo ovvero zone più oscure della superficie solare in cui la temperatura è più bassa secondo un ciclo di undici anni, dovrebbero determinare variazioni di intensità del campo gravitazionale con ulteriori conseguenze: così Sokoloff nel 1926 suppose che i pianeti in vicinanza del Sole risentano del suo campo magnetico, e del resto Lorentz aveva cercato di spiegare il perielio di Mercurio attraverso una teoria elettromagnetica della gravità. Sembra così di capire perché l’orbita dei pianeti ruoti lentamente su se stessa fino ad effettuare un giro completo e un rovesciamento: in particolare, sembra possibile spiegare la rotazione dell’orbita di Mercurio senza ricorrere alla corrente spiegazione relativistica, evitando il concetto – semanticamente ambiguo e poco comprensibile – di “spazio curvo”. Del resto il fenomeno della rotazione, con tutte le sue conseguenze, sembra veramente generale nell’universo 228
e (come si è visto) connesso ai campi magnetici: come ruotava su se stessa la nebulosa primordiale e la nube di gas e polveri da cui ebbe origine il sistema solare, così probabilmente ancora oggi il sistema solare con tutti i suoi componenti ruota su se stesso come peraltro tutti i sistemi solari della Via Lattea. A sua volta poi naturalmente il discorso potrebbe ampliarsi per il Sole, in quanto è del tutto verosimile che in un tempo lunghissimo anche l’orbita solare attorno al centro galattico si capovolga infine circolarmente su se stessa, seguendo la rotazione assiale della galassia (la Via Lattea) cui il Sole appartiene: che infatti le galassie ruotino su se stesse è mostrato anche dalla loro stessa morfologia, e se nell’universo esistesse un solo corpo celeste esso probabilmente (nonostante la detta opinione contraria di Mach che in tal caso lo vorrebbe immobile) ruoterebbe su se stesso per via dei campi magnetici anche in assenza di qualsiasi induzione cinematica per attrazione gravitazionale. Del resto, se le galassie non ruotassero su se stesse non potrebbero nemmeno esistere perché solo la forza centrifuga prodotta dalla rotazione assiale può controbilanciare la forza centripeta prodotta dall’attrazione gravitazionale impedendo il ricompattamento. Tuttavia, sebbene il fenomeno rotatorio assiale appaia ovunque nell’universo, non parleremmo (come Gödel113) di un moto rotatorio assiale dell’universo intero bensì di rotazioni differenziali di galassie, sistemi solari e stelle con le loro derive o trascinamenti gravitazionali.
113 K. Gödel, An example of a new type of cosmological solutions of Einstein’s field equations of gravitation, 1949 e Rotating universes in general relativity theory, 1952, in Collected Works, 1986 e 1990, 2 voll., tr. it. Un esempio di un nuovo tipo di soluzioni cosmologiche delle equazioni di campo gravitazionale di Einstein e Universi rotanti nella teoria della relatività generale, in Opere, Torino 1999 e 2002, Bollati Boringhieri, II vol., rispettivamente pp. 195-203 e 213-221. Sembra tuttavia possibile rilevare gli effetti gravitazionali delle masse rotanti nell’universo a prescindere dai modelli relativistici di universo rotante di Gödel.
229
XI La gravitazione e il “rallentamento del tempo” La teoria della relatività ristretta, se pur non identifica lo spazio e il tempo come in una espressione di Minkowski nella celebre conferenza Space and time del 1908 (ove però Minkowski designava il tempo, moltiplicato per la velocità della luce c e per l’unità immaginaria i, con il segno + e lo spazio con il segno –), comunque li congiunge strettamente in quanto un evento viene definito non solo nello spazio dalle tre coordinate x, y, z, ma anche nel tempo attraverso la coordinata t. Al riguardo abbiamo già discusso l’autentico significato del fenomeno connesso all’accelerazione e alla velocità, impropriamente definito “rallentamento del tempo”. Ora Einstein, passando alla relatività generale, vede anche nell’azione di un campo gravitazionale la produzione dello stesso fenomeno. Siccome infatti nella teoria della relatività generale un campo gravitazionale ha il potere di “curvare lo spazio”, allora per Einstein avrà anche il potere, a tutta prima non meno misterioso, di “rallentare il tempo”: si parla così di “curvatura gravitazionale dello spazio-tempo”. Cosicché, a costo di ripeterci in parte, dobbiamo esaminare il cosiddetto “rallentamento del tempo” come dovuto non alla forza di accelerazione e alla velocità bensì al campo gravitazionale. In particolare, nell’elaborare la teoria della relatività generale, Einstein disse anzitutto (come si è visto) che un campo gravitazionale agisce sulla luce modificandola: esso devía e rallenta la luce, abbreviandone la frequenza e allungandone l’onda e con ciò producendo allo spettrometro uno spostamento delle righe spettrali verso il rosso. Così la velocità della luce, supposta costante nella relatività ristretta, non lo è più nella relatività generale: la velocità di c viene detta da Einstein costante in un ideale vuoto assoluto, ma mai in presenza di masse gravitazionali. Parimenti secondo Einstein un campo gravitazionale, come rallenta la luce e la sua frequenza, così altera qualsiasi altra frequenza, qualsiasi ritmo di frequenza abbreviandolo. Egli dice che un campo gravitazionale, come la velocità esaminata nella relatività ristretta, rallenta i periodi di frequenza di 230
231
tutte le onde in prossimità “stirandone” la lunghezza: un ritmo di frequenza è abbreviato sia sottoposto a una forza di accelerazione e dunque a una velocità (relatività ristretta), sia sottoposto a una forza gravitazionale (relatività generale). Questo vuol dire che gli atomi in prossimità del campo vibrano più lentamente. Il ritmo con cui si svolge qualunque fenomeno fisico, a partire dalle vibrazioni di un atomo, viene tanto più rallentato dalla presenza di un campo gravitazionale quanto maggiore è il valore della gravità: agendo sulle frequenze periodiche, la gravità e l’accelerazione rallentano il ritmo di qualsiasi orologio naturale. Questo vale anche per uno strumento meccanico come un orologio artificiale, che funziona misurando una scansione periodica: in tal modo Einstein afferma che un orologio rallenta se sottoposto all’azione di una massa o campo gravitazionale, e al contrario accelera quanto più ne è lontano. Di conseguenza un campo gravitazionale, come una grande velocità, producono il fenomeno interpretato come il rallentamento dello scorrere di un orologio. Così un orologio, idealmente posto sul Sole ove il campo gravitazionale è enormemente superiore a quello terrestre, rallenterebbe un poco: l’esperimento è indubbiamente un po’ difficile da fare, ma secondo i calcoli di Einstein l’orologio solare rimarrebbe indietro rispetto a quello terrestre di due milionesimi di secondo per secondo, dunque di un secondo ogni sei giorni e di un minuto all’anno. Invece un orologio idealmente posto su una stella di neutroni, secondo i calcoli, andrebbe più lento di circa il 10%. Parimenti in base alla teoria einsteiniana della gravitazione diventa possibile ridiscutere il paradosso dei gemelli appunto introducendovi la considerazione dell’effetto dei campi gravitazionali. In tal modo il paradosso può essere riformulato dicendo: A a terra vede modificata la frequenza dell’orologio di B rispetto al suo, vede cioè l’orologio di B “rallentato” (secondo la dicitura che abbiamo già definito impropria); ma considerando anche l’effetto gravitazionale che parimenti rallenta le frequenze dobbiamo ora dire che A vede sì l’orologio di B “rallentato” rispetto al suo per effetto della velocità, ma anche lo vede “accelerato” in quanto libero dal campo gravitazionale terrestre che 232
rallenta le frequenze; invece B sull’astronave percepirà l’orologio di A non solo anch’esso “rallentato” rispetto al suo per via della velocità in quanto per lui la Terra si allontana, ma vieppiù “rallentato” in quanto l’orologio di A è oltretutto immerso nel campo gravitazionale terrestre da cui invece B è libero. Di conseguenza A dovrebbe leggere l’orologio di B meno rallentato di quanto non fosse nella prima formulazione del paradosso, mentre B dovrebbe leggere un maggiore ritardo nell’orologio di A. Le verifiche al ragionamento puramente teorico di Einstein furono molteplici: naturalmente non si potevano mettere orologi sul Sole o su una stella di neutroni o su un’astronave alla velocità della luce, ma risultò indubbiamente che sulla Terra un orologio scorre più lentamente a valle, ove è più intenso il campo gravitazionale, e più velocemente in cima a una montagna ove tale campo è meno intenso; più lentamente alla base della Tour Eiffel e più velocemente alla sua sommità. Naturalmente gli effetti di dilatazione dei periodi sono impercettibili, ma reali e rilevabili da un orologio atomico. Così nel 1960 alcuni ricercatori rilevarono che un orologio atomico in una città del Colorado posta a 1100 metri sopra il livello del mare guadagna circa quindici nanosecondi al giorno (1 nanosecondo = un miliardesimo di secondo) rispetto a un analogo orologio posto a Washington che si trova al livello del mare: l’orologio di Washington procede più lentamente perché rallentato dal più forte campo gravitazionale terrestre. Parimenti un orologio atomico posto sulla cima del Plateau Rosa batte 30 nanosecondi in più dello stesso orologio collocato a valle e più soggetto alla gravità, e nello spazio esterno all’atmosfera scorrerà ancora più rapidamente. Infine (l’esperimento è stato compiuto dagli astronauti) un orologio atomico posto sulla Luna, ove il campo gravitazionale è un sesto di quello terrestre, accelera lievemente rispetto all’orologio terrestre. Si appurò così che orologi diversi, soggetti a campi gravitazionali diversi, misurano diversamente lo scorrere del tempo. Con queste predizioni e verifiche la teoria della relatività generale ripropose in nuovi termini (in termini gravitazionali) la teoria già propria della relatività ristretta del “rallentamento del tempo”, 233
deducendone che più il campo gravitazionale è intenso e più la velocità è elevata più il tempo rallenta, mentre più è debole la gravitazione e meno elevata la velocità più il tempo accelera: di conseguenza, e nuovamente, il tempo non sarebbe un qualcosa di assoluto come pensava Newton, bensì un parametro che scorre con ritmi diversi per ciascun osservatore a seconda della velocità a cui si muove e a seconda dell’intensità del campo gravitazionale in cui è immerso. I ritmi, le frequenze e il tempo Senonché, se le verifiche al riguardo sono molteplici, si tratta ancora una volta di comprendere il significato profondo della fenomenologia osservata. Già abbiamo visto che nel caso di un’accelerazione l’orologio non rallenta realmente in sé a causa della velocità ma semplicemente misura con gli stessi battiti distanze molto più grandi, cosicché viene misurato come rallentato da un osservatore esterno il cui orologio con gli stessi battiti misura distanze molto più brevi. Ora diremo invece che nel caso dell’azione gravitazionale un orologio posto in un campo gravitazionale appare rallentato o meglio in ritardo anzitutto rispetto all’orologio di un osservatore esterno posto in un campo gravitazionale più debole; e a sua volta l’osservatore posto sul campo gravitazionale più potente potrebbe altrettanto plausibilmente dire non che il suo orologio abbia rallentato bensì che l’orologio dell’osservatore esterno abbia accelerato e vada più veloce e che invece il suo continua al proprio ritmo normale. Se un astronauta potesse parlarci da una stella di neutroni ad altissimo campo gravitazionale, le sue parole e i suoi movimenti ci sembrerebbero di circa il 25% più lenti del normale (così come il suo orologio ci apparirebbe rallentato mentre l’incurvamento della luce in prossimità della stella potrebbe raggiungere i venti gradi e sarebbe tale da distorcere la visione ad un osservatore esterno): ma in realtà l’astronauta parlerebbe e si muoverebbe – o almeno si sentirebbe parlare e si sentirebbe muovere – a una velocità del tutto 234
normale e semmai saranno i nostri messaggi e gesti a sembrargli stranamente convulsi e accelerati, come decisamente accelerato gli risulterebbe il nostro orologio. Parimenti non è affatto corretto dire che il tempo si arresterebbe e si annullerebbe in prossimità di un buco nero: poiché infatti il buco nero tiene intrappolata la luce non lasciandola uscire, allora un osservatore posto in un buco nero non potrebbe ovviamente inviare un segnale luminoso indicante l’ora ad un osservatore lontano, ma questo vuol dire solo che il segnale non giunge e non che il tempo si sia fermato. Dunque, seppur sia reale il rallentamento delle frequenze con l’intensificarsi del campo gravitazionale, è anche vero che il tempo trascorso fra due vibrazioni o fra due segnali luminosi successivi in un campo gravitazionale appare più lungo principalmente e anzitutto in quanto osservato e misurato a grande distanza: il rallentamento gravitazionale degli orologi in sé preso non può nemmeno dirsi un fenomeno in tutto e per tutto reale, come non lo era il suo rallentamento a causa di una accelerazione, proprio in quanto va sempre considerato anche l’effetto della rilevazione e della misurazione a distanza. In realtà, se dovessimo dire cosa avvenga realmente in presenza di un forte campo gravitazionale, potremmo perfino dire che in certi casi esso, lungi dal rallentare le frequenze, in realtà le acceleri: infatti Newton, formulando nei Principia (Libro I Sezione X e II Sezione VI) le leggi del moto dei pendoli, previde che i tempi di oscillazione del pendolo rallentano e ritardano non in prossimità di un intenso campo gravitazionale, bensì al contrario con il crescere della distanza dal centro della Terra ovvero dal punto della massima densità gravitazionale terrestre. Dunque (e questo Einstein sapeva bene nei suoi articoli del 1905) i pendoli sono più lenti non dove è maggiore bensì dove è minore la gravità, come venne comprovato fin dal XVIII secolo con due spedizioni in Lapponia e all’equatore ove si verificò che i pendoli in Lapponia, più prossimi all’appiattimento ai poli e dunque più vicini al denso centro gravitazionale terrestre, sono più veloci mentre più lenti sono i pendoli posti sul rigonfiamento equatoriale là ove la distanza dal centro gravitazionale è massima; e parimenti un pendolo posto vicino a 235
terra in prossimità del campo gravitazionale oscilla non più lentamente ma più velocemente di un altro posto a grande altezza che invece rallenta. Ne consegue così che gli effetti previsti da Einstein (sia in sede di relatività ristretta sia in sede di relatività generale) possono essere verificati con un orologio a bilanciere o meglio ancora (come si fa oggi) con un orologio atomico ma non con un orologio a pendolo, che Einstein escluse espressamente fin dagli articoli del 1905 da ogni considerazione in quanto incapaci di verificare la sua teoria. Al riguardo scrive Kostro che di per sé gli orologi a pendolo non smentiscono la teoria della relatività114, ma a noi tuttavia sembra che essi quantomeno ne smentiscano l’universalità. Certo, come già risultava agli esperimenti di Foucault, la velocità e la direzione dei movimenti del pendolo sono connessi alla rotazione terrestre (di cui anzi forniscono la prova), ma non sembra che questo spieghi tutto: infatti se i pendoli sono più veloci ai poli dove la rotazione è più lenta, e sono più lenti all’equatore dove al contrario essa è più veloce, questo significa probabilmente che il fenomeno non è addebitabile in prima istanza alla rotazione terrestre; infatti il pendolo posto vicino a terra in prossimità del campo gravitazionale oscilla più velocemente di quello posto nella stessa località ma a grande altezza, cosicché qui – essendo i due pendoli nella stessa località e non uno ai poli e l’altro all’equatore – non sembra essere in gioco la rotazione terrestre (anche la diversa velocità di rotazione dell’atmosfera appare sostanzialmente ininfluente). Dunque l’orologio a pendolo appare veramente una mancata conferma, se non una vera e propria falsificazione, delle previsioni relativistiche: del resto in linea generale appare vero che la gravitazione determini un’accelerazione e non un rallentamento in un corpo gravitazionalmente attratto, come dimostra un pianeta in perielio e la stessa accelerazione dei gravi in caduta. In realtà la scansione di un orologio può essere condizionata da molti fattori, ad esempio la
114 L. Kostro, Gli orologi della teoria relativistica, in AA.VV., La natura del tempo, cit. p. 183.
236
temperatura, senza bisogno di chiamare in causa la gravitazione: basta lasciare 24 ore un orologio nel freezer di un frigorifero per constatare che esso segnerà le ore con vari minuti di sfasamento rispetto ad un altro orologio ad esso precedentemente sincronizzato, senza che con ciò si debba pensare che il tempo all’interno del freezer scorra diversamente che all’esterno. Certo rimane il fatto che, lasciando da parte i pendoli e i freezer, un orologio atomico indubbiamente rallenta in un campo gravitazionale a conferma almeno parziale della teoria della relatività. Al riguardo noi non intendiamo dire che il rallentamento gravitazionale degli orologi sia solo una questione di rilevazione asincronica a distanza, pur se anche essa vada considerata: così un orologio su una stella di neutroni apparirebbe rallentato del 10% ad un osservatore esterno, ma questo non vuol dire che il campo gravitazionale della stella di neutroni non determini un reale rallentamento della frequenza dell’orologio; parimenti su un buco nero la frequenza dei battiti delle lancette dell’orologio sarebbe veramente praticamente arrestata dal potente campo gravitazionale. Inoltre il rallentamento degli orologi è stato verificato non in questi casi impossibili bensì, come si è detto, fra la base e la sommità di una montagna senza l’interposizione di alcuna apprezzabile distanza passibile di distorsioni nella lettura delle frequenze. Senonché, ancora una volta, si tratta qui di giungere ad una interpretazione non falsante ed erronea della fenomenologia osservata. Il punto è infatti che un rallentamento delle frequenze di un orologio ad opera di un campo gravitazionale (proprio come si è già detto per il rallentamento ad opera della velocità nella teoria della relatività ristretta) non significa un reale rallentamento del tempo. Analogamente, l’arresto totale delle frequenze dell’orologio in un buco nero ad altissima densità gravitazionale non equivale minimamente ad un arresto del tempo: bloccando le frequenze dell’orologio e dunque fermando l’orologio il buco nero non ha affatto bloccato e fermato il tempo così consegnandosi all’eternità immobile, tanto è vero che esso potrà dipanare una sua storia temporale, magari inghiottendo nuova materia da una stella vicina o magari emettendo radiazioni come suppone Hawking. 237
In realtà l’orologio atomico non fa altro che registrare la frequenza d’onda della luce con cui è sincronizzato: e quando registra una perdita di frequenza rallenta di conseguenza i suoi battiti. Così più un campo gravitazionale è forte più un orologio atomico sembra rallentare i suoi battiti, o meglio: aumenta la lunghezza fra un battito e l’altro. Ma tutto ciò non ha nulla a che fare con il tempo e non significa affatto che il tempo abbia rallentato: piuttosto ha rallentato una scansione periodica (la frequenza dell’onda) che noi abbiamo usato convenzionalmente per registrare il tempo. Noi non possiamo identificare il tempo con le vibrazioni degli atomi o le variazioni di frequenza della luce. Se un intervallo è interrotto da un minor numero di scansioni periodiche, se si rileva una diminuzione di frequenza e un aumento di lunghezza, questo mutamento di frequenza non è un mutamento del tempo e non significa che il tempo ha rallentato. Nemmeno di per sé significa che lo spazio è aumentato: incongrua è quindi (come si vedrà) la deduzione relativistica circa lo “spazio curvo” in espansione, pretestuosamente dedotta da un semplice allungamento delle onde provenienti da sorgenti galattiche con conseguente spostamento verso il rosso alla rilevazione. Così la gravità rallenta anche la luce deviandola, e di conseguenza la luce impiegherà più tempo per portare le immagini: ma questo è un rallentamento della luce e non un rallentamento del tempo. È qui in questione la velocità, non il tempo. Parimenti in seguito ad un’accelerazione può risultare rallentato l’orologio che misura il tempo, ma non il tempo. In realtà una diminuzione di frequenza d’onda e un aumento di lunghezza, lungi dal significare che il tempo ha rallentato, significano solo che ha rallentato la frequenza di cui noi possiamo avvalerci per misurare il tempo: ma una variazione di frequenza in un fenomeno periodico non è una variazione del tempo bensì soltanto una variazione degli indici scelti come parametri di misurazione del tempo. È essenziale non confondere il tempo con le misure (queste sì, relative) del tempo: l’orologio non è il tempo bensì soltanto uno strumento di misurazione del tempo. Così se un orologio atomico procede più lentamente alla base di una montagna o di un grattacielo che non alla sua cima o nello spa238
zio più libero dal campo gravitazionale, questo non autorizza affatto a dire che «il tempo scorre più veloce nello spazio esterno di quanto faccia sulla superficie terrestre»115 e che, sulla superficie terrestre, il tempo scorre «più lentamente alla base e più velocemente in alto»116: dobbiamo piuttosto dire che «gli atomi posti al livello del mare appaiono eseguire movimenti più lenti del consueto». Semplicemente il campo gravitazionale agisce più sull’orologio a valle rallentandone lo scorrere che non sull’orologio in montagna o nello spazio, allo stesso modo in cui – esperimenti di Pascal al Puy de Dome – l’aria (stante la maggior gravità e il peso dell’aria soprastante) pesa di più a valle che non in cima alla montagna. Come il peso dell’aria non è lo stesso a valle o in montagna, e l’aria pesa di più a valle e meno in montagna, così più in alto si va più gli orologi, sempre più liberi dal campo gravitazionale, accelereranno le loro scansioni periodiche: ma saranno gli orologi a procedere più velocemente, non il tempo. Dunque la gravità agisce sulla massa, sulla luce, sulle frequenze e lunghezze d’onda, sugli orologi anche: ma non agisce sul tempo. Una massa gravitazionale rallenta gli orologi ma non il tempo: più precisamente, rallenta determinate frequenze periodiche corrispondenti a determinate vibrazioni e pulsazioni atomiche, che avvengono nel tempo e che noi usiamo per misurare il tempo. Dunque un conto è il tempo, un altro gli orologi: un conto è il tempo, un altro sono determinati ritmi e frequenze attraverso cui noi misuriamo il tempo. La forza di gravità agisce sugli orologi e sono gli orologi e non il tempo a scorrere più o meno velocemente: che gli orologi rallentino o accelerino non è ancora cosa che riguarda il tempo. Non vi è nulla di strano nel fatto che un campo gravitazionale, come può attirare un satellite o determinare fenomeni mareali, possa modificare la frequenza e il ritmo di un orologio, ma ciò non equivale a modificare il tempo. Così un campo magnetico, scompagi-
115 116
T. Regge, Cronache dell’universo, Torino 1981, Boringhieri, p. 25. Ivi p. 29. 239
nando l’altimetro su un aereoplano o la bussola su una nave, altera gli strumenti di misurazione ma non altera minimamente l’altezza dell’aereo, la posizione del nord e del sud, le coordinate spaziotemporali, e parimenti dire che il tempo si ferma con il fermarsi dell’orologio equivarrebbe a dire che spezzando la cartina dell’Africa io spezzo l’Africa. La relatività e il tempo biologico La modificazione gravitazionale di una frequenza e di una lunghezza d’onda non costituisce dunque una modificazione del tempo. Poiché però si suole connettere la modificazione gravitazionale del ritmo degli orologi con una parallela modificazione dei ritmi biologici che l’orologio si limiterebbe a marcare, allora è necessario discutere (come già si è fatto in merito alle cosiddette discrepanze d’età fra l’astronauta e il suo gemello) il problema in questo versante. Esemplificando: poiché l’orologio di una segretaria che lavora al primo piano di un grattacielo scorre più lentamente, fosse pur solo di un nanosecondo, dell’orologio della sua collega che lavora all’ultimo piano, allora questo vuol dire che la segretaria del primo piano invecchia più lentamente – e sia pur impercettibilmente – della sua collega? Certo come il campo gravitazionale rallenta l’orologio, così rallenta tutti i bioritmi come ad esempio il ritmo del cervello registrato all’elettroencefalogramma, il ritmo cardiaco, il battito del polso, il ritmo del respiro nonché tutti i ritmi degli atomi di cui siamo fatti. Ma anche ammettendo questo, siamo autorizzati a dire che il rallentamento dei bioritmi e dei ritmi tutti significhi un allungamento della vita, cosicché la donna al pianoterra invecchi di qualche nanosecondo in meno della donna ai piani alti? In realtà no: quando i battiti del cuore accelerano o rallentano, sono i battiti del cuore che accelerano o rallentano ma non il tempo. Se io dormo, il cuore rallenta i suoi battiti rispetto a quando corro: ma non per ciò il tempo rallenta quando dormo e accelera quando corro. Se una persona soffre di tachicardia, il suo cuore batte rapido: ma se chi 240
soffre di tachicardia invecchia prima del tempo, questo è per gli effetti negativi della disfunzione e non certamente perché il tempo per lui si è messo a correre. Al riguardo il biologo S.J. Gould ha scritto pagine interessanti sul rapporto fra i ritmi vitali e il tempo biologico117. Egli osserva che la frequenza cardiaca è in genere inversamente proporzionale alle dimensioni dell’animale: il cuore di un animale grande pompa il sangue più lentamente del cuore di un animale più piccolo, cosicché in un essere vivente piccolo il battito cardiaco è più veloce e nel suo organismo il sangue scorre più velocemente. Aggiungendo noi alcuni dati al riguardo (reperibili in un qualsiasi manuale di fisiologia animale al capitolo sulla circolazione), notiamo: il battito cardiaco del feto umano è tre volte più rapido che nell’adulto, mentre il cuore di una balena batte con il ritmo più lento fra gli animali a sangue caldo; la frequenza cardiaca negli uccelli può raggiungere i 1000 battiti al minuto, in un coniglio è di circa 350 battiti al minuto, in un cane diventa 100 battiti al minuto, nell’uomo 70, nell’elefante 35. Parimenti – dice Gould – anche il ritmo di frequenza del respiro è più lento in un essere vivente più grande e più veloce in uno piccolo. Di conseguenza «i piccoli animali vivono la vita ad una velocità che è molto superiore a quella degli animali più grandi» e quindi «gli animali più piccoli hanno in genere vita media molto più corta di quella degli animali più grandi»118: così il topolino e lo scoiattolo vivono un anno o due, anche se vi sono eccezioni alla regola come la longeva tartaruga (che può vivere anche ben oltre i cent’anni) o la salamandra pezzata (che vive vent’anni). Sembrerebbe quindi di avere una riprova del legame intrinseco fra tempo e ritmi di frequenza, così da rendere lecita la trasposizione in termini biologici del “rallentamento” relativistico del tempo, senonché lo stesso Gould precisa opportunamente che in realtà ogni animale rispetta con regolarità
S. J. Gould, The Panda’s Thumb, 1980, tr. it. Il pollice del panda. Riflessioni sulla storia naturale, Milano 2001, Il Saggiatore, pp. 281-287. 118 Ivi p. 283. 117
241
matematica uno stesso ritmo e un medesimo rapporto nella durata del ciclo vitale. Ogni essere vivente (e si potrebbe dire ogni particella) dispone di un orologio biologico, i cui battiti e le cui frequenze ne decidono il tempo di vita (salvo ovviamente le contingenze): questi battiti e queste frequenze, e il loro rapporto relativo, rimangono costanti anche se i battiti e le frequenze sono suscettibili di rallentamento o di accelerazione. Infatti per tutti gli animali vi è un preciso rapporto fra la frequenza respiratoria e la frequenza cardiaca e questo rapporto è di uno a quattro: quindi «qualsiasi mammifero, indipendentemente dalle dimensioni del suo corpo, respira una volta ogni quattro battiti cardiaci. I mammiferi più piccoli hanno una respirazione ed un battito cardiaco più veloci dei grandi, ma entrambe queste funzioni rallentano secondo lo stesso rapporto [0,28] man mano che si sale lungo la scala delle dimensioni corporee»119. Inoltre «anche la durata media della vita sta nello stesso rapporto rispetto al peso corporeo (0,28). Questo vuol dire che il rapporto tra frequenza respiratoria, frequenza cardiaca e durata della vita rimane costante per tutti i mammiferi, indipendentemente dalle dimensioni fisiche raggiunte»: «tutti i mammiferi, indifferentemente dalle dimensioni, tendono a respirare per 200 milioni di volte durante il corso della loro vita (i loro cuori, di conseguenza, battono 800 milioni di volte). I piccoli mammiferi respirano velocemente, ma vivono per un breve periodo. Se utilizziamo l’orologio interno costituito dal ritmo della respirazione e dal ritmo cardiaco, scopriremo che tutti i mammiferi hanno la stessa durata di vita»120. In virtù quindi di questo rapporto matematico «i grandi animali sono essenzialmente simili ai piccoli, la durata della loro vita è proporzionata ai loro ritmi vitali, tutti vivono all’incirca per la stessa quantità di tempo biologico. I piccoli mammiferi muoiono presto, ma vivono ad un ritmo accelerato e bruciano rapidamente; i grandi mammiferi vivono a lungo, ma lentamente. Se si prende in considerazione il loro orologio biologico,
mammiferi di dimensioni diverse tendono tutti a vivere la stessa quantità di tempo»121: «tutti i mammiferi vivono all’incirca per lo stesso tempo biologico quasi con esattezza matematica»122. Quindi, se un animale cade in letargo per metà dell’anno, il suo battito cardiaco e il ritmo della sua respirazione scendono al minimo ma non perciò l’animale vivrà realmente il doppio di un altro animale di una specie simile che non cade in letargo: al più quest’ultima raggiungerà prima il numero prestabilito di battiti e di respiri che delimita la sua vita. Così chi ha un cane bassotto saprà che la sua aspettativa di vita media sarà di circa 17 anni: ma saprà anche che un anno di un bassotto equivale ad almeno cinque anni dei nostri, e che in realtà la vita di un bassotto non è affatto breve in rapporto a quella umana; parimenti, se l’effimera, dopo un lungo periodo larvale, vive per un sol giorno la sua vita di adulto, possiamo dire che per la minuscola effimera quel tempo, che sarebbe brevissimo per noi, è in realtà la sua normale vita. Gould dice che in realtà la nostra inveterata abitudine a ragionare in termini di tempo assoluto ci impedisce di capire la relazione fra le frequenze biologiche cardiaco-respiratorie e le durate relative delle vite123, ma a noi sembra piuttosto il contrario: proprio una pregiudiziale relativistica può farci pensare a diversi cicli biologici temporali relativi, mentre una considerazione in termini di tempo unico ci fa capire che in realtà il tempo di vita media dei mammiferi è in media sostanzialmente lo stesso nonostante le durate relative apparentemente differenti. Dunque, l’estensione del principio di relatività all’ambito biologico si rivela fallace: una variazione del tempo di un ritmo o di un movimento, lo scorrere più o meno rapido di certi eventi o scansioni non equivalgono a una variazione del tempo e non ne costituiscono né un’accelerazione né un rallentamento. Ad esempio sulla Luna per via della minor gravità (per cui su di essa peserebbe 12
Ivi p. 284 Ivi p. 285. 123 Ivi p. 284. 121
Ivi p. 286. 120 Ibidem. 119
242
122
243
chili un uomo che sulla Terra ne peserebbe 70, su Mercurio 26, su Venere 57, su Giove 178, sul Sole 1890), un grave cade più lentamente al suolo che non sulla Terra: ma anche se all’astronauta osservatore sulla Luna sembrerà di vedere un film al rallentatore, in realtà sarebbe superficiale dedurne che sulla Luna il tempo scorra più lentamente, proprio come sarebbe incongruo dire che il tempo sulla Terra rallenti quando cade una piuma e acceleri quando cade un blocco di piombo. Proprio come al cinema, una sequenza può essere rallentata o accelerata: ma questo rallentamento, questa accelerazione, avvengono esse stesse entro un tempo che non possiamo non definire assoluto. L’accelerazione o il rallentamento di un moto – sia il moto di un grave sia la frequenza di un’onda sia il ritmo di un orologio – non costituiscono un’accelerazione o un rallentamento del tempo. In modo sostanzialmente corretto dunque scriveva Newton nei Principia (Definizione VIII, Scholium, IV): «Tutti i movimenti possono essere accelerati o ritardati, ma il flusso del tempo assoluto non può essere mutato. Identica è la durata o la persistenza delle cose, sia che i moti vengano accelerati sia che vengano ritardati sia che vengano annullati».
XII Riflessioni sul tempo La riduzione del tempo al movimento Gli uomini – compresi i più grandi pensatori – tendono a confondere il tempo con il movimento e la velocità, dunque in ultima analisi (valide alcune riflessioni di Bergson al riguardo) con ciò che ha attinenza con lo spazio. Platone definisce il tempo «immagine mobile dell’eternità» (ei’ kw kinetÒn tina a „w˜noj: Timeo 37d); Aristotele lo definisce misura o «numero del movimento secondo il prima e il poi» (¢riqmo`jkin »sewjkat a` to` prÒteronka ˆ u“steron: Physica IV.219 b1), peraltro con evidente circolarità tautologica visto che il “prima” (il prÒteron) e il “poi” (l’u“ steron) già presuppongono una nozione di temporalità. Invece Leibniz connette il tempo non allo spazio bensì all’asse della successione e, intendendolo come un «ordine ideale delle successioni», lo ricollega, daccapo, a una ritmicità periodica. Questo è comprensibile, in quanto a noi necessita un punto di repere – rinvenuto nello spazio, nel movimento, nella successione, nella periodicità – onde misurare il tempo. Così il movimento periodico di rotazione assiale della Terra nello spazio ci serve per definire il giorno, e il movimento di rivoluzione terrestre attorno al Sole ci serve per definire l’anno. Ma subentra qui l’obiezione di Agostino nelle Confessiones124 (XI 23.29): se tutto il mondo – i pianeti, la Terra, tutto – fosse fermo, e si muovesse solo la ruota del vasaio, forse che il tempo non esisterebbe più? Agostino risponde: certo, il tempo sussisterebbe ancora. Il tempo continua ad essere sia che la Terra o Marte faccia un giro su se stessa nelle 24 ore, sia che ne faccia cento, sia che non ne faccia nessuno, perché il tempo è assolutamente indipendente 124 E. Corsini, Lettura del libro XI delle «Confessiones», in AA.VV., «Le Confessioni» di Agostino d’Ippona, Lectio Augustini, Palermo, Ed. Augustinus, 4 voll., vol. IV, 1987, pp. 35-65.
244
245
dal numero di giri che uno stupidissimo pianeta fa girando su se stesso o attorno al Sole. In qual modo mai, ruotando più o meno veloce o addirittura fermandosi, un insignificante corpo del cielo potrebbe agire sul tempo, accelerandolo o rallentandolo o fermandolo? Agostino immagina, in un mondo supposto immobile, in moto solo la ruota del vasaio: certo, noi potremmo allora misurare il tempo attraverso i giri della ruota del vasaio, ma anche qui sicuramente non diremo che se la ruota del vasaio gira più veloce allora il tempo va più in fretta. E anche andando oltre Agostino, noi domandiamo: se nel mondo non vi fosse alcun movimento e tutto – assolutamente tutto: Sole, stelle, pianeti, Terra – fosse fermo, e se dunque fosse ferma anche la ruota del vasaio, forse non vi sarebbe più il tempo? Diciamo invece che anche in questo caso il tempo esisterebbe ugualmente. Il punto è che anche Agostino, che pur ha compiuto una profonda analisi del tempo, continua a pensare che esso sia misura. Solo che egli misura il tempo non più a partire dal cielo, dagli astri, dalle loro rotazioni e rivoluzioni, e nemmeno dal numero di giri della ruota del vasaio: «nessuno mi dica che il tempo è il movimento dei corpi celesti» (nemo ergo mihi dicat caelestium corporum motus esse tempora: XI 23.30). Piuttosto, Agostino misura il tempo a partire dalla psicologia, dalla profondità dell’animo, dal cuore dell’uomo. Nel suo intendimento la misura del tempo non sta più nel tempo cosmico, nel movimento dei corpi celesti: sta nell’anima che misura le «gocce del tempo» (le stillae temporum: XI 2.2) esperendo nella propria interiorità la successione passatopresente-futuro (XI 20.26 e 28.37), ovvero esperendo il futuro o meglio l’attesa che attraverso l’attimo fugace del presente diventa passato (in praeteritum transit: XI 14.17) e dunque memoria: «in te, anima mia, ho misurato il tempo» (in te, anime meus, tempora metior: XI 27.36). Diciamo invece che il tempo, l’implicatissimum aenigma (XI 22.28), esisterebbe anche se non vi fosse l’anima che lo misura. Non solo: la stessa concezione del tempo come una successione di attimi o istanti che si snodano in successione come le perle di una collana, secondo la linea passato-presente-futuro, per quanto in Agostino concepita in interiore homine, quale «estensio246
ne dell’animo» (distentio animi: XI 26.33) già indica una impropria spazializzazione e parcellizzazione del tempo proprio in quanto si concepisce il continuum temporale, la linea del tempo, composta di istanti sulla falsariga della linea spaziale composta di punti. Viceversa, di contro ad Agostino per il quale infine il tempo si esaurisce nel fuggevole istante presente (poiché praeteritum iam non est et futurum nondum est: XI 15.18), a cui si può solo contrapporre l’eterno come salvezza immutabile, in realtà il tempo non conosce istanti: pensare l’istante (si vedano le riflessioni di Bergson al riguardo125) come l’equivalente lungo l’asse temporale di ciò che il punto è nell’asse spaziale significa appunto segmentare e parcellizzare il tempo, spazializzandolo con una costruzione artificiosa e astratta dell’intelletto. L’“istante” è dunque una costruzione dell’intelletto umano mentre il tempo, il tempo reale, non può essere se non una totalità unica e indivisibile. Dunque: se la Terra ruotasse più lentamente, si allungherebbe il giorno o si allungherebbe l’anno ma non si allungherebbe il tempo; e se la Terra si fermasse, non esisterebbe più l’alternanza del giorno e della notte e nemmeno l’alternanza delle stagioni, ma certo non si annullerebbe il tempo. Parimenti: se un campo gravitazionale rallenta le frequenze di un’onda, e se rallenta la scansione di un orologio, certamente non rallenta il tempo. Semplicemente perché il tempo non coincide con i movimenti più o meno veloci e le scansioni periodiche più o meno frequenti che avvengono nello spazio. Noi ci serviamo dello spazio per misurare il tempo. Misuriamo il tempo attraverso un movimento regolare nello spazio, dalla frequenza di un’onda al moto periodico di un pianeta: «non appena noi vogliamo misurare il tempo, subito lo trasformiamo in spazio (nous ne puvons pas le mesurer sans le convertir en espace)», scriveva Bergson126 per il quale il tempo spazializzato non può dirsi pro-
125 126
H. Bergson, Durée et simultaneité, cit. pp. 68-69. Ivi p. 83.
247
priamente “tempo”. Dunque non dobbiamo confondere la misura del tempo con il tempo. Diceva Wittgenstein nelle sue lezioni (lo ricorda Malcom): «se qualcuno domanda che cos’è il tempo, voi domandereste a vostra volta: come misuriamo il tempo? Ma il tempo e la misura sono due cose diverse. [...] Se io vi insegnassi a misurare le lunghezze e poi dicessi: “ora che sapete come si fa, misurate il tempo”, direi una cosa senza senso».127 Da qui, ci sembra, l’equivoco relativistico: siccome gli uomini tendono a confondere il tempo con il movimento e le velocità, e siccome nella realtà esistono vari movimenti e varie velocità attraverso cui misurare il tempo, allora si è giunti a dire che sussistano vari tempi quanti sono i moti e le velocità possibili in base a cui misurarli. Ma in realtà il tempo esiste del tutto a prescindere dai movimenti e dalle velocità, del tutto a prescindere dalle cose che avvengono e si muovono nel tempo. Il tempo non è il movimento dei corpi che sono nel tempo. Gli uomini percepiscono il tempo attraverso il movimento, la successione, le scansioni ma in realtà il tempo nulla ha a che vedere con il movimento, la scansione periodica, la successione, la velocità: altrimenti dovremmo dire che, poiché il periodo di rivoluzione della Terra attorno al Sole misura il nostro anno, allora quando la Terra diminuisce la velocità in afelio aumentandola in perielio ciò significa che il tempo rallenti per metà dell’anno o acceleri per l’altra metà. Il movimento, la scansione periodica, la successione, la velocità, tutte queste cose costituiscono soltanto segni imperfetti, relativi e approssimati di cui noi ci serviamo per misurare il tempo conformemente ai nostri bisogni. Le frequenze regolari e le scansioni ritmiche sono solo una misura soggettiva del tempo: punti di repere interscambiabili e parziali attraverso cui effettuare misure. Necessariamente noi misuriamo il tempo con qualcosa che non è il tempo e che non dobbiamo confondere con il tempo. Io posso scandire il tempo con tutto ciò che voglio: 127 N. Malcom, Ludwig Wittgenstein. A memoir, 1958, tr. it. Ludwig Wittgenstein, Milano 1964, Bompiani, p. 69.
248
il mio battito cardiaco, la frequenza del mio respiro, il battito dell’orologio, il tempo di batteria del CD che sto ascoltando, il ritmo di discesa della sabbia nella clessidra, i giri della lavatrice, la frequenza di emissione di un atomo ovvero la frequenza di vibrazione di un’onda, i giri della Terra attorno al Sole o attorno a se stessa, la riapparizione periodica di Marte in cielo. Purché non pretenda che tutte queste cose siano il tempo. Purché non pretenda di accelerare il tempo accelerando il giradischi da 33 a 78 giri: proprio perché una scansione periodica qualsivoglia non è il tempo, accelerarla o ritardarla non vorrà mai dire accelerare o ritardare il tempo. La riduzione del tempo allo spazio e i viaggi nel tempo L’equivoco del “tempo spazializzato”, ravvisabile in tutta la scienza moderna a partire da Galileo, diventa evidente quando si giunge a parlare, già con d’Alembert, del tempo come di una “quarta dimensione”. Se infatti le prime tre dimensioni ci danno coordinate prettamente spaziali – lunghezza, altezza, larghezza – allora nulla naturalmente vieta di specificare un evento dato nello spazio collocandolo anche nel tempo: basta aggiungere alle coordinate x, y, z una quarta coordinata t. In ciò non v’è affatto, come si suol credere parlando di “quarta dimensione”, un ampliamento dell’immaginazione oltre i limiti dell’ordinario bensì semmai un suo restringimento proprio entro i limiti dell’ordinario e dell’empiria. Prendiamo un metro e misuriamo lunghezza, altezza, larghezza di un comò... e del tempo: così dico non solo che ho misurato il comò, ma anche in che giorno mese anno l’ho misurato. Parlando in modo un po’ meno semplice, possiamo dire: la coordinata t ci dice in quale tempo l’evento dalle coordinate spaziali x, y, z viene colto dall’uno o dall’altro osservatore (di cui l’uno in quiete rispetto all’altro in moto) tenendo conto del tempo impiegato dalla luce per consegnare l’immagine dell’evento a questo o quell’osservatore. Qui la connessione fra spazio e tempo – ovvero la procedura della fisica per cui il tempo risulta un dato rapporto fra spazio e velocità – appare evidente, perché un secondo tempo249
rale diventa la distanza spaziale percorsa dalla luce in un secondo mentre un metro è il tempo che impiega la luce a percorrere un metro (= 3,3 miliardesimi di secondo), cosicché noi possiamo misurare il tempo t moltiplicando i secondi s per la velocità della luce c assunta come velocità campione: in tal modo, avendone ct, noi misuriamo il tempo in centimetri o in metri proprio come facciamo con le altre tre coordinate spaziali, e solo l’unità immaginaria i (donde ict) ci ricorda la natura particolare dell’operazione. Tutto questo va benissimo per quanto riguarda le operazioni proprie della fisica, ma non dovremmo dimenticare che si tratta solo di procedure operative: come scrive Gamow, «non dobbiamo dimenticare che tutto ciò è stato possibile solo con l’ausilio dell’“unità immaginaria”, un accorgimento un po’ sleale, e che all’atto pratico, se dobbiamo mettere le carte in tavola e discutere di valori reali, lo spazio e il tempo non sono proprio la stessa cosa»128. Noi possiamo considerare il tempo come un rapporto fra spazio e velocità onde determinare gli eventi tramite il calcolo, ma in sé il tempo non è né uno spazio né una velocità né il loro rapporto matematico. In realtà fare del tempo una “quarta dimensione” in aggiunta alla lunghezza, all’altezza e alla larghezza, significa misconoscerne la peculiarità. Dire che c’è la lunghezza, l’altezza, la larghezza... e poi il tempo, significa proprio ridurre il tempo a misure spaziali. Si potrebbe dire che solo l’uomo a una dimensione può ridurre così il tempo. Infatti un tempo considerato come “quarta dimensione” non è altro che un tempo spazializzato: ma in realtà il tempo non è una dimensione come la lunghezza, l’altezza e la larghezza. In questo senso l’equivoco appare particolarmente visibile nella teoria della relatività: ove si ritiene che il tempo sia intrinsecamente connesso allo spazio, ove si postula un intrinseco legame e perfino una sorta di identità fra spazio e tempo, che non convinceva nemmeno Eddington, e si torna a parlare (Minkowski) della
128 G. Gamow, Biography of Physics, 1961, tr. it. Biografia della fisica, Milano 1963, Mondadori, p. 192.
250
“quarta dimensione” poi formulata come modificazione dei ritmi temporali in rapporto alla quantità di masse gravitazionali date nello spazio, in un concetto di cui crediamo di aver mostrato l’equivocità. Ben si capisce allora che non soltanto autori di fantascienza e divulgatori di vario genere, bensì anche fisici e matematici di indiscutibile valore possano parlare – in base all’assunto del tempo spazializzato come quarta dimensione – di particelle che tornano indietro nel tempo (Feynman) e financo di “viaggi nel tempo” (Gödel). Sì, è vero: alcune equazioni della relatività generale di Einstein – coerentemente svolte – prevedono in linea teorica la possibilità di viaggi nel tempo, sia nel passato che nel futuro, in un universo totalmente deterministico in cui tutto è già prefissato. Ma allora, anziché affrettarsi giubilanti a propagandare possibili viaggi nel tempo (magari spacciando come argomenti seri le sciocchezze che ventilano la possibilità di attraversare un buco nero uscendo in un altro luogo e in un altro tempo), i fisici dovrebbero ricordarsi di essere fisici e cominciare seriamente a pensare se nelle equazioni di Einstein e nelle teorie relativistiche non vi sia qualcosa che non va: viceversa per l’“imperialismo algebrico” se un’equazione matematica conduce a prevedere nella realtà un assurdo, è automatico che non possa essere l’equazione ad essere in difetto bensì semmai la realtà ad essere assurda. Ma non è sufficiente, come nei diagrammi di Feynman, rappresentare una freccia in senso opposto per mostrare con ciò un positrone che torni indietro nel tempo; non è sufficiente, in un’equazione che descriva il moto di una particella, sostituire t con – t perché la particella ripercorra realmente a ritroso il tempo t. Anche un pendolo, oscillando, torna indietro ma questo non significa che vada a ritroso nel tempo. La famosa “macchina del tempo”, immaginata da H.G. Wells (nel suo The Time Machine del 1895 che in realtà è un romanzo di critica sociale), in cui sarebbe possibile “tornare indietro” nel tempo, come se il mondo fosse la pellicola di un film che almeno in linea di principio potrebbe essere riavvolta all’indietro, si fonda proprio su questo presupposto: in effetti, se il tempo è come lo spazio, nulla vieterebbe di andare avanti e indietro nel tempo proprio come nello spazio. Invece caratteristica precipua del tempo sembra proprio l’unicità, la non ripetibilità, ovvero l’irreversibilità. 251
Certo può ben dirsi che presente e passato, se non proprio il futuro, siano nel presente in certo modo dispiegati dinanzi ai nostri occhi, dispiegati in una simultaneità spaziale e in parte raggiungibili con l’esplorazione proprio come le più remote parti dello spazio. Infatti quando noi guardiamo al telescopio una stella lontana la vediamo come essa era milioni o miliardi di anni fa, ovvero la vediamo ora come era allora, in quanto la luce è partita da quella stella milioni o miliardi di anni fa ed ha impiegato appunto milioni o miliardi di anni per giungere a noi: oggi quella stella potrebbe essere esplosa, potrebbe non esserci più. Dunque quando noi osserviamo al telescopio una galassia lontana, di fatto usiamo una macchina del tempo: viaggiamo all’indietro nel tempo, e vediamo ora ciò che era allora. Il telescopio è a tutti gli effetti una macchina per guardare nel passato: dunque il passato non è affatto scomparso, è ancora là, si potrebbe dire da sempre e per sempre. In questo senso la luce che veicola indefinitamente l’immagine di un evento nel tempo e il telescopio che ci mostra ora com’era una stella miliardi di anni fa sembrano convergere e confermare per altra via la radicale (e paradossale) posizione metafisica neoeleatica e megarica del filosofo italiano E. Severino il quale, in nome del principio di identità e non contraddizione secondo cui A è A e non può mai diventare B, sostiene l’impossibilità del passaggio fra essere e nulla (fra A e B reciprocamente opposti), respinge come «follia dell’Occidente» il nichilismo consistente nella falsa credenza secondo la quale gli enti siano nulla in quanto proverrebbero dal nulla e al nulla tornerebbero e, affermando l’inesistenza del divenire (appunto stante l’impossibilità del passaggio fra A e B), perviene alla tesi – non priva di richiami all’universo quadridimensionale di Einstein e a Gödel – secondo la quale gli enti tutti e tutte le cose sono eterne129. Scrive infatti Severino, peraltro con indubbia bellezza letteraria: «ritorniamo indietro di millenni e le cose – per esempio queste voci che vengono su dalla stra129 E. Severino, La struttura originaria, Milano 1981, Adelphi (I ed. 1958) e Essenza del nichilismo, Brescia 1972, Paideia.
252
da – sono lì già da sempre, con la pioggia che questa sera le circonda e la lampada che illumina la stanza. Andiamo avanti per millenni, ed esse sono lì per sempre, così come ora appaiono, nella loro interezza»130. E ancora: «la legna disposta nel camino, che attende di essere accesa, continua ad apparire – cioè continua ad essere e ad apparire (ossia questo suo essere continua ad apparire) – anche quando appare il fuoco che la brucia e anche quando appare la sua cenere: continua ad apparire nella sua piena, totale, concreta, effettiva realtà, e non come semplice essenza ideale, semplice “ricordo” nella mente del mortale»131. Senonché Severino può dire questo perché egli (come peraltro tutta la tradizione occidentale) ha preventivamente spazializzato il tempo come in una sorta di successione di immagini cinematografiche. Nella realtà la legna che arde diventa cenere e non è più legna, mentre invece in una successione discreta di immagini di tipo cinematografico noi abbiamo prima la sequenza della legna, poi la sequenza della legna che arde con la fiamma e infine la sequenza della legna con la cenere. Severino infatti ha espressamente detto che nel processo della legna che arde bisogna vedere la successione di tre eventi connessi L1-L2-L3 che sono rispettivamente la legna nel camino, la legna che arde e la cenere132. In effetti in una serie di tipo cinematografico nessuna di queste sequenze va mai persa, tutte sono conservate: ciascuna sequenza sopraggiunge in aggiunta all’altra, senza annullarla ma solo superandola e facendola retrocedere sullo sfondo, col che quindi abbiamo una permanenza e una continua crescita di sequenze. In questo modo, in una sequen-
E. Severino, La strada, Milano 1983, Rizzoli, p. 91. E. Severino, Destino della necessità, Milano 1980, Adelphi, p. 200. 132 Questo Severino ha scritto nella sua replica ad un mio saggio critico (certamente ancora immaturo perché troppo polemico e ridondante) sul suo pensiero. V. M. de Paoli, La fiamma e la lampada. Riflessioni sul pensiero di E. Severino (in “Paradigmi. Rivista di critica filosofica”, Brindisi 1991, n. 26 pp. 311-341) e la risposta di Severino: La legna e la cenere (n. 28 della rivista, pp. 189-200 in particolare p. 199; il testo in seguito in E. Severino, La legna e la cenere, Milano 2000, Rizzoli). 130 131
253
za cinematografica, quando noi vediamo la sequenza della cenere non dobbiamo pensare che la sequenza precedente della legna che arde sia scomparsa nel nulla perché essa è invece pienamente conservata: la sequenza della cenere si aggiunge alla sequenza della legna che arde ma non la annulla, tanto è vero che noi possiamo arrestare a piacimento l’immagine sull’una o sull’altra sequenza (sulla legna, sulla legna che arde o sulla cenere), e possiamo andare avanti e indietro come e quanto vogliamo con queste sequenze. Severino guarda dunque la realtà con gli occhi incantati di uno spettatore al cinema, ma occorre pur dirlo: al cinema tutte le immagini sono conservate e ciascuna si aggiunge all’altra (la legna, la fiamma, la cenere), ma nella realtà noi vediamo che la legna divorata dalla fiamma è diventata cenere e non è più legna.133 Quello che si conserva (comunque non eternamente) è una immagine, non la realtà viva dell’evento. Quando col telescopio noi guardiamo nel passato di una stella lontana, possiamo dire che questo passato in realtà non è passato ed è ancora là. Ma questo non significa certamente che questo passato sia raggiungibile come se fosse davvero presente da qualche parte: se noi potessimo andare – anche con velocità istantanea e dunque con tempo nullo – su quella stella, noi la troveremmo com’è (o come non è) ora, non com’era allora. Se un alieno distante circa duemila anni luce vedesse in questo momento con un potentissimo telescopio la Terra, la vedrebbe com’era duemila anni fa e, ad esempio, potrebbe assistere alla disfatta di Annibale o all’assassinio di Giulio Cesare alle idi di marzo o alla crocefissione di Gesù: ma non potrebbe interferire in alcun modo con quegli eventi sia perché un qualsiasi suo messaggio inviato ora alla velocità della luce arriverebbe sulla Terra deci-
133 Recentemente Severino ha riesposto la sua tesi affermando che la legna nel suo divenire cenere non diviene un totalmente altro-da-sé (E. Severino, L’identità della follia, Milano 2007, Rizzoli, pp. 219-265), ma in tal modo l’affermazione dell’eternità degli enti si riduce all’affermazione (per alcuni aspetti simile a quella propria dei princìpi di conservazione) di una supposta permanenza dell’ente nelle sue metamorfosi.
254
samente fuori tempo fra duemila anni e ben quattromila anni dopo quegli eventi sia perché, se anche per assurdo egli potesse istantaneamente giungere in questo preciso momento sulla Terra, dovrebbe accontentarsi di assistere non alla disfatta di Annibale o alla crocefissione di Gesù bensì ad un discorso di Bush o del papa. La luce veicola e trasmette un numero illimitato di volte nello spazio e nel tempo l’immagine, l’eidolon, di un corpo; essa è il modo con cui un corpo trasmette e perpetua la propria immagine nel tempo. Ma con ciò la luce ci porta soltanto ora un’immagine di un oggetto com’era allora, proprio come una fotografia di nostro nonno ci dà l’immagine di com’era nostro nonno: ma l’immagine non è la cosa bensì sta per la cosa (stat aliquid pro aliquo, si potrebbe dire), e certamente nessuno penserà di poter tornare nel passato – se non in senso metaforico – vedendo la fotografia del nonno. Anche se un giorno potessimo captare e tradurre in immagini del passato le onde sparse nello spazio, tutt’al più questa macchina del tempo – proprio come il telescopio – farà di noi degli spettatori del passato e non degli attori attivi in grado di intervenire in esso. Altrimenti, se fosse possibile tornare nel passato come attori attivi, potremmo tornare indietro nel tempo e (come recita “il paradosso della nonna”) potremmo far visita alla nostra nonna e convincerla a non sposare nostro nonno, col che però noi non saremmo mai nati e dunque non avremmo mai potuto intraprendere quel viaggio nel tempo: ma questo paradosso non sussiste, o meglio dimostra solo l’impossibilità logica dei Time Travels. Per questo la macchina del tempo è soltanto un elemento fantastico, e per questo non vediamo particelle tornare indietro nel tempo, con buona pace di Feynman. Il passato è immodificabile: secondo alcuni teologi medievali nemmeno Dio potrebbe far sì che ciò che è stato non sia mai stato, e dunque tantomeno lo potrebbe l’uomo. A differenza dello spazio, il tempo non si può percorrere in su e in giù, in avanti e all’indietro, di sotto e di sopra. Lo si percorre una volta: una volta sola, e poi mai più.
255
La riduzione del tempo al divenire Ma gli uomini tendono non soltanto a identificare il tempo con le misure del tempo e con i movimenti periodici e le scansioni nello spazio: questo lo si capisce anche solo tramite la critica bergsoniana al “tempo spazializzato”. Il punto è invece un altro: gli uomini sono naturalmente portati a pensare il tempo come un divenire, un mutamento continuo. L’evidenza della vecchiaia, della morte, il consumarsi inevitabile e il logorarsi e il trapassare di tutte le cose, hanno naturalmente indotto all’identificazione fra il tempo e il divenire. Poeti e filosofi hanno molto ricamato su questo: e fugge questo reo tempo (Foscolo), mirate come ’l tempo vola et sì come la vita fugge (Petrarca), fugit inreparabile tempus (Orazio), panta rei (attribuito a Eraclito). Anche Newton, nei Principia (Definizione VIII, Scholium, I), connette il tempo al divenire, a uno scorrere, a un fluire continuo: per Newton infatti «lo spazio assoluto […] rimane sempre uguale e immobile», mentre invece «il tempo assoluto, vero, matematico, in sé e per sua natura senza relazione con alcunché di esterno, scorre [corsivo mio] uniformemente e con altro nome è chiamato durata [...]». Lo stesso Bergson, che non riconosce se non un valore pragmatico e funzionale al tempo spazializzato della scienza, definisce il tempo come un fluire e uno scorrere continuo, in cui ciascun punto temporale o istante non si associa semplicemente a quello che lo precede ma lo assorbe e lo contiene in sé conservandolo e sviluppandolo, infine vedendo nel tempo l’incessante divenire in cui consiste l’évolution créatrice; né diversa è la visione di Prigogine della irreversibile freccia del tempo come emblema del divenire e dell’evoluzione dell’universo dal passato al futuro. Ma a noi sembra invece si debba piuttosto dire: nella sua natura più propria, il tempo non è un divenire. L’évolution créatrice, come continuo divenire, come fonte e sorgente della realtà, non è il tempo: piuttosto avviene nel tempo, si snoda e si dipana nel tempo. Le cose che avvengono nel tempo nascono, divengono, mutano, cambiano, così come nascono, mutano e muoiono gli uomini che vivono nel tempo e sono abitatori del tempo: ma il tempo non cam256
bia, non muta, non diviene. Esso non fugge affatto bensì sempre eternamente permane, e persiste immobile, identico e inalterabile. Eraclito lo definiva l’Aion: ciò che è sempre, il Sempre Essente. In questo senso il tempo appare – ora sì in più profonda unione con lo spazio – come la permanenza indefinita dell’universo quale è dato nello spazio. Esso non passa affatto: siamo noi e le cose tutte che passiamo attraverso il tempo. Scavando nel tempo, si trova l’atemporale. Così il tempo, pensato più a fondo, sembra richiamare l’aeternitas: l’eterno non appare più contrapposto al tempo, come immutabile àncora di salvezza rispetto al tempo fuggitivo, bensì il tempo stesso assume la configurazione dell’eterno. Il tempo rimanda all’eterno, e si rivela esso stesso eterno. Il vero e solo tempo è l’eterno.
257
XIII Gli invarianti e la conchiglia vuota Relatività e relativismo La critica alla teoria della relatività sembra anzitutto una conseguenza logica della paradossalità della teoria stessa. Tale paradossalità, già evidente nell’assunto che pone l’accelerazione di un corpo come equivalente a un aumento della sua massa, appare essenzialmente nella moltiplicazione ad libitum e ad placitum degli spazi, dei tempi, dei moti, senza che a tale moltiplicazione corrisponda più un substratum unitario quale denominatore comune. Per la teoria della relatività non v’è più uno spazio e un tempo dato, non v’è più un movimento assoluto né una quiete assoluta, non v’è più una simultaneità assoluta fra eventi, così come non v’è più differenza alcuna fra inerzia e gravità. Visto da una prospettiva un sistema è in riposo, visto da un’altra è in movimento; visti da una prospettiva due eventi sono simultanei e visti da un’altra sono in successione: cambiando punto di vista, in uno strano balletto i sistemi sono simultanei e non simultanei, immobili o in moto; la simultaneità diventa successione e la successione simultaneità, la quiete diventa moto e il moto quiete; gli spazi si curvano o si appiattiscono; un corpo in moto procede inerzialmente o in altra prospettiva è attratto gravitazionalmente; le lunghezze si dilatano o si contraggono a seconda dell’osservatore, i tempi accelerano o decelerano; gli astronauti ringiovaniscono o invecchiano a piacere, a seconda del sistema di riferimento considerato. Il relativo e parziale punto di vista di un osservatore, assunto come sistema di riferimento, diventa un dato preminente e l’osservatore di volta in volta considerato diventa il centro del mondo. In una sorta di fenomenismo, esse est percipi cosicché ciò che non appare percepibile viene dichiarato inesistente o inessenziale. In tal modo la teoria della relatività, e con essa ampia parte della scienza novecentesca, sembra confluire in un fenomenismo in cui l’oggetto e la realtà stessa appaiono infine risolti (in un movimento 258
259
che secondo Heidegger caratterizza la scienza moderna a partire da Cartesio) in Vorstellung, in rappresentazione del soggetto per il quale l’immagine del mondo si sostituisce al mondo134. Non a caso Cassirer ha potuto esaltare l’alto coefficiente di astrazione proprio della teoria della relatività come congruente con un idealismo neokantiano135. La teoria della relatività ci dice infatti che dell’universo noi possiamo soltanto avere un’immagine prospettica e relazionale; ci dice che l’universo è, per noi, soltanto un’immagine dell’universo. Per la teoria della relatività si danno solo “tagli”, prospettive, relazioni, punti di riferimento in base a cui si definiscono spazi, tempi e movimenti. Per essa spazi, tempi e movimenti sono dati soltanto a partire da un determinato punto di osservazione ove il soggetto di questa rappresentazione non è più l’osservatore trascendentale kantiano, il soggetto unico e assoluto, bensì la totalità di tutti i reali e possibili osservatori e punti di riferimento. Questo fa sì che per la teoria della relatività lo spazio e il tempo quali “cose in sé”, poiché non percepibili, sono inesistenti. Senonché, dal fatto che la percezione dello spazio, del tempo e del moto sia definita in relazione a un osservatore dato, non ne consegue che spazio, tempo e moto siano relativi. Questo sapeva bene Newton, che non negava affatto in linea di principio l’esistenza di una relatività di spazio, tempo e moto, bensì includeva tale relatività in uno spazio, un tempo e un moto assoluti. Scriveva l’autore dei Principia (Definizione VIII, Scholium, I): «Il tempo assoluto, vero, matematico, in sé e per sua natura senza relazione con alcunché di esterno, scorre uniformemente, e con altro nome è chiamato durata; quello relativo, apparente e volgare, è una misura (esatta o inesatta) sensibile ed esterna della durata per mezzo del moto, che co-
134 M. Heidegger, Die Zeit des Weltbildes, in Holzwege, Frankfurt 1950, Klostermann (tr. it. Sentieri interrotti, Firenze 1968, La Nuova Italia, pp. 71-101): «il tratto fondamentale del mondo moderno è la conquista del mondo risolto in immagine» (p. 99 tr. it.). 135 E. Cassirer, Sulla teoria della relatività di Einstein, cit.
260
munemente viene impiegata al posto del vero tempo [...]». E ancora: «Lo spazio assoluto, per sua natura senza relazione ad alcunché di esterno, rimane uguale e immobile; lo spazio relativo è una dimensione mobile o misura dello spazio assoluto che i nostri sensi definiscono in relazione alla sua posizione rispetto ai corpi, e che comunemente ha preso il posto dello spazio immobile» (Definizione VIII, Scholium, II); «Così invece dei luoghi e dei moti assoluti usiamo i relativi, né ciò riesce scomodo nelle cose umane: ma nella filosofia [naturale] occorre astrarre dai sensi» (Definizione VIII, Scholium, IV). In Newton dunque è netta la distinzione fra spaziotempo-moto assoluto, vero, matematico e spazio-tempo-moto relativo, apparente, comune. Gli spazi, i tempi, i moti comuni sono relativi e cioè, nel senso più letterale, relativi a noi, esistenti per noi ma in realtà in ultima analisi e in certo modo apparenti. Essi non sono se non una misura approssimata di uno spazio, un tempo, un moto assoluti che – pur difficilmente rilevabili – bisogna comunque presupporre come Definizioni precedenti gli stessi Assiomi: «Potrebbe anche darsi – esemplifica Newton continuando nell’ultimo brano citato (Scholium, IV) – che non vi sia alcun corpo in quiete al quale possano venire riferiti sia i luoghi che i moti», ma ciò non toglie che uno spazio assoluto e immobile (come un tempo assoluto) vada comunque posto per definizione, pena il cadere nei paradossi e nell’assurdo. Lo spazio, il tempo, il moto non hanno di per sé alcuna relazione con i nostri sistemi di riferimento: essi non coincidono con le determinazioni fondate sulla struttura fisiologica e percettiva e sulla particolare posizione del soggetto con il suo limitato punto di vista. Spazio, tempo e moto non sono relativi bensì sono relative le nostre percezioni di spazio, tempo e moto – comunque sussistendo talora punti di repere e indizi in base a cui di volta in volta ricavare determinazioni oggettive. In questo senso ogni spazio ed ogni tempo relativo presuppone uno spazio ed un tempo assoluto. È impossibile ridurre lo spazio, il tempo e il moto alle nostre convenzionali misurazioni soggettive. L’esse non è riducibile al percipi. Esiste qualcosa oltre le nostre percezioni che è possibile in qualche modo raggiungere: esse non est percipi. 261
È dunque errato identificare – come si fa solitamente – la concezione classica e newtoniana dello spazio, del tempo e del moto con una concezione troppo vicina all’esperienza comune, mentre invece la visione relativistica della “curvatura” dello spazio-tempo sarebbe assai più astratta e lontana dal modo comune di pensare, perché per certi aspetti (e senza negare ovviamente la complessità delle equazioni einsteiniane) sembra si tratti invece, per quanto riguarda la prospettiva ultima, esattamente del contrario: la visione relativistica, assolutizzando i dati prospettici relazionali degli osservatori multipli e ponendo fra parentesi ciò che da essi fuoriesce, sembra debitrice ad un empirismo fenomenistico (certamente mutuato da Mach se non proprio da Berkeley) assai più vicino che non la concezione newtoniana all’esperienza comune con tutta la sua limitatezza intrinseca. Infatti lo spazio e il tempo assoluti di Newton non appartengono all’uomo se non per accidens bensì, quali sensorium Dei, appaiono piuttosto quali attributi divini. In altri termini Newton pensava lo spazio e il tempo idealmente collocandosi da un punto di vista divino, mentre Einstein li pensava collocandosi dal punto di vista degli uomini. Ma allora andrà detto che, a parte gli obsoleti riferimenti teologici di Newton, resta imprescindibile riferire il nostro limitato mondo percettivo a un qualcosa di più ampio. Ovvero: il tempo e lo spazio possono apparire in infiniti modi diversi a diversi osservatori, ma in realtà si tratterà sempre di un solo tempo e un solo spazio. Certo noi misuriamo essenzialmente solo dati relativi, e non possiamo determinare uno spazio e un tempo assoluto. Ma un che di relativo, per definizione, può soltanto essere posto in relazione a un che di assoluto. Ove ciò che suscita le maggiori perplessità concettuali nella prospettiva relativistica è proprio la rinuncia a presupposti assoluti che, per quanto non misurabili, appaiono però imprescindibili. Imprescindibili comunque: infatti – e per fare solo un esempio – la stessa cosmologia novecentesca, nata da una costola relativistica, cos’altro fa quando (peraltro erroneamente) pretende stabilire l’età dell’universo in 15 miliardi di anni e il raggio della sua pretesa espansione, se non definire uno spazio e un tempo assoluti – dimentichi però dell’immobilità che assegnava 262
loro Newton? Dunque il riferimento a parametri assoluti, cacciato dalla porta, rientra comunque surrettiziamente – e nel modo più erroneo – dalla finestra. L’ammissione preliminare per quanto non misurabile di uno spazio, di un tempo e di una immobilità assoluti sembra dunque veramente imprescindibile. Appare necessario ammettere spazi, tempi e moti relativi, parziali e transeunti quali parti ed elementi ricompresi ed avvolti all’interno di uno spazio e di un tempo assoluti che in assoluta immobilità tutti li comprende e li sottende. Possiamo avere un’infinità di spazi, tempi, moti relativi: ma in realtà vi sarà un solo spazio e un solo tempo, universale e immobile. Sembra dunque doversi dire che in realtà non è la fisica newtoniana ad essere ricompresa all’interno di un più ampio quadro costituito dalla teoria della relatività bensì, contrariamente a quanto solitamente si intende, è invece la fisica newtoniana e classica a costituire la base generale che ricomprenda al proprio interno la teoria della relatività: così lo spazio e il tempo assoluti ricomprendono al proprio interno, proprio secondo quanto già intendeva Newton, gli spazi e i tempi relativi. La relatività e la determinazione dell’oggettività convergente Del resto non mancano nella teoria della relatività prospettive per una concezione non relativistica, se ne evitiamo una lettura superficiale ed impropria per quanto corrente. Sappiamo bene che nella teoria della relatività le leggi fisiche rimangono le stesse, almeno in tutti i sistemi di riferimento inerziali, indipendentemente dalla scelta del sistema di riferimento stesso e indipendentemente da come i fenomeni debbano apparire agli osservatori multipli. Sappiamo anche che la teoria della relatività in realtà pone alcuni valori assoluti: tale è soprattutto il principio della costanza della velocità della luce (la “costante c”), per il quale la velocità della luce nel vuoto – pur assunta aprioristicamente come velocità limite – è una costante assoluta che non varia mai, sempre rimanendo tale per 263
qualunque osservatore la misuri in qualsiasi situazione (di quiete o di moto), ciò che permetterebbe appunto in base a un valore costante di compiere misurazioni oggettive proprio tenendo conto dei tempi di percorrenza del raggio luminoso. Sappiamo inoltre che nella teoria della relatività proprio la comparazione fra misurazioni relative può consentire una determinazione oggettiva: nel senso più proprio infatti la teoria della relatività va intesa non come un relativismo scettico che si appaghi nel mostrare come spazi, tempi, movimenti, lunghezze siano diversi e relativi all’uno o all’altro osservatore, bensì come un mezzo per pervenire – attraverso la consapevolezza delle diverse posizioni relative – a una determinazione oggettiva. Già Lorentz del resto, ponendo un unico sistema di coordinate privilegiato in stato di quiete rispetto all’etere, aveva comunque definito un “sistema di trasformazioni” le cui equazioni permettono di passare da un sistema all’altro ovvero dalla rilevazione di un tempo misurata da un certo osservatore a quella misurata da un altro osservatore in moto rispetto al primo: come tradurre da una lingua all’altra o come eseguire lo stesso “invariante” spartito musicale con diversi “covarianti” quali pianoforte o orchestra di archi. Così nella matematica della teoria della relatività abbiamo un “invariante” quale referente e denominatore comune dei “covarianti”, dipendenti dai diversi sistemi di coordinate ma reciprocamente traducibili, come nel passaggio da una lingua all’altra, in quanto passibili di conservare la stessa forma dopo un cambiamento di coordinate, perché cambiano col cambiare delle coordinate mantenendo però le loro relazioni reciproche secondo leggi di trasformazione date: non a caso Einstein (in una lettera a E. Zschimmer del 30 settembre 1921) scrisse che la teoria della relatività aveva un nome (invero da lui stesso introdotto nella memoria del 1905 ma soprattutto diffuso da Planck) infelice, passibile di equivoci e fraintendimenti, e che per certi aspetti più adeguato sarebbe stato il termine Invarianz-Theorie (mentre altrove nell’epistolario usa il termine Invariantentheorie). Al riguardo Schlick scrive: «l’approccio della teoria della relatività (che, a maggior ragione, dovrebbe chiamarsi teoria dell’assoluto) non attribuisce alla 264
soggettività e all’arbitrio dell’osservatore importanza alcuna, bensì al contrario attribuisce loro un grado più elevato di oggettività di quello insito nelle precedenti specie di rappresentazione»136. Parallelamente, Reichenbach scrive che «il nuovo metodo della teoria delle relatività consiste in ciò: nel fatto che essa, indicando le formule di trasformazione, conferisce alle asserzioni soggettive un senso oggettivo»; infatti «solo indicando le formule di trasformazione eliminiamo l’influsso del sistema di riferimento e solo per tale via perveniamo ad una determinazione del reale»137. E Cassirer: «le misure spaziali e temporali entro ogni singolo sistema restano relative: ma la verità e l’universalità che, nonostante questo, la conoscenza fisica può raggiungere, sta nel corrispondersi a vicenda di tutte queste misure e nel loro reciproco coordinarsi secondo determinate regole»: in questo senso la teoria della relatività «avverte di non prendere per verità nel senso della scienza […] fenomeni che valgono solo a partire da un singolo sistema determinato di riferimento».138 In questo modo può ben dirsi che in realtà la teoria della relatività, correttamente intesa, non neghi l’oggettività: in essa piuttosto l’oggettività reale viene non dissolta ma “rifratta” e moltiplicata in una miriade di osservatori possibili, ideali e reali, in una miriade di “monadi” ciascuna delle quali riflette ed esprime in sé l’universo così rappresentandosi la realtà come necessariamente le deve apparire dal suo limitato e parziale punto di vista, ferma restando però l’“armonia prestabilita” fra le diverse monadi e la possibilità per ciascuna monade all’interno di una medesima realtà di rappresentarsi in linea di principio la rappresentazione di un’altra monade. In questo senso la filosofia di Leibniz, che rapportava la percezione
136 M. Schlick, Grundzüge der Naturphilosophie, 1948 (postumo), tr. it. Lineamenti della filosofia della natura, in M. Schlick, Tra realismo e neopositivismo (raccolta di saggi), Bologna 1974, Il Mulino, p. 262. 137 H. Reichenbach, Relatività e conoscenza a priori, cit. p. 145 e 146. 138 E. Cassirer, Sulla teoria della relatività di Einstein, cit. p. 505, 521.
265
reale delle simultaneità spaziali e delle successioni temporali alle singolarità monadiche, appare nel suo nucleo singolarmente convergente con la teoria della relatività: purché però se ne precisi quell’idea di correlazione monadica atta a salvaguardare la transindividualità del reale. In questo senso va detto che rischiano il fraintendimento i correnti paragoni fra la teoria della relatività e certe manifestazioni dell’arte moderna come ad esempio il cubismo. Certamente Braque poteva dire di amare «la regola che corregge l’emozione» ma quando il cubismo, segnatamente in Picasso, giungerà ad assemblare e confondere insieme in uno stesso volto e in una stessa figura le diverse prospettive – laterali e frontali, dall’alto e dal basso – mischiandole e sovrapponendole, ammassandole e giustapponendole caoticamente, così pervenendo a una deformazione grottesca e persino orrida dell’immagine, certamente esprimerà qualcosa come ad esempio un vitalismo orgiastico non disgiunto dall’orrore della sessualità (Les demoiselles d’Avignon) o l’orrore e il furore dionisiaco della distruzione (Guernica) o più in generale il disorientamento e la lacerazione della coscienza dell’uomo moderno, ma tuttavia resterà ben lontano ed anzi agli antipodi della teoria della relatività, in cui si ricerca non certo la confusione orgiastica dei piani e dei livelli bensì al contrario la distinzione e la correlazione delle prospettive diverse ma reciprocamente traducibili e convergenti: Einstein fu sempre una mente classica e apollinea, Picasso invece una mente sempre più dionisiaca (per non dire demonica) nel procedere del proprio percorso. Sappiamo infatti che Einstein sempre più aderì a una concezione fondamentalmente oggettivistica e realistica della realtà, in nome della quale ad esempio sempre respinse l’indeterminismo quantistico: la Luna esiste veramente, diceva, a prescindere se la si guardi e da quale prospettiva la si guardi e Dio, nel suo intendimento, non gioca a dadi (Gott würfelt nicht139). Egli avrebbe preferito fare il A. Einstein, Lettera a M. Born del 4 dicembre 1926 (tr. in Opere scelte, cit. p. 709). 139
266
calzolaio piuttosto che il fisico, diceva, se davvero il moto dell’elettrone fosse stato in sé casuale. Ed è significativo, come si vede: l’Einstein maturo e l’ultimo Einstein, quello che a Princeton si sentiva ormai trattato come un vecchio rimbambito, dopo aver fondato una teoria sul presupposto che lo spazio e il tempo siano definibili solo attraverso un osservatore e un sistema di coordinate, rifiuta l’idea quantistica per la quale la velocità e la posizione della particella non possono essere colte in sé come un moto oggettivo e determinato ma solo in riferimento a un osservatore e a un dispositivo di misura; rifiuta l’idea (o meglio ne prende atto ma se ne dichiara insoddisfatto) che l’oggetto appaia ora come particella ora come onda a seconda del dispositivo usato senza che nulla sia possibile dire sulla reale natura (corpuscolare nel suo intendimento) dell’“oggetto”. Così, tornando al realismo, egli combatteva nella meccanica quantistica un principio che lui stesso aveva con vigore introdotto nella scienza. Del resto prima di passare nel 1932 (come vedremo) a un modello di universo in espansione, Einstein credeva – come rilevò Popper – in una sorta di universo quadridimensionale neoparmenideo sferico, eterno, statico e immutabile, eternamente in riposo e sempre uguale a se stesso, ove tutto è dato in una simultaneità assoluta140: e qualcosa di quell’immagine gli rimase sempre. In realtà il tempo in cui effettivamente credeva Einstein non era né un tempo relativo né un tempo inteso come un divenire e uno scorrere continuo dal passato al futuro. Come scrisse in una delle sue ultime lettere, egli reputava «un’ostinata illusione» la distinzione fra passato-presentefuturo141. Credeva in un eterno presente che ingloba ogni tempo: credeva in realtà in un tempo assoluto e non relativo.
140 Cfr. K. Popper, The World of Parmenides. Essay on the Presocratic Enlightenment, 1998 (tr. it. Il mondo di Parmenide. Alla scoperta della filosofia presocratica, Casale 1998, Piemme). 141 A. Einstein, Lettera alla famiglia in morte di M. Besso del 21 marzo 1955 (tr. in Opere scelte, cit. pp. 706-707).
267
Dunque la consapevolezza relativistica, lungi dal negare l’oggettività reale, può invece favorirne la conoscenza. Si può così giungere a dire, parlando dell’equivalenza di sistemi inerziali, che in tali sistemi «con l’aiuto del principio di simmetria [...] si può dedurre in maniera puramente matematica che l’esistenza di un movimento assoluto non solo non è in contrasto col principio di relatività, ma è persino ricavabile da questo»142. In questo senso veramente la teoria della relatività ha un nome infelice, che non rende conto della sua reale natura proprio in quanto questa teoria, correttamente intesa, non va confusa con un mero relativismo. Al riguardo scriveva Eddington: «noi non abbiamo mai negato che esistano delle caratteristiche dell’universo dotate di un significato assoluto»143; in particolare «la teoria della relatività non ha il compito di negare la possibilità di uno spazio assoluto [né – aggiungeremmo – di un tempo o moto assoluto], bensì di escludere che esso sia presente in qualsiasi dato sperimentale ricavato finora»144. Ma se tutto questo è vero, va comunque detto che la misurazione della velocità della luce non può essere il solo dato in base a cui sincronizzare e “mettere d’accordo” i vari osservatori, anche considerando che in realtà la costante c non può essere (come si è visto) un vero valore assoluto, e parimenti va detto che lo stesso Einstein (come è apparso vagliando criticamente varie sue espressioni) di fatto ha indubbiamente favorito certe inflessioni relativistiche nel senso deteriore, che hanno portato a una epistemologia ispirata al peggior convenzionalismo e aperto la strada alle più dozzinali e scorrette divulgazioni. A questo ha anzitutto condotto la rinuncia all’idea classica e newtoniana di uno spazio, un tempo e un movimento assoluti entro cui considerare ogni relatività: poiché Newton sapeva bene che spazio, tempo e moto assoluti e relativi sono in realtà complementari e per nul-
142 D. Wandschneider, Aspetti filosofici delle teorie della relatività speciale e della relatività generale, in AA.VV., L’opera di Einstein, Ferrara 1989, Corbo, p. 126. 143 A.S. Eddington, Spazio, tempo e gravitazione, cit. p. 199. 144 Ivi p. 208.
268
la affatto antitetici, in quanto essi sono per nulla affatto mutuamente escludentisi bensì gli uni il presupposto degli altri. Dunque la teoria della relatività mostra la sua debolezza e paradossalità se e quando preclude e dichiara impossibile in linea di principio la ricerca stessa di una determinazione oggettiva. Eddington diceva che la teoria della relatività nulla può dire circa la natura reale delle cose: essa, dice, ha assicurato alla fisica un posto glorioso ma «riguardo alla natura delle cose, questa conoscenza è solo una conchiglia vuota, una forma di simboli. È la conoscenza della forma strutturale, non del contenuto»145. In altri termini – e a riconoscerlo è uno dei massimi scienziati relativisti – la teoria della relatività non parla dell’in sé delle cose, non coglie la realtà dell’essere, bensì ne contorna il piano fenomenico indicando essenzialmente dei rapporti e delle misure attraverso determinati sistemi di segni. Senonché l’autentica scienza non può rinunciare ad essere, classicamente, una cognitio rerum per causas. Per questo noi pensiamo che solo un profondo ripensamento e approfondimento di questa teoria, volto a salvarne il contributo effettivo oltre lo stesso Einstein ma in pari tempo deciso a liquidarne le parti deboli e le errate interpretazioni, possa impedire che essa diventi «una conchiglia vuota» per diventare, dunque, conoscenza effettiva.
145
Ivi p. 251.
269
PARTE SECONDA CONTRO LA FALSA COSMOLOGIA
Per una critica alla legge di Hubble e alla teoria del Big Bang
270
271
I Sul paradosso di Olbers Tema: le domande di Olbers Heinrich Wilhelm Matthäus Olbers1 era un medico, ma questo conta poco. Infatti quando non faceva il medico faceva l’astronomo, e questo viene ricordato nelle storie dell’astronomia. Rinchiuso nel suo osservatorio di Brema il dottor Olbers frugava nella vasta plaga fra Marte e Giove. La legge di Titius-Bode, che intendeva rinvenire una progressione matematica nelle distanze dei pianeti, prevedeva che in quell’area fosse nascosto un pianeta: il pianeta a dire il vero non si trovava, ma il 1 gennaio 1801 G. Piazzi aveva rintracciato in quella plaga Cerere, la cui orbita fu poi meglio definita in base ai calcoli di Gauss. Quindi l’anno seguente, il 28 marzo 1802, Olbers nella stessa aerea scoprì un altro pianetino che chiamò Pallade. Più tardi ancora, il 1 settembre 1804, venne scoperto Giunone e ben presto l’aerea fra Marte e Giove risultò sempre più misteriosamente piena di pianetini o asteroidi. Lo stesso Olbers tre anni dopo ne scoprì un altro che denominò Vesta e, molto felice, comunicò la cosa a Bode in una lettera del 3 aprile 1807: «Con la più grande gioia mi affretto a informarvi, mio carissimo amico, di esser stato così fortunato da scoprire, il 29 marzo, un nuovo pianeta della famiglia degli asteroidi». In quella stessa lettera Olbers, volendo spiegare la fascia di asteroidi, fece l’ipotesi che in quel punto il pianeta che avrebbe dovuto esservi secondo la legge di Titius-Bode vi fosse in effetti stato in epoche primordiali, all’origine della formazione del sistema solare, e si fosse poi frantumato – in seguito a una terribile collisione con un asteroide gigante – in migliaia di frammenti vaganti costituenti l’attuale fascia di asteroidi. Questa ipotesi – ampiamente discussa sulla Monatliche
1 Vedi C. Schilling, Wilhelm Olbers, sein Leben und seine Werke, 2 voll., Berlin 1894-1909 e S. Jaki, The paradox of Olbers’ paradox, New York 1969. V. anche E. Harrison, Le Noir de la nuit, Paris 1998, Le Seuil.
272
273
Correspondenz – piacque anche agli scrittori e al pubblico, anche se in seguito si rivelò criticabile dal punto di vista scientifico: oggi, in effetti, si preferisce pensare non a un pianeta frantumato ma al contrario a asteroidi risalenti all’epoca della formazione del sistema solare non coagulati in pianeta bensì dispersi a causa della perturbazione gravitazionale di Giove, che sembra non sopportare un pianeta a lui troppo vicino. Invece Olbers, evidentemente, era attratto dall’idea del “pianeta in più”: altri, del resto, cercheranno Vulcano nei dintorni di Mercurio, e ancora oggi v’è chi cerca il decimo pianeta del sistema solare in un punto dello spazio ben oltre Plutone. Va ricordato inoltre che Olbers fu anche, nella sua epoca, uno dei principali studiosi di Kometen. Fin dal 1797 al riguardo egli pubblicò a Weimar un lavoro (Über die leichteste und bequemste Methode, die Bahn eines Kometen aus einige Beobachtungen zu berechnen). Nel 1812, suggerì correttamente che la coda rettilinea delle comete orientata in direzione opposta a quella del Sole fosse la conseguenza dell’espulsione di materiali durante l’avvicinamento della cometa al Sole: oggi si indica in effetti nel “vento solare” la causa del fenomeno. Nel 1832 infine Olbers mise a soqquadro l’opinione pubblica perché, calcolando la traiettoria di una cometa, ne previde un pericoloso avvicinamento alla Terra: ancora una volta, ma ora in termini più pressanti, si presentava l’idea di collisioni catastrofiche e il direttore dell’Osservatorio di Vienna dovette rassicurare l’opinione pubblica che ancora non era l’ora del Dies irae. Dunque Olbers era veramente un buon ricercatore che, partendo da piccoli corpi celesti come asteroidi e comete, speculava su cosa potesse essere avvenuto illo tempore. Scrive al riguardo C. Böhm: «come facesse quest’uomo, che esercitava coscienziosamente anche la professione di medico, a seguire tante attività contemporaneamente, non è dato sapere. Alcuni riferiscono che gli bastasse dormire solo pochissime ore per notte, cosa che non gli impedì di giungere alla ragguardevole età di 81 anni».2 2
274
C. Böhm, Storia dell’Astronomia, Padova 1989, Muzzio, p. 43.
Questo dunque il personaggio di cui parliamo. Ma soprattutto Olbers è oggi noto perché, e con ciò entriamo in medias res, oltre a indagare le comete e a speculare su cosa fosse stata un tempo la fascia di asteroidi fra Marte e Giove, poneva anche domande cui è difficile rispondere (le domande a cui è difficile rispondere sono quelle che amava molto Socrate e che sempre fanno arrabbiare gli “esperti”: Socrate, a quanto pare, fu messo a morte perché faceva troppe domande). La domanda che dunque Olbers pose nel 1826, ma che in realtà fu già di Keplero e di Halley e poi di Cheseaux e di altri ancora, ha la semplicità e l’ingenuità sconcertante delle domande dei bambini: dimmi, perché il cielo è buio di notte? In effetti, quanti di noi ci hanno pensato? pochi, diciamo la verità. Forse, soltanto qualche idiota nel senso di Dostoevskij o qualche leopardiano pastore errante in Asia possono porsi domande simili. O qualche scienziato di genio: come Einstein che a 16 anni si domandava che effetto farebbe cavalcare un raggio di luce. Perché praticamente chiunque risponderebbe alla domanda di Olbers: il cielo di notte è buio perché è buio, è così e basta, smettila di fare domande. Il cielo è buio così come l’acqua è bagnata e il fuoco è caldo. Hai mai visto un fuoco freddo? Ma il punto è che la domanda, proprio come certe domande apparentemente assurde dei bambini, è tutt’altro che stupida. Certo non si può rispondere dicendo che da noi è notte quando l’emisfero terrestre su cui siamo, nel suo moto di rotazione assiale, volge sdegnoso le spalle al Sole. Olbers infatti vuol sapere perché la luce, che proviene non solo dal Sole ma da tutte le stelle e da tutte le galassie propagandosi in tutte le direzioni, non illumina a giorno e per sempre il cielo e gli spazi tutti. Bisognerà pur rispondergli, e questo tenteremo. L’universo infinito come soluzione al paradosso La domanda doveva essere particolarmente ardua per Keplero e per tutti gli Antichi per i quali il cosmo, sia nella prospettiva geocentrica sia in quella eliocentrica, era una sfera cristallina, chiusa, 275
compatta, finita, al di là della quale poteva solo esservi l’Empireo o il Motore Immobile. Il cosmo di Keplero, che aborriva gli spazi infiniti di Giordano Bruno che sgomenteranno Pascal, era una specie di stanza: il Sole al centro, i pianeti intorno, le stelle “fisse” appese alle pareti. Per quanto il mondo di Copernico e di Keplero fosse ben più grande di quello di Tolomeo, era sempre troppo piccolo e non vi era alcuna autentica idea delle immensità spaziali. Copernico in effetti, nel De revolutionibus orbium coelestium (I.10), definiva il Sole la “lampada del mondo”: ebbene, perché questa lampada e tutti gli altri luminari appesi al soffitto non illuminano la stanza del cosmo? Perché questa piccola stanza non è illuminata a giorno dalla luce del Sole e delle stelle? Non si illumina forse una stanza con un camino acceso al centro e tante fiaccole accese alle pareti? Certo, anche da ciò si poteva dedurre che il mondo non è poi così piccolo. Infatti: se fosse così piccolo, chiuso, finito, limitato, allora veramente esso dovrebbe essere illuminato a giorno da quelle migliaia di stelle che si vedono in cielo a occhio nudo, e che col cannocchiale appaiono in numero di gran lunga maggiore come ben sapeva Galileo a partire dal 1609. Dunque evidentemente in realtà l’universo non è finito ma infinito. Eppure Olbers rifiuta l’idea di un universo infinito: in uno spazio infinito – dice – vi sarebbero probabilmente o sicuramente non qualche migliaio di stelle bensì infinite stelle e la concentrazione luminosa di infinite stelle dovrebbe veramente illuminare il cielo a giorno. Per questo per Olbers l’universo è sicuramente molto grande, ma non infinito: altrimenti verrebbe illuminato a giorno. Oggi si dice: la luminosità delle stelle diminuisce con il quadrato della distanza, ma l’effetto è esattamente compensato dal fatto che il numero delle stelle (e dunque la loro luminosità) aumenta col quadrato della distanza, per cui il cielo in un universo infinito dovrebbe essere illuminato a giorno. Ma noi diciamo: strano ragionamento, quello di Olbers e successori. Se un tale accendesse diecimila candeline di notte nella pianura padana, e poi domandasse perché la pianura padana non ne viene illuminata a giorno, certo la sua domanda verrebbe considerata molto strana. Eppure, proprio questo è il ragionamento di Ol276
bers. Egli ragiona come chi chiedesse perché una candela accesa a Marsiglia non si vede a Parigi. Un adulto giudizievole potrebbe rispondere a Olbers che fa domande impertinenti: guarda, un universo chiuso avrebbe maggiori possibilità di essere illuminato a giorno che non un universo infinito. Mille candele possono illuminare il salone di casa ma non il deserto del Gobi. Uno spazio infinito sarebbe “ancora più infinito” delle infinite stelle che pur potrebbe contenere, proprio come la serie dei numeri interi è in certo senso “ancora più infinita” della serie dei numeri pari che contiene, e proprio questa immensità impedirebbe l’illuminazione a giorno dell’universo. D’altronde, cos’altro per Newton impediva (beninteso, fino al Dies irae) che le stelle precipitassero gravitazionalmente le une sulle altre se non l’immensa distanza che le separa? Questa immensa distanza come rallenta l’opera della gravitazione così indebolisce la luce: e chi garantisce che il numero delle stelle dovrebbe aumentare col quadrato della distanza guarda caso proprio in modo da compensare esattamente e miracolosamente l’affievolirsi della luce col quadrato della distanza? E poi: infinite stelle non potrebbero comunque illuminare l’universo a giorno per il semplice fatto che se in qualunque direzione rettilinea si guardi vi saranno infinite stelle, per così dire l’una dietro l’altra, allora esse si copriranno e si occulterano fra loro in una specie di eclissi stellare. Dunque ponendo un universo infinito, non ne viene affatto che allora esso sarebbe inondato dalla luce di infinite stelle e così illuminato a giorno. Non fosse che per un altro semplicissimo motivo: la luce viaggia a velocità finita e dunque la luce proveniente da stelle infinitamente lontane non ci ha ancora raggiunto e non ci raggiungerà mai cosicché noi, pur vivendo in un universo infinito, di fatto siamo raggiunti solo da una quantità finita di luce emessa da un numero finito per quanto alto di stelle. Senza considerare il fatto che le stelle non sono eterne, si spengono anche, smettono a un certo punto di erogare la luce che così non può raggiungerci. Invero che un universo chiuso, finito e sferico, per quanto grande, debba essere illuminato a giorno, lo dice anche il premio Nobel Steven Weinberg. Egli infatti, ottimo fisico delle particelle ma anche 277
autore di un infausto libro su I primi tre minuti che ha dato la vulgata della teoria del Big-Bang, trae in questo libro una conclusione logica da un assunto discutibile: se l’universo un giorno si contrarrà in un universo più chiuso tendente come Lessie a tornare a casa, al mitico punto iniziale, allora – egli dice – «i nostri posteri [...] troveranno il cielo intollerabilmente luminoso»3. Insomma: quando l’espansione sarà diventata contrazione, quando lo spazio sarà più ristretto e le stelle si saranno riavvicinate, allora sai che calore! E soprattutto: sai che luce! Lo spazio, ristrettosi, sarà tutto illuminato a giorno. Così, a Olbers che forse preferirebbe vedere il cielo e gli spazi tutti sempre illuminati a giorno e domanda perché non lo siano, Weinberg come un professionista indaffarato risponde: ripassi domani. Si vuole comunque che la teoria del Big Bang, di cui ampiamente parleremo, abbia risposto al paradosso di Olbers: infatti – si dice – un universo espanso, in cui le galassie si diradano fuggendo lontano nello spazio così risplendendo sempre meno, spiegherebbe perché il cielo non è illuminato a giorno. Ma – si potrebbe obiettare – un universo in espansione a forma di sfera dovrebbe al contrario essere illuminato dai raggi di luce che attraverserebbero geodeticamente la sfera così tornando indietro, ciò che non è. Certo basterebbe supporre che lo spazio si espanda a una velocità superiore a quella della luce, per impedire che la luce delle galassie lontane giunga a noi, ma questa è una risposta convincente? Va così veloce l’universo? Se sì, bisognerebbe allora multarlo per eccesso di velocità. Insomma: come si vede, anche teorie che van per la maggiore non rispondono adeguatamente al paradosso di Olbers. In realtà né un universo finito né un universo in espansione, bensì solo l’ammissione di un universo infinito sembra costituire una prima risposta al paradosso. Certo si potrebbe rispondere a Olbers che la sua domanda rivela una mentalità un po’ ristretta. Infatti proprio come un provincialot-
to Olbers sembra chiedere perché il suo villaggio di periferia non sia illuminato di notte come il centro di New York. Di più: egli sembra credere che, poiché è buio l’angolo in cui vive, allora ovunque sia buio. Ma (senza ripassare domani come suggerisce Weinberg) se noi fossimo al centro della galassia, al centro della Via Lattea, dove la densità dei sistemi stellari è molto più alta, allora probabilmente vedremmo il cielo molto più fortemente punteggiato di luci e molto più luminoso, anche di notte. Parimenti, se noi fossimo in uno dei tantissimi sistemi stellari binari che popolano le galassie, allora due soli insieme, magari dandosi il cambio di giorno e di notte, farebbero una bella luce. Olbers potrebbe leggere il racconto di Asimov, Cade la notte (vero è che è del 1941): ove si racconta del pianeta Saro in cui gli uomini si godono la luce di ben sei soli. Questo farebbe contento Olbers? C’è qui abbastanza luce? Perché qui, infine, si ha il sospetto che il caso sia da psicoanalisi: sembrerebbe che Olbers non riesca a sopportare quel buio degli spazi siderali che già inquietava Pascal. Come i bambini, ha forse paura del buio: ha paura dell’Orco che lo porta via, e vuole il lumino sempre acceso. Verrebbe da dire, a Olbers che ripete in veste scientifica le domande dei bambini: sono umane, molto umane, le radici psichiche dei problemi scientifici! E però, noi non siamo in un sistema stellare doppio né triplo né sestuplo e nemmeno siamo al centro della galassia: siamo invece in un angolino un po’ periferico e buio. Certo, se Olbers vivesse nei dintorni del Sole nemmeno si sarebbe posto il suo dilemma. D’altra parte è anche vero che se per assurdo vivesse sul pianeta Venere allora troverebbe ancora più buio che non sulla Terra, visto che i raggi solari difficilmente riescono a penetrare la spessa coltre atmosferica che ricopre il pianeta. Insomma, Olbers non vuole capire che gli è andata abbastanza bene, stando sulla Terra. La dispersione della luce e il cielo buio
3 S. Weinberg, The First Three Minutes, 1976, tr. it. I primi tre minuti dell’universo, Milano 1977, Mondadori, p. 168.
278
Tuttavia non è il caso di psicoanalizzare Olbers, ed è preferibile prendere sul serio la sua domanda sul piano scientifico. Certo la 279
questione sembra un po’ complessa: forse sarebbe meglio non fare tante storie, e dire che in realtà il cielo è buio di notte perché di notte Dio spegne la luce. Ma Olbers non si accontenterebbe di questa risposta e insisterebbe. Del resto egli ha sempre cercato di far valere la forza probante del suo paradosso, e nei suoi scritti dice come prevenendo ogni obiezione: anche dalle stelle più lontane, la luce deve giungere a noi. Perché ciò non succede? Come può un raggio di luce estinguersi? E qui che dire? Certo se si getta un sasso nell’acqua a Genova nessuno chiederebbe perché le onde che si propagano non arrivano fino in Africa: invece Olbers chiede perché le onde luminose emesse da stelle enormemente lontane non si propaghino all’infinito, giungendo a noi intatte. Al riguardo possiamo rispondere notando tutti i casi in cui la luce viene non solo indebolita e rallentata di frequenza (ciò di cui si dirà oltre), ma proprio viene oscurata e annullata dal mezzo in cui passa. Così un gas ionizzato assorbe e disperde fortemente la luce. Gli atomi e le particelle assorbono i fotoni tramutandoli in massa ed energia: in tal modo la luce ovunque diffusa contribuisce essa stessa a generare in parte la Dark Matter, la famosa (ma anche troppo propagandata) “materia oscura” dell’universo su cui si tornerà. Così lo scontro fra fotoni e particelle, come verifica la fisica delle particelle, produce opacità: in particolare (effetto fotoelettrico) la radiazione luminosa incidente, investendo un corpo e percuotendone gli atomi, può (se la frequenza è superiore a una data soglia) strapparne via gli elettroni cedendo loro l’energia con cui essi si svincolano e si liberano (ionizzazione), e parimenti (effetto Compton) un fotone urtando un elettrone libero ne viene deviato e sempre, mentre ne aumenta la lunghezza d’onda, perde energia cedendola all’elettrone: in entrambi i casi il fotone perde energia e, nell’effetto fotoelettrico, in quanto tale scompare. Poiché gli elettroni sono, fra le particelle conosciute, le più diffuse nell’universo, ben si comprende l’alto coefficiente di assorbimento di fotoni nell’universo con conseguente produzione di cielo buio. Ancora, nella collisione (scattering) fra due fotoni si ipotizza la generazione di una coppia elettrone-positrone e nuovamente i fotoni in quanto tali 280
scompaiono. In termini più classici si deve rilevare invece che per le “frange di interferenza” (che per Young dimostravano il carattere ondulatorio della luce) le onde luminose – passando attraverso una doppia fenditura posta in un ostacolo – interferendo e sovrapponendosi fra loro possono rinforzarsi producendo più luce (quando le loro creste “in fase” si sovrappongono e si sommano) ma anche annullarsi reciprocamente producendo opacità (quando le creste corrispondono “fuori fase” agli avvallamenti). Così, ogni qual volta la luce trova un ostacolo nel percorso interstellare (materia nebulare etc.), essa troverà in genere dei varchi, delle fenditure multiple attraverso cui passare, in tal modo producendo i fenomeni di interferenza il cui esito può essere l’annullamento della luce. Dunque, come le interferenze fra le onde acustiche producono un rumore di fondo con perdita di informazione, parimenti le interferenze fra onde luminose possono produrre perdita di visibilità: in questi casi, è proprio l’eccesso di luce a generare il buio; sovrapponendosi alla luce, la luce può produrre oscurità. In questo modo la luce è dispersa, assorbita. Continuamente nell’universo le onde luminose non solo rallentano la frequenza ma perdono la loro energia cedendola alle particelle urtate. Ma Olbers a questo certo avrebbe qualcosa da obiettare, come si legge in un articolo da lui scritto dal titolo Sulla trasparenza dello spazio cosmico (Über die Durchsigtigkeit des Weltraumes) e pubblicato nel 1823 nell’Annuario astronomico di Berlino. In questo articolo egli dice infatti che l’assorbimento della luce interstellare c’è, ma è molto minore di quanto ritenesse Jean Philippe de Cheseaux e dunque non è quello il problema. In effetti il valore dell’assorbimento interstellare proposto da Olbers è assai vicino a quello oggi adottato. E ancora si potrebbe aggiungere: la luce è senz’altro in parte assorbita dalla materia interstellare ma in molti casi essa non può essere completamente assorbita per il semplice fatto che la luce riscalda con la conseguenza che dunque il mezzo interstellare, assorbendo la luce, dovrebbe riscaldarsi e quindi illuminarsi così rendendosi visibile. Senonché si potrebbe qui rispondere ad Olbers con la radiazione 281
di un corpo nero: l’universo con i suoi bui spazi siderali appare come una specie di “corpo nero” che assorbe l’energia luminosa sparsa in ogni direzione da stelle e galassie così in effetti riscaldandosi pur senza giungere alla visibilità nell’ottico. Se si obietta dove sia l’energia e il calore emessi dall’universo sotto forma di radiazione, allora si può oggi rispondere: è la famosa “radiazione di fondo” di circa 3 gradi Kelvin, ignota a Olbers perché scoperta da Wilson e Penzias nel 1965 e troppo frettolosamente catalogata come eco del cosiddetto Big-Bang. Si dirà: non è un gran riscaldamento questo 3°K che corrisponde poi a – 273 gradi Celsius. Ebbene sì: nell’universo fa un po’ freddino. Ma pensiamo a quanto più freddo farebbe se non ci fosse l’assorbimento della luce stellare e il conseguente riscaldamento del mezzo intergalattico. Che cos’è la luce se non calore, energia? Dunque, il fatto che l’universo sia buio ci dice soltanto che in esso c’è poco calore, poca energia. Ma anche sulla radiazione di fondo si tornerà: i nostri, per ora, sono ancora preamboli. Per ora, piuttosto, notiamo questo: solitamente si immagina la luce come una cosa, un messaggero che viaggia nello spazio; ma in realtà essa si rende visibile non negli spazi siderei, lungo il suo tragitto per milioni di anni luce, bensì solo nell’atmosfera e in presenza di un corpo riflettente o rifrangente. Che ne è dunque della luce nello spazio intermedio fra sorgente e ricevitore? Così un fisico come Bridgman (volto ad eliminare dalla fisica i concetti risultanti “non operativi”) ha potuto paradossalmente domandarsi se abbia senso attribuire una realtà fisica e un’esistenza indipendente alla luce nello spazio intermedio fra sorgente e ricevitore, inclinando decisamente per una risposta negativa e definendo del tutto scorretta la comune rappresentazione della luce come di una cosa che viaggia nello spazio4. Nella sostanza concordiamo con Bridgman: nell’emissione elettromagnetica è necessario anche un
4 P. Bridgman, The Logic of Modern Physics, 1927, tr. it. La logica della fisica moderna, Torino 1965, Boringhieri, pp. 152-165.
282
assorbitore; l’emittente richiede necessariamente un ricevente per quanto lontano, e l’emissione non potrebbe avvenire indipendentemente dal processo dell’assorbimento. La luce necessita di un corpo recettivo per esplicitare se stessa, in quanto solo in tal caso l’energia assorbita produce calore e si manifesta come luce. Dunque la luce può produrre il suo effetto e cioè la luce soltanto quando incontra una massa solida, come la Terra o un pianeta, o aeriforme come un’atmosfera o una massa gassosa o sottile attraverso cui passa, così illuminandola e illuminandosi. Infatti, visto dallo spazio, il Sole illumina la Terra ma non gli spazi siderei fra il Sole e la Terra (questo, detto in altri termini, è il problema di Olbers): non è come un proiettore cinematografico, di cui noi vediamo distintamente sia il fascio di luce al buio che l’immagine proiettata sullo schermo. E, per quanto possa sembrare paradossale dirlo, il Sole non irradierebbe luce se fosse solo nello spazio e nessun altro corpo potesse assorbirne la radiazione: esso irradierebbe certamente, ma il suo irradiamento non sarebbe luminoso. Quindi dobbiamo dire che, quando la luce viaggia per vuoti e bui spazi siderei, e ve ne sono molti nello spazio, allora non incontrando la resistenza di una massa (anche sottile e gassosa) che produce calore e luce, rimane come spenta. Insomma, una luce buia. Semplici onde elettromagnetiche che di per sé non sono ancora luce: per questo le stelle lontane non possono sostituire la luce solare e il cielo rimane buio di notte; per questo oggi gli astronauti vedono dallo spazio la fioca luce di stelle lontane nonché la Terra ma non il tragitto della luce dalle stelle alla Terra che, se vi fosse, sempre illuminerebbe in effetti il cielo a giorno. Sembrerebbe dunque doversi dire che in realtà la luce non può propagarsi come tale nel vuoto assoluto. Del resto, quale esperimento ha mai verificato che nel vuoto la luce si propaga? Non certo il tubo di Torricelli, che non è un tubo vuoto perché esso – essendo di vetro – fin dall’inizio contiene e lascia penetrare la luce e con essa chissà quant’altro ancora. Noi sappiamo che nel vuoto non può avvenire un processo di combustione e infatti, posta una candela accesa in un recipiente da cui sia stata tolta l’aria, do283
po qualche minuto la candela si spegne a riprova del fatto che (come scriveva von Guericke nel XVII secolo) «ignem sine aëre vivere non posse». Per questo la luce delle stelle non può mantenersi in tutto luminosa negli spazi siderali. E in effetti sembrerebbe potersi dire: il suono e la luce sono entrambi onde, radiazioni elettromagnetiche e dunque perché mai, se il suono non si propaga nel vuoto (come risultava agli esperimenti di von Guericke: in vacuo campanulae non tinnunt), invece la luce sì? La maggior frequenza dell’onda di luce le consente il passaggio attraverso un mezzo a densità minima, ma è sufficiente a farle attraversare il vuoto? Il suono necessita di un mezzo, di un supporto in cui viaggiare, mentre invece la luce si tiene su da sola per il colletto come il barone di Münchhausen? Un pesce può forse nuotare senza l’acqua, un uccello può volare senza aria? Il mezzo certamente costituisce una resistenza che diminuisce la velocità dell’onda ma al contempo sembra essere un conduttore, ovvero un supporto per la sua propagazione: l’acqua rallenta il moto del pesce ma senza acqua il pesce non può nuotare. Sembrerebbe dunque doversi dire che nel vuoto assoluto la luce non si propaga, o meglio dovremmo dire che il vuoto evidentemente non è sempre così assoluto, cosicché probabilmente nel vuoto relativo la luce – non diminuita da resistenze gravitazionali che peraltro ne attivano la luminosità – aumenta la frequenza e dunque scompare come luce così divenendo invisibile (come una ventola che ruoti troppo vorticosamente) pur rimanendo naturalmente come radiazione, probabilmente superando il tetto fatidico dei 300.000 Km/sec dichiarato inviolabile da Einstein. Dunque noi non vediamo tutto il cielo sempre illuminato a giorno perché non è del tutto vero che nell’universo le stelle e le galassie sono più o meno uniformemente distribuite ovunque. Nell’universo invece vi sono immensi spazi relativamente vuoti e in essi la radiazione luminosa non può viaggiare come luce, cosicché sembra potersi dire: quel poco di luce che vediamo la vediamo in quanto si propaga attraverso mezzi intestellari più o meno densi. Infine, a Olbers che domanda perché il cielo è buio di notte 284
possiamo oggi rispondere, dopo che Faraday, Maxwell e Hertz hanno mostrato la strutturale omogeneità fra luce, elettricità e magnetismo: solo una piccola parte della radiazione elettromagnetica è visibile. Noi diciamo luminoso solo ciò che riusciamo a vedere, ma in realtà c’è una radiazione visibile e una radiazione invisibile per noi: solo una piccola parte della radiazione elettromagnetica, compresa nella lunghezza d’onda fra 0,4 e 0,8 micron, può essere captata dall’apparato ottico e nervoso dell’uomo. Più in là vi è l’ultravioletto, i raggi x, i raggi gamma da una parte, con onde più corte, mentre dall’altra parte vi è l’infrarosso e le onde radio con onde più lunghe. Così si potrebbe dire che, come esistono gli ultrasuoni che non si sentono, così esiste “l’ultra-luce” che non si vede. E dunque, dopo quasi due secoli, si può rispondere a Olbers: i nostri sensi sono stati calibrati e tarati essenzialmente per percepire la luce del Sole, non tutte le altre lunghezze d’onda; quindi noi non vediamo l’universo sempre illuminato a giorno perché in certo modo siamo come ciechi, e possiamo cogliere nell’ottico solo una piccola parte della radiazione ovunque diffusa nell’universo. Non possiamo trasformare la nostra limitata percezione visiva in un metro assoluto: gli spazi siderei sono bui per noi. In un altro sistema solare potrebbero esservi esseri intelligenti dotati di terminazioni nervose più sottili e sofisticate delle nostre, tali da cogliere naturalmente senza apparecchiature tecnologiche lo spettro anche al di sopra di 0,8 e al di sotto di 0,4 micron. Diceva Galileo in una lettera a Dini del 21 Maggio 1611: «Chi vorrà dire il lume de i Pianeti Medicei non arrivare in terra? Vorremo ancora far gl’occhi nostri misura dell’espansione di tutti i lumi, sì che dove non si fanno sensibili a noi le specie de gl’oggetti luminosi, là si deve affermare che non arrivi la luce di quelli? Forse tali stelle veggono le aquile o i lupi cervieri, che alla debile vista nostra rimangono occulte». Dunque a queste aquile o lupi cervieri il mondo apparirebbe molto diverso: esso apparirebbe tutto luminoso e inondato di luce anche in piena notte. Se noi fossimo così, saremmo inondati di luce, vedremmo tutto, assoluta285
mente tutto. Donde la lamentela di Boltzmann: «Riguardo a questa enorme molteplicità di raggi vorremmo quasi prendercela col creatore per il fatto che ha reso il nostro occhio sensibile solo ad un loro settore così piccolo»5. Ma il grande scienziato non voleva bestemmiare, e subito dopo aggiungeva: «Questo rimprovero sarebbe però ingiusto: infatti ovunque è stato rivelato direttamente all’uomo solo un piccolo settore di un grande complesso di fenomeni naturali affinché il suo intelletto sia capace di riconoscere quello che resta con i propri sforzi». Ma siamo poi sicuri che tutta questa luce ci farebbe bene? Consideriamo il pianeta Saro immaginato da Asimov, quello con sei soli di cui si parlava. Sapete cosa succede? Che gli abitanti di quel pianeta non conoscono il buio. E non conoscono nemmeno il cielo stellato, quello che suscita sublimi pensieri in Kant, perché su Saro non scende mai la notte che consente di vedere il cielo stellato. Di conseguenza su Saro un gemello relativistico di Olbers si pone la domanda: perché è sempre luce, sempre dannatamente luce, anche di notte? E grida: spegnete la luce, per favore! Ma ecco che su Saro avviene la tragedia: infatti quando una luna, che finora non era mai stata vista per la troppa luce, oscura in un’eclisse l’unico Sole in quel momento rimasto in cielo, allora agli abitanti di Saro per la prima volta si aprono gli occhi e improvvisamente essi vedono: vedono il buio, e nel buio vedono una luna, e nel cielo appaiono migliaia e migliaia di stelle brillanti. Ma l’improvvisa e traumatica visione della luce e della verità sconvolge gli abitanti di quel pianeta: nella popolazione si diffonde il panico, scoppiano tumulti, e la civiltà di Saro si avvia alla distruzione. Dunque, il buio va bene, e poi: se fosse sempre luce, come dormiremmo la notte? Se volessimo indulgere all’antropomorfismo, diremmo che la natura non abbia voluto sovraccaricarci di sensa-
zioni troppo forti e intollerabili, difendendoci saggiamente con un filtro selettivo. E aggiungeremmo che forse essa nemmeno ha voluto che l’uomo pensasse troppo alla morte, che il buio richiama: «a notte, svanita la vista, uomo s’accosta alla luce; nel sonno, svanita la vista, vivo s’accosta al morto e sveglio s’accosta al dormiente». Così il sapiente Eraclito, frammento 26. Quindi occorre riappacificarci con il buio. Il buio è sovrano, viene prima di tutto. La luce è solo un accidente che di tanto in tanto, pro tempore e en passant, giunge a interrompere il buio.
L. Boltzmann, Populäre Schriften, tr. it. Modelli matematici, fisica e filosofia, Torino 1999, Bollati Boringhieri, p. 112. 5
286
287
II Edwin Hubble e l’espansione dell’universo In un celebre dibattito tenutosi il 26 aprile 1920 a Washington si affrontarono, presente Einstein, i rappresentanti di due opposte scuole di pensiero dell’astronomia moderna: H. Shapley, che riteneva che i nuovi “puntini luminosi” che sempre più apparivano in cielo al telescopio fossero stelle appartenenti alla Via Lattea coincidente con l’universo risultante cento volte più grande di quanto si pensava; e H. Curtis, che – avendo osservato una supernova in esplosione nella nebulosa di Andromeda – sosteneva (riprendendo un’idea già di Kant e di W. Herschel) che i “puntini” fossero in realtà altre galassie lontane milioni di anni luce e esterne alla Via Lattea, cioè esterne alla galassia nella quale si trova il sistema solare cui appartiene la Terra, in un universo di cui sottostimava la grandezza. Il dibattito sembrava indeciso, ma poi venne E. Hubble che – dopo aver a lungo scandagliato il cielo con i telescopi di Monte Wilson e di Monte Palomar in California che allora erano i più potenti del mondo – confermò nel 1925 la teoria di Curtis con la scoperta e lo studio delle variabili Cefeidi nella “nebulosa” di Andromeda che, non potendo essere interna alla Via Lattea per la sua distanza, apparve così come una nuova galassia. Hubble dunque disse che, come la Terra non è al centro dell’universo, così parimenti non è al centro dell’universo nemmeno la galassia nella quale (in posizione peraltro piuttosto marginale) si trova il sistema solare cui appartiene la Terra con i suoi abitanti che invero già Micromégas (l’osservatore cosmico alieno immaginato da Voltaire) trovava piuttosto strani. Egli scoprì cioè che parte non indifferente di quei puntini visibili al telescopio lassù nel cielo notturno non appartiene al sistema di cui noi siamo parte, bensì ad altri sistemi. Scoprì che una sola galassia non esaurisce l’universo: scoprì che la Via Lattea non è l’unica galassia e che nell’universo vi è un numero strabiliante di galassie ciascuna delle quali contenente miliardi di stelle (attualmente si calcola che nell’universo osservabile vi siano cento miliardi di galassie ciascuna delle quali contenente in media da cento a trecento miliardi di stelle). 288
289
In questo modo Hubble rintracciava un ordine in quel pulviscolo di punti notturni che a tutta prima sembrava confermare la visione di Democrito il quale, a dir di Dante, «il mondo a caso pone» (Inferno IV.136). Quell’ordine invero l’avevano già cercato gli Antichi che avevano creduto di ritrovarlo nello Zodiaco celeste. In tutte le culture più antiche infatti gli uomini – mai credendo a una disposizione casuale degli astri in cielo – avevano sempre catalogato, ordinato, sistemato le stelle secondo costellazioni raggruppate in “case” che il Sole nel suo supposto moto lungo l’eclittica attraversava lungo i mesi dell’anno. Ma queste “costellazioni” spesso erano in realtà raggruppamenti forzatamente arbitrari: unendo con linee immaginarie i “punti” costituiti dalle stelle, si costruivano in cielo simbolici carri, orsi, centauri, scorpioni tutti fatti di stelle. C’era qui un bisogno d’ordine da sempre intrinseco alla mente umana ma ovviamente, in quanto mancava ogni idea delle vere distanze stellari e delle reali profondità spaziali, spesso si mettevano insieme stelle – come le più vicine con le più lontane – che in realtà nessun rapporto avevano fra loro. Proprio questo invece Hubble fece: scoprendo le galassie, come raggruppamento non arbitrario di stelle, egli ritrovò un ordine in cielo. Hubble scoprì che le stelle non sono buttate a caso nel cielo, quasi lasciate cadere da un seminatore distratto, bensì sono raccolte e disposte in insiemi coerenti e organizzati essenzialmente con un nucleo vorticoso ad alta densità di popolazione stellare con bracci a spirale o secondo conformazioni ellittiche. Red shift e modelli di universo Fin qui tutto bene: quanto basta cioè per dare ad Hubble un posto onorevole nella storia dell’astronomia. Senonché, come è noto, Hubble è andato ben oltre: poiché infatti lo spettrometro evidenziava uno spostamento verso il rosso nel rilevamento della luce proveniente dalla maggioranza delle galassie, egli (generalizzando le tesi di V. Slipher del 1913) infine lo interpretò univocamente come un effetto Doppler. Come si sa, si definisce effetto Doppler (dal 290
nome di chi lo analizzò) la frequenza crescente o decrescente della vibrazione acustica o luminosa determinata da una sorgente in movimento rispetto a un osservatore: ad esempio in fase di arrivo (quando si avvicina a noi) il fischio di una locomotiva o di un’ambulanza salendo di frequenza diventa più alto e più acuto; viceversa quanto più velocemente la locomotiva o l’ambulanza si allontana tanto più il suono da essa emesso diminuendo di frequenza diventa più basso e più grave. Naturalmente si tratta di moto relativo in quanto lo stesso suono appare acuto per un osservatore a cui la fonte sonora si avvicina e grave per un osservatore da cui la sorgente si allontana. Poiché in entrambi i casi si tratta di onde, allora ciò che si osserva per il suono si osserva anche per la luce: così una sorgente luminosa che si avvicina aumentando di frequenza emette una luce che si rivela allo spettro con uno spostamento delle righe verso il colore blu o ancor più all’estremità verso il violetto (blue shift); invece una sorgente luminosa che si allontana diminuendo di frequenza emette una luce che allo spettro si evidenzia con uno spostamento delle righe verso il giallo o ancor più a lato verso il rosso (red shift). Quando dunque Hubble nel 1929 notò che la luce emessa dalle galassie lontane si rivela allo spettro con uno spostamento verso il rosso, egli in ciò vide dapprima solo un moto apparente dell’universo (parlò al riguardo di “spostamenti apparenti di velocità”) e cercò di spiegare il fenomeno come dovuto a perdita di frequenza della luce e come indicatore della distanza della sorgente. Infine però – superando le sue esitazioni iniziali – lo interpretò come un effetto Doppler deducendone (come in realtà aveva già fatto H. Weyl) che realmente tutte le galassie sono in moto e che esse si allontanano fra loro e da noi con velocità crescente con la distanza: aggiungendo che, poiché esse mantengono inalterate le loro rispettive distanze relative e proporzionali e considerate le enormi distanze reciproche, allora proprio per questo non ci si avvede di nessun cambiamento e il cielo ci appare sostanzialmente sempre lo stesso nei millenni. In questo modo grazie a siffatta interpretazione dello spostamento verso il rosso Hubble giunse definitivamen291
te, in The Realm of the Nebulae (Il regno delle nebulose, 1936), a ratificare quella che ormai era una incipiente cosmologia, infine accettando la strana ipotesi «che le nebulose stiano fuggendo via a gambe levate». Infatti Einstein, nelle sue Considerazioni cosmologiche sulla teoria della relatività generale del 19176, attraverso le sue equazioni relativistiche del campo gravitazionale aveva definito un universo finito, sferico ed eterno che si mantiene miracolosamente statico e parmenideo attraverso un perfetto bilanciamento fra la forza gravitazionale centripeta tendente al collasso e una supposta opposta forza repulsiva centrifuga detta costante l: ma subito W. de Sitter fece notare l’inverosimilità di un equilibrio instabile perpetuo, reinterpretando le equazioni cosmologiche come compatibili con un universo sferico “vuoto” (cioè curvo ma non curvato dalle masse) e dinamico – con recessione galattica proporzionale alla distanza e conseguente spostamento verso il rosso – in cui la costante l prevale sulla opposta e quasi nulla densità di massa causando un’espansione dello spazio a velocità addirittura superluminale. Quindi nel 1922 A. Friedmann – seguito da Weyl – propose un nuovo modello matematico di universo in espansione, senza usare l e mostrando le equazioni di Einstein teoricamente compatibili con soluzioni dinamiche: se ne ricavò così che con densità W = 1 si avrebbe l’universo miracolosamente statico e improbabile di Einstein con geometria piana, mentre con W > 1 un universo espanso e poi contratto con geometria ellittica; infine la prima possibilità einsteiniana, corrispondente ad un universo statico, venne radicalmente esclusa e (con H. Robertson e A. Walker, 1935) al caso friedmanniano di W > 1 si aggiunse il caso W < 1 corrispondente ad un universo di raggio crescente in espansione con geometria iperbolica, mentre W = 1
venne a corrispondere ad un universo sferico in perenne espansione decrescente. Nel frattempo G. Lemaître nel 1927 aveva concepito un “uovo cosmico” ovvero una sorta di atomo primordiale (atome primitif) grande quanto il sistema solare, dalla cui disintegrazione per esplosione in un bagliore accecante e immane sarebbe nato l’universo in una «évolution en feux d’artifices» con successiva crescita di una sfera de rayon croissant (Lemaître espose diffusamente queste idee nel 1946, in L’Hypothèse de l’atom primitif: Essai de cosmogonie)7. Stante tutto ciò e in base all’interpretazione di Hubble del red shift Einstein, che dapprima aveva rifiutato l’idea di un evento inaugurale («sa troppo di Genesi!», pare abbia esclamato), ripudiò le sue teorie del ’17: così, accettando l’espansione dell’universo, abbandonò come inutile la costante l inventata come espressione di un’ulteriore forza repulsiva ora superflua (ma ormai comunque entrata in uso), e in collaborazione con de Sitter riformulò nel 1932 (nell’articolo On the Relation between the Expansion and the Mean Density of the Universe) le sue equazioni cosmologiche rapportandole a un modello di universo in espansione secondo alcune soluzioni alternative di Friedmann e Robertson-Walker. In questo modo, a partire dalla originaria tesi della recessione galattica, e attraverso la codificazione di G. Gamow8, iniziò a formarsi il primo nucleo di quella che alcuni decenni dopo sarebbe divenuta la teoria del Big Bang, che tanta parte ha avuto e ha nella cosmologia contemporanea costituendo il cosiddetto modello standard ancor oggi imperante, in cui viene incorporata la legge di Hubble per la quale le galassie – mantenendo le proporzioni relative – si allontanano fra loro e da noi con velocità crescente direttamente proporzionale alla distanza.
6 A. Einstein, Kosmologische Betrachtungen zur allgemeinen Relativitätstheorie, 1917, in Sitzungsberichte der Preussischen Akademie der Wissenschaften, Berlin (tr. Considerazioni cosmologiche sulla teoria della relatività generale, in Opere scelte, cit. pp. 361-373).
7 Di G. Lemaître v., in trad. italiana, L’espansione dell’universo, Roma 1967, Il Fuoco. 8 Vedi G. Gamow, The Creation of the Universe, New York 1952, Compass Books (tr. it. La creazione dell’universo, Milano 1956, Mondadori).
292
293
Ci si domanda ora: se è indubbia l’importanza di Hubble nella storia dell’astronomia, è forse con ciò stesso indubbia ogni tesi esposta da Hubble? Tolomeo ha fatto accurate osservazioni, ma aveva forse ragione sul postulato geocentrico? Galileo ha fondato la fisica classica, ma aveva forse ragione sulle comete? Naturalmente ogni scienziato risponderebbe con Popper che le congetture scientifiche sono falsificabili, che le teorie scientifiche sono per definizione provvisorie, ipotetiche, rivedibili e che ogni scienziato può sbagliare. Senonché quanto ammesso anche troppo facilmente in teoria è poi spesso smentito da un atteggiamento pratico dogmatico, sottilmente intollerante e troppo incline ad accettare ossequiosamente i modelli scientifici che l’establishment accademico con i potenti finanziamenti di cui dispone di fatto impone. Ci sia lecito dunque esporre, come faremo nei prossimi capitoli, qualche riflessione e considerazione critica riguardo la legge di Hubble.
III Lo spostamento verso il rosso diversamente interpretato Circa la legge di Hubble vorremmo rilevare che lo spostamento verso il rosso delle righe spettrali impresse dalla luce emanata dalle stelle, la cui interpretazione univoca in termini di effetto Doppler ha portato all’accettazione pressoché incondizionata della teoria dell’espansione dell’universo, sembra invece passibile di altre più plausibili interpretazioni. Se si chiede quali indicazioni circa la sorgente luminosa diano la frequenza e la lunghezza d’onda nonché i colori e i correlati spostamenti delle righe sullo spettro, si dovrà dire: la frequenza, la lunghezza, lo spostamento delle righe e i colori dello spettro sono, per quanto riguarda la sorgente, indici polisemici che rimandano a più cause possibili. In particolare, lo spostamento verso il rosso appare dovuto ad almeno cinque cause diverse, che ora esamineremo. 1) Red shift, chimica della sorgente e campi magnetici Le righe spettrali rivelano anzitutto nell’oggetto osservato e dunque nella sorgente luminosa – stella o galassia – una peculiare costituzione interna. Infatti G. Kirchhoff, analizzando gli elementi degli spettri chimici allora noti, ne concluse che gli elementi potevano essere identificati nettamente dai loro spettri: ogni atomo, ogni elemento o composto, emette una certa lunghezza d’onda sua propria e genera una serie peculiare di righe spettrali; così una riga scura nello spettro solare indica la presenza di quell’elemento chimico che scaldato in laboratorio dà la stessa riga (seppur lievemente spostata) in emissione. In tal modo la spettroscopia, che scompone le componenti della luce nelle sue diverse frequenze risultanti nei vari colori (come già nell’antica esperienza newtoniana che scompone attraverso un prisma un fascio di luce bianca), prima che
294
295
un indicatore di distanza e di velocità è anzitutto uno strumento di indagine chimica: i diversi colori dello spettro corrispondono alle varie sostanze di cui è composta la sorgente (ossigeno, sodio, carbonio etc.) in quanto ogni elemento ha il suo specifico spettro atomico cosicché l’analisi delle righe spettrali indica la particolare struttura del corpo osservato, ne identifica le sostanze chimiche, fornisce informazioni sulla costituzione interna della sorgente.9 Ora, l’idrogeno ionizzato, che è di gran lunga la sostanza più diffusa nell’universo e compone la maggior parte del materiale stellare e anche interstellare, evidenzia allo spettrometro delle righe scure spostate verso il rosso (si ricordi la conferenza di Bohr del 1913 Sullo spettro dell’idrogeno, anche se non riguardava l’idrogeno interstellare): di conseguenza le galassie, composte di stelle e quindi di idrogeno, evidenziano quasi tutte uno spostamento verso il rosso, che è parimenti uno spostamento verso il rosso anche delle altre righe corrispondenti agli altri elementi chimici. Senonché, il fatto che le righe spettrali emesse dalle stelle, corrispondenti ai vari elementi chimici, appaiano spostate verso il rosso – ad esempio il fatto che le righe dell’idrogeno stellare appaiono spostate rispetto alle righe dell’idrogeno terrestre – non depone ancora assolutamente e sempre a favore di un effetto univocamente Doppler. Anzitutto anche i colori dell’arcobaleno rivelano uno spostamento verso il rosso, e in questi casi certamente non si tratta di allontanamento Doppler della sorgente. Parimenti, P. Zeeman nel 1896 scoprì l’influenza di un campo magnetico sul movimento degli atomi in esso esistenti, e dunque sulle righe spettrali, mostrando come per l’azione del campo magnetico le righe spettrali degli atomi si scompongano, a causa dell’alterazione del loro movimento in diverse componenti, in una riga doppia o tripla (doppietto o triplet-
Cfr. G. Herzberg, Atomspektren und Atomstruktur, 1936 (tr. it. Spettri atomici e struttura atomica, Torino 1961, Boringhieri). Spettroscopista di altissimo livello, Herzberg applicò la spettrometria all’astronomia indagando attraverso essa la composizione chimica dei corpi celesti. 9
296
to): così oggi è ben nota l’influenza dei campi magnetici solari che, aggrovigliati dalla rotazione differenziale solare, causano un allargamento delle righe spettrali impresse sullo spettrometro. In certe stelle terminali lo sdoppiamento delle righe spettrali appare particolarmente accentuato: si produce un allargamento delle righe tale che le righe doppie divengono irriconoscibili e appaiono singole. L’universo, in effetti, rigurgita di campi magnetici ed è possibile presumere che essi abbiano un’importanza finora non riconosciuta nella produzione dello spostamento delle righe verso il rosso: se sulla Terra l’idrogeno lascia allo spettrometro un certo segno corrispondente a una data riga dello spettro e poi si trova che una stella lontana lascia una certa riga ulteriormente spostata verso il rosso allora, poiché i due elementi non si trovano sulla stessa lunghezza d’onda diventa difficile dire con certezza che la riga spostata sia lasciata da idrogeno esattamente corrispondente a idrogeno terrestre, in quanto potrebbe trattarsi di idrogeno o di altri elementi spostati di frequenza perché sottoposti a campi magnetici, che possono rallentare la frequenza allungando la lunghezza d’onda. Va inoltre rilevato che la magnetosfera terrestre (si sono ricordate al riguardo le fasce di Van Allen) rallenta le particelle dotate di carica elettrica provenienti dalla sorgente intrappolandole e facendo loro perdere energia, il che significa un allungarsi dell’onda con conseguente impressione di red shift allo spettrometro. Infine anche la densità di una stella, se supera certi valori, può allargarne le righe dello spettro spostandole dalla loro posizione normale, e anche le numerose stelle doppie dell’universo (spesso difficili da riconoscere se lontane da noi e vicine fra loro) possono produrre righe spettroscopiche sdoppiate e dunque spostate quando i loro moti orbitali (che possono durare centinaia di anni) avvengono in direzioni opposte; ancora, le vibrazioni molecolari nella sorgente producono bande di assorbimento spostate nell’infrarosso, rendendo lecita l’ipotesi di bande spostate nel rosso per più lievi vibrazioni. Così per vari motivi alcune righe dello spettro possono spostarsi verso la parte rossa senza che in tutto ciò entri l’effetto Doppler. Ma soprattutto nella produzione di un red shift possono entra297
re in gioco gli isotopi. Come si è detto, ogni elemento stampa sullo spettrometro la sua orma rivelando la sua frequenza e lunghezza d’onda. Ma il punto è che non tutti gli atomi di uno stesso elemento sono perfettamente uguali fra di loro. In realtà gli atomi di uno stesso elemento contengono sì lo stesso numero atomico ovvero lo stesso numero di protoni e di conseguenza lo stesso numero di elettroni (essendo gli elettroni negativi – in un atomo stabile, non ionizzato, di carica neutra – in egual numero dei protoni positivi): ma, nella gran parte dei casi (e sono appunto i cosiddetti isotopi), gli atomi non contengono lo stesso numero di massa (ovvero lo stesso numero di protoni e di neutroni) in quanto cambia il numero dei neutroni nel nucleo. La differenza fra gli isotopi di uno stesso elemento è proprio nel numero di neutroni contenuti nel nucleo. Ad esempio nell’idrogeno non vi sono neutroni, nel deuterio ve n’è uno e nel trizio due: il nucleo dell’atomo di idrogeno ha un solo protone e nessun neutrone (e quindi numero atomico 1 e peso atomico 1), mentre l’isotopo dell’idrogeno detto deuterio ha nel nucleo un protone e un neutrone (numero atomico 1, peso atomico 2) e l’isotopo trizio ha un protone e due neutroni (numero atomico 1 e peso atomico 3); ancora, il nucleo dell’atomo del carbonio ha solitamente sei protoni e sei neutroni (numero atomico 6, peso atomico 12) ma il suo isotopo detto carbonio 14 ha otto neutroni invece di sei (peso atomico 14); l’ossigeno esiste in tre isotopi rispettivamente di peso atomico 16, 17 e 18, l’atomo di neon esiste in due varietà con peso atomico 20 e 22, il torio esiste in dieci varietà di torio con peso atomico variabile fra 232 e 212. In realtà è raro che un elemento chimico presenti il nucleo allo stato puro, con lo stesso numero di protoni e di neutroni, e più spesso un elemento chimico appare in più varianti come miscela di due o più isotopi: in natura sono stati riconosciuti 290 differenti isotopi variamente distribuiti fra tutti gli elementi. Naturalmente, essendo varianti di uno stesso elemento, gli isotopi sono piuttosto simili per quanto riguarda la struttura chimica e le proprietà fisiche: infatti occupano lo stesso posto (dal greco ‡soj e tÒpoj: lo stesso posto) nella tavola degli elementi di Mendelejev. Ma ovviamente, stante che la massa di un ato298
mo è determinata quasi per intero dalla massa del nucleo (protoni e neutroni), ininfluenti essendo i leggerissimi elettroni, allora gli isotopi, avendo un diverso numero neutronico (un numero diverso di neutroni), non possono avere la stessa massa e lo stesso peso atomico rispetto all’elemento considerato base, cosicché atomi di uno stesso elemento possono avere masse atomiche diverse e talora decisamente diverse (infatti quando si parla di massa atomica di un elemento si intende una media fra le diverse masse atomiche degli isotopi di quell’elemento). Ora, precisamente queste differenze di massa fra gli atomi di uno stesso elemento, dovute al diverso numero dei neutroni, provocano i cosiddetti effetti isotopici, ovvero incidono sull’energia cinetica delle molecole e determinano delle variazioni di frequenza e di lunghezza d’onda: se il peso atomico cresce, cresce anche la frequenza d’onda, se diminuisce, diminuisce anche la frequenza d’onda. Queste variazioni di frequenza e di lunghezza d’onda si rivelano allo spettroscopio e, nel caso in cui il peso atomico dell’elemento diminuisca, ne avremo un red shift che nulla ha a che vedere con l’effetto Doppler. Ora, nella sorgente stellare si verificano processi di decadimento per i quali l’elemento si libera di date particelle – protoni, neutroni, elettroni, fotoni, raggi x, raggi gamma – così diminuendo in modo apprezzabile (quando vengono espulsi protoni e neutroni) il suo peso atomico oltre che la frequenza e con ciò provocando un red shift non Doppler. Basti pensare che sulla Terra un elemento radioattivo che emetta una particella a diminuisce il peso atomico al punto da dare origine ad un elemento collocato due posti indietro nel sistema periodico. In tal modo le righe dello spettro, anche nel caso di un loro spostamento, indicano in notevole misura la costituzione chimica della sorgente – o anche del mezzo interposto – e le concomitanti interferenze magnetiche o le variazioni di peso atomico, e solo in secondo luogo un eventuale moto Doppler. Inoltre va considerato che nello spettrogramma di qualsiasi stella vi sono, oltre alle righe spostate verso l’una o l’altra estremità dello spettro, anche righe fisse, stazionarie. Certo quando corrispondono all’ossigeno e all’azoto allora queste righe stazionarie non sono altro che l’impronta del 299
passaggio della luce attraverso la nostra atmosfera, così come vi possono essere anche righe stazionarie, ad esempio del calcio e del sodio, dovute al gas o al mezzo interstellare attraversato dalla luce che dunque dimostrano quali parti del gas siano relativamente immobili rispetto a noi. Però vi possono essere righe stazionarie, ancora corrispondenti al calcio o al sodio, che sembrano proprio provenire dalle stelle a più elevata temperatura, e allora esse dimostrano con ogni probabilità un’immobilità relativa delle stelle rispetto a noi ovvero non un moto Doppler dovuto all’espansione bensì sostanzialmente solo un moto proprio, perché è difficile dire che alcuni elementi chimici della stella siano fermi e altri invece si muovano di moto Doppler rispetto a noi. 2) Red shift e debolezza energetica della sorgente Dobbiamo ora chiederci: di che cosa è indice in prima istanza un redshift o al contrario un blueshift? Come sappiamo a partire da Maxwell e da Planck e dagli studi di Einstein sull’effetto fotoelettrico, la luce viene descritta come un fenomeno particolare di radiazione di onde elettromagnetiche in “pacchetti d’onda” anche detti quanti di luce o fotoni. La frequenza v di oscillazione d’onda è la frequenza periodica di oscillazioni o vibrazioni nel numero delle onde; la lunghezza d’onda l è la lunghezza fra due creste o due avvallamenti successivi ovvero fra due fronti d’onda ed è calcolata dividendo la velocità della luce per la frequenza (l = c/v); la velocità delle onde è data calcolando il rapporto fra la distanza e il tempo intercorrente fra due creste successive. La frequenza d’onda v della particella è direttamente proporzionale all’energia di cui la particella è portatrice, cosicché l’energia aumenta con la frequenza (secondo la formula hv con h costante di Planck), ed è inversamente proporzionale alla lunghezza l per cui essa diminuisce con l’aumento della lunghezza d’onda. Quanto più la frequenza d’onda è alta (quanto più numerose sono le oscillazioni d’onda) tanto più corta è la lunghezza d’onda (fino a giungere – oltre la luce visibile la cui 300
lunghezza d’onda è circa due millesimi di millimetro – all’ultravioletto, ai raggi x e poi ai raggi gamma la cui lunghezza d’onda è inferiore a un miliardesimo di micron: 1 micron = un millesimo di millimetro). Ciò che fa vibrare l’onda è l’intensità dell’energia di cui essa è carica: quanto più un’onda-particella è carica di energia, tanto più vibra: la maggiore frequenza di vibrazione, ovvero il maggior numero di vibrazioni, indica la presenza di un maggior contenuto energetico della radiazione e una più alta quantità di calore che, perturbando la velocità degli atomi essendo il calore connesso a un movimento di particelle, si manifesta con una maggiore pulsazione (sono molti milioni di oscillazioni d’onda al minuto) in uno spazio d’onda minimo. Viceversa quanto più l’onda è lunga e si dilata (quanto più lunghi sono gli intervalli di tempo e spazio fra due creste d’onda) allora tanto più bassa è la frequenza: ovvero alla massima lunghezza d’onda corrisponde un contenuto energetico minimo fino al limite di un’onda lunga ma in certo modo piatta che indica una debole potenza energetica (fino a giungere – oltre la luce visibile – all’infrarosso e ancor più alle onde radio la cui lunghezza d’onda può superare i mille chilometri). È un po’ come il mare: se è agitato le onde sono più frequenti e veloci, mentre quando le onde sono più lente e lunghe allora è piatto e calmo. Dunque: + frequenza e – lunghezza = + energia mentre viceversa – frequenza e + lunghezza = – energia. Come si diceva questi valori corrispondono a vari colori nelle righe dello spettro di emissione della luce. Lo spettrometro è una specie di prisma newtoniano che provocando una rifrazione scompone il fascio di radiazione luminosa incidente (in cui sono sovrapposti fotoni di diverse lunghezze d’onda) deviandone i raggi e separandone le diverse frequenze e lunghezze d’onda e così evidenziandone i rispettivi colori. Le diverse lunghezze d’onda stampano sullo spettro le corrispondenti righe o linee spettrali, che consentono l’identificazione dell’elemento: lo spettrometro capta a terra la piccola parte di radiazione visibile, e cioè le onde luminose con lunghezza d’onda fra 4000 e 8000 angstrom (ovvero fra 0,4 e 0,8 micron). Alle due bande opposte dello spettro vi sono il violetto e il rosso (mentre più ol301
tre vi sono rispettivamente le onde non visibili più corte di 0,4 e più lunghe di 0,8 micron). I fotoni che rivelano un colore rosso possiedono soltanto la metà dell’energia propria dei fotoni che rivelano un colore violetto, e parallelamente l’onda che provoca lo spostamento delle righe verso il rosso ha lunghezza doppia di quella che lascia uno spettro violetto. Così, la frequenza e la lunghezza d’onda nonché i colori e i correlati spostamenti delle righe sullo spettro forniscono indicazioni circa la sorgente luminosa ed attestano la recezione di un quantum energetico. Questo valore energetico è naturalmente connesso alla temperatura perché l’elemento chimico della sorgente lascia la sua impronta, ovvero la sua riga corrispondente ad una data lunghezza d’onda, in quanto riscaldato rispetto al corrispondente elemento terrestre essendo riscaldata la sorgente stellare emissiva. Al riguardo la legge di spostamento di Wien (originariamente riferibile a un corpo nero ma applicabile anche alle stelle) definisce precisamente la proporzione fra la temperatura T di un corpo e la frequenza v del suo spettro di emissione: ai diversi tipi spettrali corrispondono diversi valori della temperatura, in modo che a un’alta temperatura di emissione del corpo corrisponde uno spostamento delle righe spettrali verso frequenze più alte e lunghezze d’onda minime, mentre invece al diminuire della temperatura della sorgente corrispondono frequenze più basse con il crescere della lunghezza d’onda. Per quanto la validità della legge di Wien si fosse in seguito rivelata limitata (poiché mal si applicò alle misurazioni all’infrarosso), essa mantiene comunque il suo valore generale nello stabilire una correlazione fra la temperatura e i valori spettrali. Inoltre il diagramma Hertzsprung-Russell (diagramma HR), ponendo in ascissa la temperatura di superficie delle stelle secondo la classe spettrale con valori decrescenti da sinistra a destra, e in ordinata la loro magnitudine e luminosità, stabilisce tramite le righe spettrali una correlazione fra luminosità e temperatura di superficie delle stelle: così nella cosiddetta Sequenza Principale (Main Sequence) in alto a sinistra si trovano le stelle di maggior massa più calde e luminose e in basso a destra le stelle di massa minore più fredde e meno luminose, men302
tre invece in alto a destra del diagramma si trovano le stelle molto grandi e luminose ma di bassa temperatura come le terminali giganti rosse, e in basso a sinistra le stelle caldissime ma piccolissime e poco luminose come le nane bianche. Poiché le righe degli spettri corrispondono ad onde di determinate lunghezze, e segnano i diversi livelli energetici riscontrabili nei rispettivi atomi, di conseguenza le onde corte ad alta frequenza producono righe che segnano la parte blu dello spettro mentre le onde lunghe a bassa frequenza producono righe nella parte rossa dello spettro: ove in tutto ciò è anzitutto questione di temperatura e di valore energetico della sorgente e solo in secondo luogo di effetto Doppler. Poiché infatti le righe spettrali attestano una frequenza, allora anche il loro spostamento indica anzitutto uno spostamento della lunghezza e della frequenza d’onda. In particolare quando lo spettro subisce l’impressione nel rosso vi saranno necessariamente righe spostate nella parte rossa dello spettro. Nel caso del red shift, come sappiamo, questo spostamento della lunghezza d’onda verso la banda rossa dello spettro indica un allungamento della lunghezza e una diminuzione della frequenza. Tale allungamento della lunghezza d’onda ci dice anzitutto soltanto questo: che viene registrato un certo valore energetico, che generalmente è un valore piuttosto basso. Di conseguenza ciò significa in prima istanza che la sorgente luminosa (nella fattispecie stella o galassia) possiede un intrinseco tasso energetico – in termini di luminosità, temperatura, massa – relativamente modesto: assumendo la lunghezza d’onda come un indice della temperatura e del livello energetico della sorgente a cui è inversamente proporzionale, l’onda sarà tanto più lunga e lo spettro tanto più spostato verso il rosso quanto più la temperatura della fonte energetica è modesta. In tal modo lo spostamento delle righe spettrali, oltre che un rilevatore di distanza, diventa un indice della temperatura della sorgente. Nell’universo vi sono stelle molto grandi e luminose e di altissima temperatura, stelle molto più grandi e più luminose del Sole, con massa anche 40 volte maggiore di quella solare e temperatura superficiale di 30.000 gradi (senza considerare 303
le enormi giganti rosse terminali il cui raggio può essere pari alla distanza Terra-Sole). Però la maggior parte delle stelle è piuttosto simile al Sole che è una stella media. Esso rivela un’emissione prevalente nella parte giallo-verde dello spettro, con un’inflessione di spostamento verso il rosso: si tratta in effetti di una stella, che ha superato la metà del proprio arco vitale (circa dieci miliardi di anni), di potenza energetica piuttosto bassa (con temperatura superficiale di 5700 gradi) e di modeste dimensioni. Così le stelle con massa, luminosità e temperatura piuttosto basse (cioè le stelle medie come il Sole più diffuse nell’universo) tendono a rivelare un tipo spettrale fra il giallo e il rosso. Dunque, poiché la lunghezza d’onda è inversamente proporzionale alla temperatura secondo la legge di Wien e poiché le righe spostate verso il rosso rivelano l’allungamento della lunghezza d’onda, allora lo spostamento verso il rosso sembra indicare anzitutto una temperatura non troppo elevata della fonte stellare: poiché nell’universo abbondano stelle medie come il Sole, e sono piuttosto rare stelle eccezionalmente calde e luminose, e poiché gli spettri delle galassie non sono altro che la somma degli spettri delle singole stelle componenti, allora appare normale che le galassie (tranne quelle vicine o in avvicinamento) rivelino righe spettrali spostate verso il rosso. Lo spostamento verso il rosso esprime così anzitutto la normale temperatura di una stella media. Ma anche il fatto che la radiazione di fondo sussistente nell’universo, su cui torneremo, riveli (e non nell’ottico bensì ancora più in basso nella scala, nel regno delle radioonde) uno spostamento molto forte verso il rosso indica essenzialmente la bassa temperatura sussistente nell’universo e solo in minima parte un Doppler dovuto al moto della Via Lattea. Parimenti lo spostamento verso il rosso sembra anche al contempo indicare, in linea generale, una certa antichità delle stelle: sappiamo infatti al riguardo che (a non parlare della fase terminale delle “giganti rosse” come Betelgeuse) in genere le stelle più vecchie e di modesta temperatura, in cui è ormai iniziato o avviato il processo di raffreddamento (che dovrebbe condurle a morire come “nane bianche”), e che dunque per questo rivelano uno 304
spostamento verso il rosso, dunque le stelle che si formano per prime nella originaria nebulosa roteante sulla base di forze centripete, sono generalmente collocate al centro della galassia, proprio nel nucleo rigonfio (come per primo rilevò W. Baade: vedremo più tardi l’eccezione costituita dalle “galassie di Seyfert”), mentre invece le stelle a spettro blu più giovani e energeticamente più calde e attive (che dopo breve vita dovrebbero implodere come “supernovae”) sono per lo più collocate nel disco, ovvero sui bracci delle galassie dove si formano per ultime. Per quanto riguarda invece le galassie sembra probabile che almeno in linea generale esse si formino come caotiche galassie ellittiche (quando esse non siano la risultante di uno scontro fra due galassie spiraliformi), quindi evolvano come più ordinate galassie a spirale ed infine degenerino nel tempo spesso ritornando all’originaria forma ellittica prima di sciogliersi e dissolversi in sparse nubi di gas. In questo senso le galassie ellittiche possono essere antiche (e cioè galassie spirali degenerate e tornate ellittiche come all’inizio) o giovani (e cioè galassie spirali in fieri), mentre invece per le galassie a spirale dovremmo sempre presupporre una certa antichità, proprio perché già strutturate a forma di spirale dall’originaria forma ellittica in cui sembrano destinate a tornare degenerando: e proprio le galassie più antiche (più generalmente a spirale) appaiono connesse ad uno spostamento verso il rosso sistematicamente elevato. Dunque lo spostamento verso il rosso di stelle e galassie può semplicemente indicare, oltre il basso coefficiente energetico, anche l’antichità delle sorgenti in questione. Appare così chiaro perché le galassie più lontane evidenzino uno spostamento delle righe spettrali verso il rosso: semplicemente perché di tali galassie – viste da molto lontano a distanza di centinaia di milioni di anni luce – è essenzialmente visibile solo il nucleo più denso e compatto ad alta popolazione stellare, e tale nucleo è in genere precisamente la parte originaria e più vecchia della galassia che in quanto tale rivela uno spostamento verso il rosso.
305
3) La luce debole e il red shift gravitazionale della sorgente Le righe spettrali, e in particolare il loro spostamento verso il rosso, non sono solo connesse ad un certo livello energetico della sorgente che ne indica la temperatura e l’antichità, bensì appaiono inoltre connesse a influssi gravitazionali. Abbiamo già visto tutto ciò parlando della modificazione delle frequenze ad opera di un campo gravitazionale prevista e rilevata in base alla teoria della relatività generale: secondo le parole di Einstein «la frequenza della luce assorbita o emessa da un atomo dipende dal potenziale del campo gravitazionale» (Relatività, cit. Appendice 3 §2). In particolare, come mostra appunto la teoria della relatività, un campo gravitazionale rallenta la frequenza dei raggi luminosi: si parla così di redshift gravitazionali. Questo vale anzitutto per il campo gravitazionale delle stelle e per la luce da esse emessa. Come sappiamo, una stella cessa di essere una massa gassosa indistinta quando al centro di essa (nel bulge), con contrazione e “precipitato a vortice” a causa della grande attrazione gravitazionale delle componenti, per l’enorme temperatura raggiunta si innesca un processo di reazione termonucleare ovvero di fusione nucleare (quello che ad esempio non essendo avvenuto per deficit di massa sul pianeta gassoso Giove ne fa una stella mancata e del nostro sistema solare un sistema stellare binario mancato) con conseguente trasformazione dell’idrogeno – gas altamente infiammabile ed esplosivo – in elio. La luce emessa da una stella o da una galassia è sempre naturalmente una luce emessa da una sorgente gravitazionale e dunque tale sorgente, appunto per effetto gravitazionale, provoca nella radiazione emessa un abbassamento della frequenza e un allungamento della lunghezza d’onda (impropriamente definito “rallentamento del tempo”): ove naturalmente proprio questo abbassamento di frequenza e dilatamento di lunghezza d’onda si rivelano allo spettrometro con uno spostamento delle righe verso il rosso. Ciò avviene in quanto la sorgente gravitazionale, che è una forza attrattiva, tende a frenare, a rallentare, a ridurre la frequenza dell’emissione luminosa. Infatti nel nucleo delle stelle si producono 306
raggi gamma ad altissima frequenza e a breve lunghezza d’onda: implicati nelle collisioni più varie e imprigionati dal campo gravitazionale che ne rallenta la velocità di emissione, essi impiegano circa 30 milioni di anni per giungere, sempre meno energetici e ormai trasformati per riduzione di frequenza a raggi x e ultravioletti e infine a luce visibile, alla superficie della stella10. Dunque l’allontanamento dalla sorgente gravitazionale, particolarmente dal suo nucleo centrale ad altissimo coefficiente di densità di massa, comporta sempre una perdita di energia. La radiazione elettromagnetica, sfuggendo a un campo gravitazionale, perde energia: indebolita, la radiazione gamma divenuta luce deve sempre superare e vincere l’opposta forza della sorgente gravitazionale emittente per giungere fino a noi. È un po’ come un corridore che trattenuto per le spalle fatica a correre finché non si svincoli: qualcosa del genere accade anche per la radiazione e la luce. È un po’ come vedere un razzo che parte: dapprima fatica a decollare e si solleva lentamente, ondeggiando quasi stesse per ricadere su se stesso, poi acquista velocità mentre esce dal campo terrestre. Giunti dunque dopo 30 milioni di anni alla superficie della stella i raggi gamma, ormai divenuti per depotenziamento energetico progressivo raggi luminosi, possono finalmente fuggire dalla sorgente. Occorre una certa “velocità di fuga” affinché un corpo si sottragga definitivamente dal campo gravitazionale che lo trattiene senza ricadervi: ad esempio la velocità minima di fuga dalla Terra è circa 40.000 Km/h ovvero 11,23 Km/sec, mentre la velocità di fuga dal Sole è circa 50 volte maggiore essendo 617 Km/sec. Ora è sufficiente confrontare la frequenza della luce emessa dagli atomi soggetti alla gravità solare con quella di atomi simili ma terrestri per 10 Che la trasformazione di un raggio gamma in fotone, e in genere la trasformazione di una particella in un’altra, possa essere soltanto dovuta ad un cambiamento di frequenza della stessa particella è in certo modo conforme all’ipotesi propria della teoria delle stringhe (string theory) per cui le particelle note corrisponderebbero ai diversi modi di vibrazione (non di frequenza) di una stessa “stringa” (dell’ordine della lunghezza di Planck: cento miliardi di volte più piccola di un protone), un po’ come una stessa corda suona diversamente a seconda del punto in cui vibra.
307
vedere che la frequenza delle prime è inferiore a quella delle analoghe onde generate sulla Terra (così come peraltro la frequenza di battito di un orologio sarà minore in prossimità del campo solare che non sulla Terra). Al riguardo va anche ricordata l’ipotesi di E. Finlay Freundlich (Red shift in the spectra of celestial bodies, 1953) secondo la quale i fotoni, appena emessi dalla stella e rallentati dal suo campo gravitazionale, vengono ulteriormente rallentati dalle particelle ad alta temperatura proprie dell’atmosfera circostante la stella. In ogni modo, per le stelle comuni anche a più alta concentrazione di massa gravitazionale, la velocità della luce, essendo quasi 300.000 km/sec, è tale da superare ampiamente la soglia minima svincolante dal cerchio attrattivo: così i raggi gamma, che hanno impiegato 30 milioni di anni per giungere alla superficie del Sole, divenuti infine luce visibile e sfuggendo al campo gravitazionale e liberatisi, possono ora in pochi minuti percorrere centinaia di milioni di chilometri (la luce solare impiega otto minuti per percorrere i 150 milioni di chilometri che distano dalla Terra). Ma v’è qualcos’altro, che Einstein (troppo legato al principio ideale della costanza della velocità della luce nel vuoto) non ha sufficientemente considerato, e cioè che la radiazione progressivamente depotenziata per frequenza non può non essere depotenziata anche in velocità: se anche la velocità originaria dei raggi gamma agenti nel nucleo stellare fosse quella della luce (sempre che non sia superiore), cosicché soltanto i miliardi di collisioni e le attrazioni del densissimo nucleo ne ostacolino e ritardino in milioni di anni il cammino alla superficie della stella, occorre dire che i raggi gamma metamorfosati in luce visibile, dovendo superare l’ultima resistenza del campo gravitazionale per abbandonare la sorgente, non possono non perdere in velocità oltre che in frequenza quanto ceduto al campo gravitazionale. La velocità della luce emessa da una sorgente sarà quindi condizionata dai limiti di partenza, e sarà proporzionale all’energia della sorgente stessa: così la luce emessa dalla Terra viaggerà a 300.000 km/sec meno 11,23 mentre quella emessa dal Sole viaggerà a 300.000 km/sec meno 617. Certo le variazioni sono minime e ininfluenti per piccoli corpi e stelle di modesta mas308
sa gravitazionale, ma non sono nulle: con ciò, il principio proprio della teoria della relatività ristretta della costanza della velocità della luce risulta eliminato addirittura a monte, all’origine stessa dell’emissione della particella dalla sorgente. Il rallentamento gravitazionale della frequenza (e della velocità) della radiazione in emissione dalle stelle è naturalmente tanto maggiore quanto maggiore è la densità e la potenza del campo gravitazionale della sorgente in questione. Questo si verifica con le nane bianche e le stelle di neutroni, che sono stelle collassate la cui massa (fino a 1,4 volte quella solare per le nane bianche) è contratta in minuscoli volumi ad eccezionale densità, cosicché la grande vicinanza delle particelle determina una moltiplicazione esponenziale della potenza gravitazionale secondo la legge dell’inverso del quadrato della distanza. Queste stelle terminali, essendo generatrici di campi gravitazionali molto intensi, provocano nella radiazione emessa rallentamenti di frequenza con conseguenti forti spostamenti gravitazionali verso il rosso. Ad esempio la nana bianca Sirio B, che contrae una massa quasi equivalente a quella solare in un corpo paragonabile a quello di un pianetino il cui raggio è poco più di 5000 km, ha una densità pari a 90.000 volte quella del Sole e una potenza gravitazionale che, alla superficie, è 470.000 volte quella terrestre, con temperatura di superficie di 27.000 °C quasi quintupla di quella solare: per questo Sirio B, per la sua alta densità gravitazionale (cui eventualmente può aggiungersi solo un lievissimo effetto Doppler di allontanamento periodico dal Sole), evidenzia uno spostamento verso il rosso delle righe spettrali che è ben trenta volte quello del Sole. La velocità minima di fuga da questa stella, ben oltre i 617 km/sec del Sole, è di ben 3300 Km/sec e dunque circa un novantesimo della velocità della luce: questo vuol dire che la luce per sfuggire da Sirio B deve fare uno sforzo maggiore, e quindi deve subire un rallentamento maggiore di quanto non avvenga per la luce solare. Ma vi sono nane bianche la cui densità è milioni di volte (e, in un caso, un miliardo di volte) quella del Sole, pari a centinaia di tonnellate per centimetro cubo ove una zolletta di zucchero pesereb309
be tonnellate, con temperature di superficie fino a 100.000 °C e fino a 200.000 °C nel nucleo: in questi casi gli spostamenti gravitazionali verso il rosso sono circa cento volte maggiori di quelli solari, e la velocità di fuga della luce appare ancora più difficoltosa. Invece in una stella di neutroni, in cui una massa che può anche essere il triplo di quella solare viene contratta in un minuscolo corpo ad altissima temperatura (sebbene poco luminoso per la piccolezza) dal diametro di una ventina di chilometri – il che equivarrebbe a comprimere una portaerei in un granello di sabbia –, il campo gravitazionale ad altissima densità, oltre cento miliardi di volte superiore a quello terrestre e pari a milioni di tonnellate per centimetro cubo ove una zolletta di zucchero peserebbe centinaia di milioni di tonnellate, determina uno spostamento verso il rosso che risulta circa del 15%; in queste stelle la velocità di fuga è valutabile in circa 100.000 km/sec, dunque un terzo della velocità della luce, e parimenti un oggetto lasciato cadere sulla sua superficie colpirebbe la stella sempre alla velocità di 100.000 km/sec rilasciando l’energia di una tonnellata di esplosivo ad alto potenziale. Addirittura, in casi estremi, un’eccessiva sorgente gravitazionale può avere implicanze diverse: così quando in una stella in fase terminale la forza gravitazionale diventa enormemente intensa allora la stessa emissione luminosa è non soltanto ostacolata e rallentata bensì totalmente impedita, come nel caso limite costituito dai cosiddetti “buchi neri” che (indirettamente ipotizzabili per i loro effetti gravitazionali su altre stelle) sarebbero invisibili proprio per l’impossibilità dell’emissione luminosa. Infine occorre considerare, per quanto riguarda gli spostamenti gravitazionali verso il rosso, le “galassie di Seyfert” scoperte negli anni quaranta da C. Seyfert che, dotate di “nuclei galattici attivi” e molto luminosi, con altissima energia di raggi gamma e raggi x sprigionano plasmi di materia probabilmente anche a velocità superluminale con conseguenti intensi processi di formazione stellare. Queste galassie, il cui nucleo probabilmente ruota attorno ad un enorme buco nero e che proprio per la grande attività energetica manifestata sembrano essere galassie 310
giovani, rivelano un nucleo blu le cui righe spettrali sono altamente spostate verso il rosso per l’altissimo coefficiente gravitazionale dell’ipotizzato ed enorme buco nero; e ancora più spostate verso il rosso sono le righe spettrali impresse dalle galassie nane o compagne orbitanti rispetto alle prime, che sembrano galassie figlie più giovani partorite per scissione e come per gemmazione dal nucleo delle galassie madri. Un altro esempio particolare di sorgenti gravitazionali ad altissimo red shift che sembrano indicare enormi valori energetici è costituito dai quasar, che saranno discussi più oltre. Nelle nane bianche, nelle stelle di neutroni e nei buchi neri lo spostamento delle righe spettrali verso il rosso indotto dal campo gravitazionale è assai rilevante: anche se le temperature solitamente altissime di queste stelle dovrebbero indurre (per quanto si è detto) un aumento energetico della frequenza d’onda con accorciamento della lunghezza e conseguente spostamento delle righe spettrali verso il blu, l’effetto è del tutto annullato e superato dall’enorme potenza del densissimo campo gravitazionale che determina al contrario una riduzione di frequenza ed un allungamento dell’onda con conseguente spostamento verso il rosso delle righe spettrali. Anche le “galassie di Seyfert” che – in quanto galassie non terminali ma giovani e altamente energetiche – dovrebbero evidenziare nel loro nucleo blu un deciso spostamento delle righe spettrali verso il blu, evidenziano invece un alto spostamento verso il rosso gravitazionalmente indotto. Ma il red shift che si rileva in modo così notevole per le stelle terminali e anche per le galassie di Seyfert vale anche, sia pur in misura decisamente minore, per tutte le stelle “normali” ad alto coefficiente gravitazionale. Così in quasi tutte le stelle (compreso il Sole nella lieve misura di due parti per milione), e come peraltro espressamente previsto dalla teoria einsteiniana della gravitazione, le righe dello spettro sono necessariamente spostate verso il rosso: le righe spettrali avranno frequenza e lunghezza diverse a seconda che provengano da sorgenti ad alta o scarsa concentrazione di massa gravitazionale, ma in ogni caso la presenza di forti masse gravitazionali produrrà uno spostamento verso il 311
rosso tanto più pronunciato quanto più è alto il coefficiente gravitazionale della sorgente. Appare dunque evidente che debba sempre essere attentamente considerata la massa delle stelle, che naturalmente è sempre una massa gravitazionale con una densità data, quale responsabile dello spostamento verso il rosso delle righe spettrali. Sembra infatti che questo red shift gravitazionale sia stato molto sottovalutato in favore dell’effetto Doppler. 4) La luce incostante e il red shift gravitazionale esterno alla sorgente Lo spostamento verso il rosso può anche significare che la sorgente luminosa osservata – stella o galassia – è molto lontana dall’osservatore terrestre in termini di anni luce (considerando come unità di misura il parsec: 1 parsec = 3,26 anni luce; 1 megaparsec = 3,26 milioni di anni luce). In questo caso l’emissione luminosa può apparire fioca e di debole frequenza a causa della grande perdita di energia dovuta alla dispersione di fotoni nella trasmissione attraverso lo spazio. Questa dispersione può essere intrinseca in quanto la luce potrebbe di per sé in base alla peculiare conformazione atomica perdere frequenza ed energia nel suo lungo tragitto interstellare: così (come risulta nel modello atomico di Bohr) le frequenze di emissione sono modificate in proporzione alla differenza fra i raggi delle orbite stante le diverse intensità dei legami elettromagnetici e gravitazionali interni all’atomo; ne consegue che, poiché proprio le vibrazioni dell’atomo determinano l’emissione di un quanto di luce, allora vibrando sempre meno esso rallenta le emissioni luminose. Ma soprattutto la luce perde energia nel tragitto interstellare a causa dell’influenza di mezzi assorbenti, stante l’assorbimento gravitazionale da parte di gas e polveri interstellari e stante le collisioni in cui i fotoni cedono energia a protoni ed elettroni. Infatti naturalmente anche le masse gravitazionali interstellari, proprio come le masse gravitazionali in genere, deflettono la luce. Qui non si tratta (come nel punto 3) di una sorgente gravitazionale come una stella che rallenta la frequenza della propria emissione di lu312
ce, bensì si tratta di masse gravitazionali esterne alla sorgente che, deflettendone la luce, la rallentano provocando nuovamente l’effetto di cui parlava Einstein e cioè un abbassamento della frequenza e un concomitante allungamento della lunghezza d’onda: in tal modo le onde luminose vengono dilatate, stirate, allungate dall’azione delle forze gravitazionali e ciò si rivela allo spettrometro con uno spostamento verso il rosso. Certo, parafrasando il principio di inerzia potremmo dire che in linea di principio il raggio di luce proseguirà sempre nel proprio moto all’infinito a meno che una qualche forza esterna non giunga a interrompere tale moto. Ma il fatto è che, a prescindere da eventuali variazioni interne alla luce nel suo cammino, in realtà sicuramente qualsiasi raggio di luce nell’universo è destinato a incontrare ostacoli. L’universo è pieno di nubi di gas e polvere interstellare, di asteroidi, di particelle, di campi, di materia diffusa ovunque e fortemente opaca che, esercitando una forza gravitazionale, depaupera e “divora” la luce attirando a sé i fotoni che ne sono i portatori. Si parla così di “assorbimento della luce nel mezzo interstellare”: le righe scure, ovvero i vuoti rintracciabili negli spettri stellari, si rivelano allora righe di assorbimento (righe di Fraunhofer) che al contrario delle righe di emissione indicano quanto della luce pervenutaci è stata assorbita e il loro spostamento ci dice il grado di assorbimento e la perdita di frequenza cui è stata sottoposta una radiazione proveniente da una stella. Così, quando la luce emessa da una lontana sorgente incontra una resistenza passando in prossimità di campi gravitazionali più o meno intensi dovuti alla presenza di nubi di gas e polvere o anche di materia non luminosa e dunque oscura e invisibile all’ottico, e in pratica è impossibile che la luce di una galassia distante milioni di anni luce non incontri siffatti campi in tutto il suo tragitto, allora sempre le righe spettrali inclineranno verso il rosso. Sappiamo peraltro che nell’effetto fotoelettrico la radiazione luminosa incidente, investendo certi metalli e percuotendone gli atomi, può strapparne via gli elettroni cedendo loro l’energia con cui essi si svincolano e si liberano (ionizzazione) così generando correnti elettriche, mentre nell’effetto Compton un fo313
tone urtando un elettrone libero ne viene deviato e sempre, mentre ne aumenta la lunghezza d’onda, perde energia cedendola all’elettrone: cosicché il fotone (nell’effetto Compton) perde energia con conseguente spostamento delle righe verso il rosso – detto spostamento Compton – e financo (nell’effetto fotoelettrico) scompare in quanto tale. Le dense, spesse e opache nubi di polvere interstellare (in cui è immersa ogni galassia) provocano inoltre un’alterazione nel colore osservato degli oggetti celesti: precisamente, tale polvere – agendo come una sorta di schermo – tende a trattenere e ad assorbire la radiazione blu e violetta (così come la strato di ozono al di sopra della nostra atmosfera trattiene la radiazione ultravioletta) facendo passare solo quella rossa: dunque è in non piccola misura il mezzo interstellare che causa lo spostamento delle righe spettrali verso il rosso. A questo riguardo oggi sappiamo addirittura che la cattura della luce galattica a causa dell’assorbimento interstellare, più ancora che uno spostamento verso il rosso, produce in molti casi una ancor più bassa radiazione nell’infrared: abbiamo così galassie molto luminose che però emettono luce nell’infrarosso, non perché allontanantesi ma semplicemente perché quasi tutta la loro luce è assorbita dalle nubi di polvere e gas e riemessa nell’infrarosso. In linea generale l’assorbimento di una radiazione intensa produrrà righe di assorbimento verso il blu, mentre l’assorbimento – assai più comune – di una radiazione ormai debole produrrà righe di assorbimento verso il rosso. In tal modo le collisioni in cui i fotoni cedono energia a protoni ed elettroni e l’assorbimento gravitazionale da parte di gas e polveri interstellari comportano una riduzione della luminosità dell’oggetto (con conseguente rischio di valutare l’oggetto stellare, non tenendo conto della dispersione interstellare, come più lontano di quanto non sia): e questo è fra l’altro, checché se ne dica e di contro ad Olbers, il motivo fondamentale per cui il cielo rimane buio di notte. Così la lunghezza d’onda della luce tanto più aumenta quanto più si allontana dalla sorgente: “stirata” e allungata nel percorso, essa risulta alla reception maggiore di quando fu emessa. Le righe del314
lo spettro spostate verso il rosso ci dicono non come è l’onda emessa dalla fonte stellare, ma come è alla fine del tragitto. Per questo dunque la maggior parte delle stelle e delle galassie, essendo lontane e inviando una debole luce, non possono non rivelare uno spostamento verso il rosso: il quale, assai più che la prova della recessione galattica, diventa a questo punto un forte indizio circa l’esistenza nell’universo di un certo coefficiente di masse gravitazionali anche oscure. Come giustamente hanno detto vari fisici poi obliati (F. Zwicky nel 1929, W. Nernst nel 1937, E. Finlay-Freundlich nel 1953), la tired light o luce “stanca” (stanca per assorbimento d’etere secondo Nernst) perde “per strada” gran parte del proprio contenuto energetico: essa diminuisce con il quadrato della distanza (per cui a distanza doppia la luminosità si riduce a un quarto, a distanza tripla a un nono etc.) e vibra sempre meno, cosicché tale perdita di energia si rivela come diminuzione di frequenza e aumento della lunghezza d’onda con conseguente red shift alla rilevazione: la frequenza dei fotoni, semplicemente, diminuisce per assorbimento col tempo e con la distanza (legge di dispersione della radiazione). Come scrisse nel 1954 Finlay-Freundlich: «il red shift cosmologico non è dovuto ad un universo in espansione, ma a una perdita di energia che la luce soffre nelle immense lunghezze di spazio […]. La luce deve essere esposta a un qualche genere di interazione con la materia e la radiazione nello spazio intergalattico» (the cosmological red shift is not due an expanding Universe, but to a loss of energy which light suffers in the immense lengths of space. Thus the light must be exposed to some kind of interaction with matter and radiation in intergalactic space). Lo stesso Hubble, meno sicuro della sua legge di quanto non sia stata la scienza posteriore, guardò con interesse alla teoria della “luce stanca”. Da questo consegue che la velocità della luce, oltre a variare in rapporto al potere limitante della sorgente emittente che tende a trattenerla (come si è visto al punto 3), varia anche in tutto il suo tragitto dall’emittente al ricevente. Essa infatti non può non variare in rapporto alla densità del mezzo: se la luce in un mezzo denso come l’acqua rallenta la velocità, non si può pensare che essa mantenga la 315
Lunghezza d’onda ultracorta (VHF)
Raggi gamma
Onde Corte
Ultravioletti Raggi X
Onde medie
Infrarossi Luce
Onde lunghe Bassa frequenza
Onde radio Microonde
Fig. 2 Onde di radiazione
Spostamento verso il blu
Spostamento verso il rosso
Spettro
Riga di assorbimento
Fig. 3 Relazione fra lunghezza e frequenza d’onda e spostamento delle righe spettrali Lo spostamento delle righe non è in prima istanza un effetto Doppler, bensì è anzitutto in relazione alla frequenza ricevuta sia a causa della potenza energetica della sorgente sia a causa della distanza con conseguente dispersione della radiazione.
stessa velocità sia in un denso mezzo gassoso interstellare sia in spazi relativamente vuoti. La luce viene affetta dall’azione gravitazionale del mezzo interposto e durante il suo tragitto negli spazi, in presenza di un mezzo opponente attrito e resistenza, la velocità delle onde luminose, sempre inversamente proporzionale all’indice di rifrazione del mezzo, viene variamente modificata a seconda dell’indice di rifrazione causato dal mezzo e quindi diminuita e rallentata. E siccome i campi gravitazionali sono ovunque, allora la luce nel tragitto in cui diminuisce per assorbimento perdendo energia perde anche velocità: la luce che noi possiamo vedere è soltanto quella rallentata dai mezzi interstellari. Così a piccole lunghezze d’onda (corrispondenti al blu e al violetto) segue una maggior rifrazione e dunque una maggiore deviazione delle onde con conseguente minor velocità della luce che ne viene maggiormente rallentata, mentre a grandi lunghezze d’onda (corrispondenti al rosso e all’arancione) consegue un minor indice di rifrazione e dunque, con la minore deviazione, una maggiore velocità dei raggi rossi; tuttavia nel proseguimento del tragitto, e nel moltiplicarsi dei mezzi opponenti e delle rifrazioni, le righe emesse dalla luce tenderanno infine verso il rosso: anche per questo la luce proveniente dai centri galattici, ove la densità di materia è maggiore, appare più spostata verso il rosso che non in altri casi. L’aumento della lunghezza d’onda, in questo senso, indica anche il rallentamento della velocità della luce. Così quando leggiamo in un testo di storia della fisica che «le misure terrestri danno sistematicamente un valore della velocità della luce maggiore del valore che si ottiene dai metodi astronomici, e non se ne sa ancora la ragione [corsivo mio]»11, si potrà dire che la ragione sta proprio nel fatto che negli spazi interstellari la velocità della luce viene rallentata rispetto alla velocità terrestre proprio a causa della perdita di frequenza anzitutto dovuta ai fenomeni multipli di assorbimento.
11 M. Gliozzi, Storia della fisica, in AA.VV., Storia delle scienze, Torino 1965, Utet, vol. II p. 219.
316
317
Anche in “dirittura d’arrivo”, quando entra nell’atmosfera e nel campo gravitazionale terrestre, la luce non potrà non risentire di variazioni di velocità. Al riguardo Newton e Hooke ritenevano che la velocità di propagazione della luce fosse maggiore in un corpo più denso: e la cosa non è in sé in tutto sbagliata, come si ritenne, in quanto veramente noi ne avremo un’accelerazione a causa dell’attrazione terrestre e del mezzo come un grave galileiano in caduta. Il punto è però che tale effetto sarà insensibile perché superato dal rallentamento causato dal mezzo più denso dell’atmosfera (come verificò sperimentalmente Fizeau) con conseguente rifrazione e deflessione e ulteriore rallentamento a causa della rotazione dell’atmosfera terrestre. Per questo la luce, quando cade sul terreno, cambia di frequenza (il fenomeno è stato rilevato nell’effetto Mössbauer, 1958): ne deriva uno stiramento dell’onda dovuto alla attrazione esercitata dal campo gravitazionale terrestre con conseguente spostamento verso il rosso delle righe spettrali (tranne nel caso di onde originariamente molto inclinate verso il blu). Naturalmente nessuno scienziato oggi nega l’assorbimento interstellare della luce, un cui grado quantitativamente stimato è anzi fin dai tempi di Olbers normalmente sottratto nelle misurazioni della luminosità apparente delle stelle onde stimarne la luminosità assoluta e la distanza. Si intende però che l’assorbimento interstellare della radiazione emessa dalle sorgenti possa soltanto assorbire singoli quanti lasciando i restanti alla medesima frequenza, come avviene nell’effetto fotoelettrico, e con ciò si avrebbe un assorbimento dicotomico, un aut aut: i fotoni o vengono assorbiti e vanno persi oppure passano del tutto indenni senza perdere frequenza. Ma non ogni fenomeno di assorbimento è spiegabile secondo il modello dell’effetto fotoelettrico e in generale i fotoni non assorbiti, pur non annichilandosi, diminuiranno la frequenza energetica (proprio come avviene nell’effetto Compton): sembra così potersi dire che in realtà il grado di assorbimento interstellare della luce sia attualmente molto sottostimato. Non sembra dunque che lo spostamento verso il rosso vada intepretato solo come un effetto Doppler. Significativi sono al riguardo i dubbi manifestati da Eddington che scrisse: «è anche possibile che 318
l’interpretazione dello spostamento spettrale come dovuto a una velocità di recessione sia erronea» in quanto l’effetto potrebbe essere dovuto a quel «rallentamento delle vibrazioni atomiche» in presenza di campi gravitazionali che la teoria della relatività definisce (come si è visto, impropriamente) come un rallentamento del tempo12. È significativo che Eddington scrivesse queste parole nel 1920, quando era ancora in corso la discussione sull’interpretazione dello spostamento verso il rosso e non si era ancora imposta la “legge di Hubble” che riduceva monoliticamente tale spostamento a un effetto Doppler. Ancora nel 1927, nelle Gifford Lectures, Eddington rifiutò di vedere nel red shift l’effetto di una espansione dell’universo vedendovi piuttosto l’effetto di un indebolimento della luce nel suo lungo percorso13. Ma anche quando, poco dopo, passando alla cosmologia espansionista oltrepassò lo stesso Einstein nel reintrodurre la costante l, Eddington in realtà – pur tacitandolo – udì a lungo la eco di quel dubbio iniziale. Scrisse così in The Expanding Universe: «Ammetto senz’altro la possibilità di errori e di false interpretazioni. […] Tali conclusioni non si possono accettare alla leggera: ed hanno agito con giusto spirito di prudenza coloro che si sono dati a cercare qualche altra interpretazione degli elementi forniti dagli osservatori. […] In fondo, quel che si osserva è uno spostarsi dello spettro nebulare verso il rosso. Questo spostamento è provocato normalmente dall’effetto Doppler di una velocità di allontanamento, allo stesso modo in cui si abbassa la nota del fischio di una locomotiva che si va allontanando; ma si possono anche immaginare altre cause. Lo spostamento verso il rosso significa minor frequenza delle onde luminose e quindi, secondo la teoria dei quanti, minore energia: cosicché, se per una causa qualunque un quanto di luce venisse a perdere parte della sua energia durante il suo viaggio verso di noi, lo spostamento verso il rosso rimarrebbe spiega-
12 A.S. Eddington, Spazio, tempo e gravitazione, cit. p. 206. Vedi M. de Paoli, Arthur Stanley Eddington. Le vie della scienza, in Theoria Motus, cit. pp. 150-163. 13 A.S. Eddington, The Nature of the Physical World, 1927, tr. it. La natura del mondo fisico, Bari 1935, Laterza, p. 196.
319
to senza che fosse necessario aver ricorso alla velocità della sorgente. Così per esempio, la luce che ci viene da un atomo del Sole deve spendere parte della sua energia per liberarsi dall’attrazione gravitazionale dell’astro, e quindi appare leggermente più rossa della luce dell’atomo terrestre corrispondente, che non ha da subir nessuna perdita: è questo il ben noto spostamento verso il rosso, predetto da Einstein». In questo modo «lo spostamento dello spettro verso il rosso malamente interpretato come un effetto della velocità dovrebbe essere proporzionale alla distanza: ed è proprio questa la legge che si è trovata [la correlazione fra red shift e distanza]»: col che il red shift sarebbe dovuto alla distanza ma non ad un effetto cinematico; la legge di Hubble varrebbe al più come un indicatore di distanza, ma non di velocità (del resto si è detto che lo stesso Hubble fu a tratti incline a considerare in tal modo la sua legge). Eddington ricorda poi la teoria di Zwicky, per la quale il red shift non è dovuto all’espansione dello spazio stante che «il vuoto non si muove», bensì è dovuto al fatto che «la luce, per effetto gravitazionale, abbandonerebbe parte della sua energia alle particelle materiali sparse nello spazio intergalattico».14 Ci si può domandare perché Eddington respinga questo suo decennale dubbio, e liquidi frettolosamente la questione limitandosi a dire in quelle stesse pagine che in realtà «nulla permette di giustificare tale supposta perdita [di luce]», da lui ammessa cinque anni prima, e che i calcoli di Zwicky al riguardo sono errati15. E la risposta è presto data: l’adesione incondizionata di Eddington al principio relativistico della costanza della velocità della luce (che pur era un principio da considerarsi comunque solo in un vuoto ideale) gli impediva di ammettere seriamente variazioni di energia del fotone nel suo tragitto. Disposto a smentire con Einstein la propagazione rettilinea della luce ammettendone la curvatura (ma meglio sarebbe dire la rifrazione) in presenza di masse gravitazionali, ed anzi dimostrandola in oc-
14 A.S. Eddington, The Expanding Universe, 1933, tr. it. L’universo in espansione, Bologna 1934, Zanichelli, p. 17, 18, 20, 21. 15 Ivi p. 21.
320
casione della eclisse solare del 1919, Eddington non fu disposto a fare il passo successivo smentendo il principio della costanza della velocità della luce (vero è che Eddington lavorava sui dati offerti da stelle vicine per cui la velocità della luce nel breve tragitto poteva effettivamente risultare costante). Del resto lo stesso Einstein, in un’appendice cosmologica del ’45 a un suo libro sulla relatività del 1922, fu drastico al riguardo. Egli infatti dichiarò impossibile un’interpretazione non Doppler del redshift, in cui esso potesse essere dovuto a una perdita di frequenza della luce durante il percorso, perché ciò… potrebbe negare il principio (o, a questo punto, il dogma) della costanza della velocità della luce: «questo significherebbe che la velocità della luce misurata in un punto dipende dal tempo, il che è in contraddizione con la teoria della relatività speciale»16. Il che ricorda molto la moglie che dice al marito: “o me o lei, scegli!”, ove però non è del tutto chiaro se la scelta migliore sia salvare la fedele costanza di c. Anche quando, ben più recentemente, l’idea della “luce stanca” ricomparve in gruppi marginali di fisici e astronomi (si veda la nuova teoria dei photons fatigués riproposta negli anni Settanta da alcuni fisici parigini, un lavoro di T. Jaakkola del 1983, etc.17), la cosa non venne presa in considerazione dalla comunità scientifica: era ormai troppo imperante il modello espansionistico, e l’assioma sulla luce, perché una simile tesi potesse essere serenamente e criticamente vagliata.18
A. Einstein, Il significato della relatività, cit. p. 119. Per la nuova tired-light theory ricordo P. La Violette, T. van Flandern, P. La Vallée e D. Crawford. Al riguardo con un motore di ricerca si possono leggere su vari siti Internet parecchi articoli in inglese alla voce tired light. Per una critica all’interpretazione del red shift come un Doppler in favore della “luce stanca” v. J.C. Pecker, A.P. Roberts, J.P. Vigier, Non-velocity redshift and photon-photon interactions, in “Nature”, 237, 1972, pp. 227-229. Contro l’ortodossia relativistica, Vigier suppone anche (come si è detto) l’esistenza di velocità superluminali. 18 Un accenno critico che qualifichi come apparente e puramente illusorio in senso parmenideo il moto espansivo dell’universo è però in J. Barbour, The End of Time. The Next Revolution in Physics, 1999, tr. it. La fine del tempo. La rivoluzione fisica prossima ventura, Torino 2003, Einaudi, pp. 260-264. 16 17
321
Viceversa è invece perfettamente possibile dire che se la frequenza è bassa è perché parte dell’energia è andata persa nella trasmissione, cosicché lo spostamento verso il rosso indichi che la sorgente è lontana, distante, e che proprio a causa della grande distanza la luce delle stelle e delle galassie giunge a noi debole e di bassa frequenza. Dunque non diremo: più le galassie sono lontane più velocemente si allontanano da noi cosicché più marcato ne appaia lo spostamento verso il rosso. Diremo piuttosto: più le galassie sono lontane più fievolmente la loro luce giunge a noi donde il loro più marcato spostamento verso il rosso. La distanza è di per sé più che sufficiente a determinare un affievolimento della luce, un allungamento dell’onda e di conseguenza uno spostamento verso il rosso alla rilevazione: come una voce che articolata a pochi passi da noi ci giunge chiara e distinta mentre articolata a distanza ci giunge fioca, così è per la luce. Se siamo su una montagna e una persona ci grida da un’altra montagna, noi sentiremo a malapena la voce giungere a noi: ma non c’è alcun bisogno di pensare che l’altra persona o addirittura la montagna stia ulteriormente allontanandosi di corsa da noi per spiegare il fatto che la sua voce ci giunge affievolita. Per questo la quasi totalità delle galassie, tranne le più vicine, evidenzia uno spostamento verso il rosso dello spettro: esso testimonia appunto una luce debole, fioca, un’energia e una temperatura ormai esausta. Ci dice che la sorgente è lontana, cosicché proprio a causa della grande distanza la luce delle stelle e delle galassie giunge a noi debole e di bassa frequenza. Non v’è bisogno di pensare a un allontanamento delle galassie: risucchiata e depredata, la luce si esaurisce e si perde per strada, e anche per questo fra l’altro (contrariamente a quanto pensava Olbers) il cielo è buio di notte: in questo modo dunque, proprio secondo l’ipotesi del primo Eddington e anche del primo Hubble (e oggi, come vedremo, di Ghosh), la legge di Hubble sembra (parzialmente) valere assai più come indicatore di distanza che non di velocità galattica. Diventa così importante cercare di stabilire la differenza fra l’ignota luminosità assoluta ovvero la potenza emessa della galas322
sia (che può essere notevole) e la nota luminosità apparente ovvero la potenza ricevuta quale appare a noi nello spettro (e che può invece essere scarsa come nello spostamento verso il rosso): la radioastronomia ad esempio può “sentire” radiazioni che sfuggono all’ottico e che però testimoniano circa la reale densità energetica della sorgente. Ma certo l’equiparazione di Hubble per cui spostamento verso il rosso = stella lontana in fuga è riduttiva sia perché postula implicitamente una grandezza e luminosità uniforme delle stelle (e di conseguenza delle galassie che si compongono delle stelle) che invece non sussiste viste le grandi e talora enormi variazioni in proposito, stante che vi sono stelle enormemente più luminose di altre e stante che una galassia che si compone di 100 miliardi di stelle non può emettere la stessa luce totale di una galassia di 300 miliardi di stelle, sia per la non considerazione delle variazioni di velocità della luce con conseguente errata valutazione delle distanze: così una lontana stella molto grande e molto luminosa può sembrare più vicina di quanto non sia, mentre una stella non molto lontana ma piccola e poco luminosa può sembrare più lontana. Dunque il problema della determinazione delle reali distanze astronomiche non è convenientemente risolto nella teoria di Hubble. Per Hubble la luminosità apparente di una sorgente è direttamente proporzionale alla luminosità assoluta e inversamente proporzionale alla distanza, ma il fatto è che di questi tre valori soltanto uno ci è veramente noto (la luminosità apparente), cosicché sembra di avere un’equazione con due incognite. Conoscendo due di questi valori ne ricaveremmo facilmente il terzo, ma conoscendone uno solo diventa difficile la reale determinazione delle distanze, e certamente dire che le stelle con le righe spettrali più spostate verso il rosso siano necessariamente le più lontane non risolve il problema della distanza. Tutto ciò senza considerare che la determinazione delle distanze diventa più difficoltosa ammettendo la sfericità dell’universo in espansione, stante la difficile definizione del grado e del tipo di curvatura che variamente modificherebbe le distanze: di fatto gli astronomi calcolano le distanze in linea retta, come se l’universo fosse piano e 323
per nulla affatto curvo. Da tutto ciò consegue che il postulato della costanza della velocità della luce, originariamente assunto per consentire misurazioni astronomiche valide, sembra invece piuttosto in non piccola misura inficiarle. Noi abbiamo ancora in mente l’idea del raggio di luce divino incorporeo, spirituale e inossidabile con propagazione istantanea e infinita, come quello emanato dall’Angelo della Visitazione negli affreschi del Beato Angelico: ma già i medievali, da Grossatesta a Bacone, distinguevano fra Lux divina e spirituale e lumen fisico e materiale (che così, spogliato di ogni virtù spirituale, poteva essere studiato con mezzi sperimentali e scientifici). In realtà, non possiamo immaginarci un raggio di luce immacolato, purissimo, bello e sfolgorante che parte da Alpha Centauri e giunge a noi altrettanto bello e sfolgorante: i raggi di luce reali non possono attraversare indenni la notte infinita e la materia cosmica degli spazi siderei. Le onde luminose emesse da stelle enormemente lontane non giungono a noi intatte come mamma stella le ha fatte. Al contrario, ne vengono fuori un po’ a brandelli e malconce. In realtà il raggio non giunge mai intatto a destinazione: sembra piuttosto un corridore che giunge sfinito alla meta, dopo aver variamente frenato, accelerato ed essersi spostato qui o là. È quindi lecito discutere il postulato relativistico dell’invarianza e della costanza della velocità della luce (la “costante c”), oltretutto intesa quale tetto invalicabile: in realtà la frequenza e la lunghezza d’onda della luce, ora più ora meno spostate verso il blu o verso il rosso, certamente non sono mai costanti cosicché è difficile che sia costante la velocità che ne è connessa. Ma anche ammesso che la velocità della luce sia una costante nel vuoto, essa non può affatto essere una costante in generale perché l’universo non è affatto sempre e ovunque vuoto e in un campo gravitazionale la velocità della luce non può essere costante. Lo stesso Einstein, che in realtà conosceva bene il rallentamento della luce ad opera di campi gravitazionali, ha pragmaticamente posto nella teoria ristretta il principio della costanza della velocità della luce – che tutt’al più può avere un valore metodologico e valere solo in un vuoto ideale – per garantire 324
con una costante misure oggettive, ma in realtà occorre essere ben consapevoli che la “costante c” è un’idealizzazione che può anche essere fuorviante: non a caso Abraham tentò di reinterpretare la teoria della relatività assumendo la velocità c come una variabile e per nulla affatto come una costante.19 Sembra dunque che la velocità della luce non possa essere veramente una costante. Invero per la fisica moderna e contemporanea la velocità di una particella non ha relazione con la sua energia, cioè non dipende né dalla frequenza né dalla lunghezza d’onda. Le onde radio (avendo una lunghezza d’onda anche cento milioni di volte maggiore) hanno un’energia cento milioni di volte minore dell’energia dei fotoni blu, i fotoni di luce rossa hanno solo la metà dell’energia dei fotoni di luce blu, i fotoni tutti a loro volta hanno un’energia mille volte minore dell’energia dei raggi x che penetrano nel corpo umano, e i raggi x hanno un’energia enormemente minore dei raggi gamma che possono essere schermati solo da spesse pareti protettive di piombo: eppure, nell’equiparazione di Maxwell, tutte le onde elettromagnetiche hanno la stessa velocità che è la velocità della luce a prescindere dalla loro frequenza e lunghezza d’onda, a prescindere dal contenuto energetico di cui esse sono portatrici20. Si vuole così che v = l · f ovvero che la velocità dell’onda equivalga al prodotto della lunghezza d’onda per il numero di oscillazioni di frequenza al secondo (ciò da cui l = c · f e f = c · v), e se ne ricava che il prodotto di questa moltiplicazione non cambia
19 Come abbiamo già visto fra vari altri E. Guillaume (La Théorie de la Relativité et le Temps universel, in “Revue de Métaphysique et de Morale”, XXV, 3, 1918, pp. 285-323) abbandonò il principio einsteiniano della costanza della velocità della luce parimenti sostenendo la compatibilità della teoria della relatività con l’idea di tempo assoluto. Anche P. Dive (Les interpretations physiques de la théorie d’Einstein, Paris 1948, Dunod) contestò il principio della costanza della velocità della luce come postulato infondato e generatore di paradossi. 20 J.C. Maxwell, Treatise on Electricity and Magnetism, Oxford 1873 (tr. it. Trattato di elettricità e magnetismo, 2 voll. Torino 1973, Utet).
325
(ovvero che la velocità d’onda v equivale sempre a c = 300.000 km/sec) in quanto il risultato è invariante se si moltiplica una breve lunghezza d’onda per il corrispondente alto numero di oscillazioni di frequenza o se viceversa si moltiplica una grande lunghezza per il corrispondente basso numero di oscillazioni di frequenza. In effetti è noto che nell’effetto fotoelettrico, in cui la luce incidente espelle elettroni da una superficie metallica, una maggior intensità di luce incidente non determina una maggior velocità degli elettroni espulsi bensì semmai una maggior quantità. Tuttavia appare difficile misconoscere il legame fra velocità e frequenza della radiazione: se la velocità delle onde è il prodotto della lunghezza d’onda per la frequenza (se v = l · f), e se essa è data calcolando il rapporto fra le distanze intercorrenti fra due creste successive e il tempo impiegato a percorrerle, allora diventa difficile dire che le onde luminose di qualsiasi lunghezza d’onda viaggino nel vuoto alla stessa velocità: come può essere che le onde radio lunghe anche centinaia di chilometri, che segnano l’intervallo fra due creste successive, vengano percorse nello stesso tempo e con la stessa velocità con cui si percorrono le due creste successive di un’onda gamma, che distano fra loro non centinaia di chilometri bensì miliardesimi di millimetro? Ad esempio il suono è assai meno veloce della luce visto che per percorrere 340 metri impiega un secondo mentre la luce impiega circa un milionesimo di secondo, ed è meno veloce della luce semplicemente perché ha frequenza più bassa e lunghezza d’onda maggiore, dunque meno energia: e ciò che vale per il rapporto fra suono e luce vale anche per la radiazione elettromagnetica tutta e anche all’interno della luce stessa. Per questo appare possibile attribuire all’onda luminosa più energetica rilevata nel violetto una velocità in sé maggiore dell’onda con minor energia rilevata nel rosso, e infatti nelle “equazioni d’onda” di de Broglie, ove la lunghezza d’onda di un fotone (ma in genere di una particella che de Broglie immaginava pilotata da un’onda guida) equivale alla costante di Planck divisa per la quantità di moto della particella, la lunghezza d’onda evidenziata alla rilevazione è inversamente proporzionale alla velocità della particella stessa a sua volta connessa 326
alla massa. Anche una più alta temperatura (in caso di collisione fra particelle) determina con la maggiore frequenza una piccola lunghezza d’onda e quindi una maggiore velocità. Di conseguenza l’“onda lunga” di scarsa frequenza rilevata al red shift è indice di una minor velocità oltre che di una minima energia della particella-onda, mentre l’“onda breve” di alta frequenza è indice di una maggior velocità oltre che di maggior energia. Per quanto riguarda la luce già Newton diceva che il raggio luminoso è in realtà composto e eterogeneo ed esso oggi ci appare come una mescolanza di onde ciascuna con propria frequenza e lunghezza, a cui corrisponde una data velocità e quindi un dato colore nello spettro (con blu shift per fotoni energici ad alta velocità e red shift per fotoni deboli e più lenti). Così la “velocità della luce” è soltanto una sorta di media fra le velocità delle componenti: si parla infatti (a partire da Rayleigh) di “velocità di gruppo”, ove il gruppo è il fascio luminoso che propaga il segnale, e di “velocità propria” o “velocità di fase” delle singole componenti ovvero delle singole onde che appaiono un po’ come gli atleti che nello stadio corrono su piste concentriche a velocità differenti (come abbiamo già rilevato, può succedere che una singola onda superi momentaneamente in velocità, anche di molto, la velocità della luce che soltanto come velocità complessiva rimarrà al suo valore medio); cosicché se la frequenza anche solo di alcune singole componenti sia rallentata e con ciò la velocità diminuita ne risentirà di conseguenza anche la velocità totale e di gruppo, ciò per cui infine la velocità della luce non risulta una costante. In questo senso le righe spostate verso il rosso testimoniano di fotoni che procedono con bassa velocità. Appare possibile quindi, nonostante le quattro equazioni di Maxwell la cui deduzione logica già a Duhem risultava poco rigorosa, dubitare che la velocità delle onde sia (in sé e non soltanto in un mezzo opponente resistenza) sempre la stessa a prescindere dalla loro frequenza e lunghezza. 5) Red shift Doppler e principio di Mach Dopo aver mostrato come lo spostamento verso il rosso delle 327
frequenze della luce emessa dalle stelle e dalle galassie non possa sempre essere univocamente e unilateralmente interpretato come un effetto Doppler, dobbiamo ora dire che comunque certamente lo spostamento verso il rosso può naturalmente essere anche un effetto Doppler e in tal caso esso certamente può indicare che la sorgente luminosa osservata – stella o galassia – è in moto di allontanamento relativo all’osservatore e dunque rispetto al nostro sistema solare. Senonché anche in questo caso, anche nel caso in cui il red shift sia un Doppler e indichi un moto, occorre andare cauti prima di interpretare l’effetto come prova di recessione della sorgente. Ad esempio, nello spettro della luce di una stella si rileva uno spostamento Doppler di righe spettrali dovuto però non all’allontanamento della stella bensì al continuo movimento (causa l’alta temperatura) delle sue particelle: tale spostamento apparirà essenzialmente verso il rosso perché le particelle, emettendo la radiazione luminosa e i fotoni, subiscono un effetto di rinculo (proprio come un cannone dopo aver sparato un colpo) e dunque di allontanamento che si rivela con un abbassamento della frequenza e un concomitante redshift Doppler che tuttavia non è dovuto ad alcuna espansione dell’universo. E ancora: poiché le galassie tutte ruotano su se stesse, allora può avvenire che anche uno o più dei loro bracci e precisamente quelli che nella rotazione si allontanano da noi, nonostante siano composti per lo più da stelle giovani per cui il loro spettro dovrebbe evidenziare le righe soprattutto nel blu, tendano invece (nel mentre possono essere invisibili i bracci in avvicinamento con blu shift) a rivelare uno spostamento verso il rosso che sarà di tipo Doppler sebbene ciò non significhi che le galassie in questione si allontanino potendo invece esse – nonostante il loro Doppler – mantenere sostanzialmente inalterate le reciproche distanze. In tutti questi casi il red shift non indica un moto della sorgente bensì un moto nella sorgente. In realtà solo in alcuni casi è assolutamente chiaro che lo spostamento delle righe vada interpretato come un Doppler e come un Doppler indicatore di allontanamento della sorgente: ad esempio 328
quando, rivolgendo lo spettroscopio verso i due orli opposti della massa solare, vediamo da un lato alcune righe lievemente spostate verso il blu in modo che inequivocabilmente indica un avvicinamento e dal lato opposto altre righe spostate verso il rosso in modo che altrettanto inequivocabilmente indica un allontanamento, allora non v’è dubbio che questa sia una prova della rotazione assiale del Sole, di cui un lembo si avvicina a noi mentre quello opposto si allontana. Parimenti quando vediamo le righe dello spettro della luce solare spostarsi lievemente verso il rosso per metà dell’anno e altrettanto lievemente verso il violetto per l’altra metà, non v’è dubbio che queste variazioni di frequenza siano un effetto Doppler dovuto al periodico avvicinarsi e allontanarsi della Terra dal Sole durante la rivoluzione annuale, senza considerare la lievissima inflessione verso il rosso della luce solare per via della massa gravitazionale del Sole di cui si è detto. Ancora: quando esaminiamo le righe dello spettro della componente maggiore di una stella doppia come la Delta di Orione, possiamo proprio vedere e per così dire toccare con mano che per tre giorni le righe scure si spostano verso il violetto e poi per tre giorni si spostano verso il rosso, segno inequivocabile che nel suo rapido moto orbitale di stella doppia la stella Delta si avvicina a noi per tre giorni e poi si allontana da noi per altri tre giorni. In tutti questi casi non vi sono dubbi che il blue shift o il red shift vadano interpretati come effetti Doppler e come Doppler indicatori del moto della sorgente: perché noi vediamo proprio le righe spostarsi in atto nel giro di pochi giorni o poche settimane, o addirittura nel giro di poche ore. Ma, a parte il fatto che tutti questi effetti Doppler depongono a favore di un allontanamento (o avvicinamento) parziale e temporaneo di una singola sorgente e non certo di tutte le sorgenti in un universo in espansione, v’è da dire che in tutti gli altri casi, e sono la gran maggioranza, in cui noi vediamo le righe spostate e per nulla affatto spostarsi, l’interpretazione non è più così chiara. Ad esempio, per la teoria dell’espansione dell’universo le stelle della Via Lattea – essendo parte dello stesso sistema – fanno eccezione alla supposta regola e non si allontanano fra loro (come non 329
si allontanano fra loro le stelle interne a qualsiasi altra galassia), eppure quasi tutte le stelle della Via Lattea (e, possiamo ipotizzare, quasi tutte le stelle di ogni altra galassia viste dall’interno) evidenziano uno spostamento verso il rosso che almeno in parte sembra indicare un effetto Doppler cinematico. Naturalmente, proprio perché queste stelle sono interne alla nostra galassia in un parziale stato di reciproca immobilità relativa, non si tratterà certo di un loro definitivo allontanamento assoluto dal Sole: come i pianeti – pur essendo parte del sistema solare di cui condividono il moto rotatorio – non mantengono certo sempre inalterate le distanze reciproche, non solo per le diverse velocità ma anche per le diverse circonferenze delle rispettive orbite che richiedono tempi di percorrenza ben diversi, così le stelle che si muovono intorno al centro galattico in orbite più interne a quella del Sole percorrono un’orbita più piccola e quindi più breve in tal modo lasciando indietro il Sole, donde il loro spostamento verso il rosso, mentre al contrario le stelle che si muovono in orbite esterne al Sole e più lontane dal centro galattico delineano orbite più grandi cosicché esse sono lasciate indietro dal Sole, donde l’apparenza di un loro allontanamento Doppler in senso contrario (da cui, nuovamente, lo spostamento verso il rosso). Inoltre si deve considerare che le stelle della Via Lattea non solo percorrono orbite più strette o più larghe rispetto al Sole, donde il distanziamento e i relativi red shift Doppler, bensì percorrono queste orbite a velocità differenti dovute alla maggiore o minore vicinanza al centro gravitazionale galattico. È vero che queste differenze di velocità non sono molto rilevanti: infatti, contrariamente ai pianeti e in violazione alla legge di Keplero, le stelle periferiche risultano procedere nella Via Lattea (e in ogni altra galassia conosciuta) alla stessa velocità media di quelle centrali, ciò che viene spiegato con ipotetici addensamenti di materia oscura e invisibile accelerante (che comunque sempre genererebbe un red shift questa volta gravitazionale). Ma queste differenze di velocità, pur non essendo molto rilevanti, comunque ci sono in quanto ogni corpo celeste ha la sua velocità specifica in rapporto alla massa e alla distanza dal centro galattico: così se il Sole procede a 240 Km/sec, vi 330
sono nella Via Lattea molte stelle che procedono a circa 220 Km/sec, dunque circa 20 Km/sec in meno, mentre altre stelle (benché più rare) procedono a ben 80 Km/sec in più del Sole e dunque ad oltre 300 Km/sec, cosicché fra due corpi celesti procedenti nello stesso senso basta anche una lieve differenza di velocità per determinare un red shift Doppler di allontanamento ma nella stessa direzione. Dunque un’orbita stellare più stretta o più larga (più centrale o più periferica) rispetto a quella solare e al contempo una variazione anche lieve di velocità nella sua percorrenza possono determinare uno spostamento Doppler verso il rosso nella lunghezza d’onda emessa da quella stella, ma tale spostamento verso il rosso non ci dice certo che la stella in questione si stia allontanando da noi con tutte le altre stelle in direzione opposta: questa stella potrebbe anzi muoversi nella stessa direzione in cui si muove il Sole, e il suo red shift potrebbe semplicemente indicare un distanziamento che tuttavia non è un allontanamento assoluto (proprio come un’auto superata in autostrada “resta indietro” ma certo non procede in senso opposto). Ora, un discorso simile – contrariamente a quanto intende la teoria dell’espansione – vale non solo per le stelle della Via Lattea ma anche per le altre galassie globalmente considerate in rapporto alla Via Lattea, e qui è proprio in questione il fattore velocità che invece è poco rilevante per le stelle interne a ciascuna galassia: infatti ogni galassia ha la sua “velocità propria” e se esse rivelano spostamenti di tipo Doppler verso il rosso ciò può essere dovuto non al fatto che tutte si allontanino da noi e fra loro, bensì più plausibilmente al fatto che alcune di esse si allontanino effettivamente da noi in direzione opposta mentre invece altre procedano secondo la nostra stessa direzione pur essendo tuttavia distanziate dal moto della Via Lattea per le differenti velocità. Infine va soprattutto considerato che, anche ammettendo che il red shift Doppler non indichi mai una medesima direzione di moto con diverse velocità e relativo distanziamento (e sarebbe ammissione veramente ingiustificata) bensì sempre e solo e unicamente un allontanamento in senso opposto, rimane il fatto che l’effetto Dop331
pler indica soltanto un moto relativo che di per sé non ci dice quale fra due corpi si avvicina o si allontana. In altri termini un red shift Doppler galattico potrebbe indicare o che la galassia si allontana dalla Via Lattea, o che la Via Lattea si allontana dalla galassia, o che entrambe le galassie si allontanano fra loro. Dunque il moto galattico potrebbe non essere affatto quel moto univoco di allontanamento reciproco di tutte le galassie previsto dalla legge di Hubble. L’equivoca legge di Hubble impone coattivamente solo l’ipotesi per la quale le galassie vengono allontanate fra loro per via dell’espansione dell’universo, senonché questa è una forzatura teorica e in nessun modo una risultante necessaria del dato osservativo: potrebbe essere benissimo che alcune galassie con red shift tipo Doppler si allontanino da noi, mentre in altri casi sia la “nostra” Via Lattea che si allontana da esse, e in altri casi ancora (ma non in tutti) si tratti di allontanamento reciproco. In questi casi tutto si spiegherebbe perfettamente senza alcun bisogno di supporre un’espansione dell’universo con reciproco allontanamento delle galassie. Anziché avere galassie che tutte si allontanano fra loro, che è ipotesi in fondo arbitraria discendente da un assunto puramente teorico, avremmo per le galassie moti multipli tutti perfettamente compatibili con un spostamento verso il rosso del tipo Doppler. Dunque per vari motivi le stelle e le galassie tendono assai più facilmente ad evidenziare uno spostamento propriamente Doppler – dovuto ad effetto cinematico – delle righe spettrali verso il rosso, senza però che questo effetto cinematico indichi una universale recessione. Al riguardo si possono ricordare le tesi di A. Ghosh21. Partendo dall’assunto newtoniano di un universo infinito, non curvo e statico, e usando equazioni newtoniane (pur con opportune correzioni) senza far uso di equazioni relativistiche, Ghosh applica ed estende
21 A. Ghosh, Origin of inertia. Extended Mach’s principle and cosmological consequences, Montreal, 2000, Apeiron, 2000. Devo la cortese segnalazione al prof. Vittorio Banfi (Centro di Astrodinamica Giuseppe Colombo, Torino).
332
in sede cosmologica il “principio di Mach” secondo alcune indicazioni di D. Sciama22. Come si è già visto tale principio, utilizzato anche da Einstein, abolendo l’inerzia riducendola a gravitazione (al contrario di quanto poi fece Einstein che invece abolì la gravitazione riducendola a inerzia) intende che l’universo tutto eserciti forze gravitazionali apprezzabili anche sulla materia più locale, cosicché il moto inerziale di un corpo sulla Terra sarebbe determinato dall’azione esercitata su tal corpo da tutte le masse, anche le più remote, dell’universo. Al riguardo Ghosh tenta di verificare alcuni casi di “inerzia indotta” (inertial induction) da lontani effetti gravitazionali reinterpretando il rallentamento della rotazione terrestre (secular retardation of the Earth’s rotation) e l’accelerazione del satellite Phobos attorno a Marte (secular acceleration of Phobos) come dovuti non rispettivamente al vicino influsso gravitazionale della Luna sulla Terra e di Marte su Phobos, bensì come dovuti – appunto in ottemperanza al principio di Mach circa la sussistenza di lontani effetti gravitazionali su moti locali – ad effetto gravitazionale indotto dal ben più lontano Sole23. Ma soprattutto appare plausibile l’applicazione cosmologica su più larga scala che Ghosh fa del principio di Mach. Infatti Ghosh utilizza diversamente la legge di Hubble reinterpretandone il red shift più come un indicatore di distanza che non come un Doppler, ponendo (come già nella vecchia ipotesi di Eddington e del primo Hubble) lo spostamento verso il rosso come proporzionale non alla velocità v della sorgente bensì alla distanza r (naturalmente in tal caso ponendo come nullo il tasso h di incremento di velocità dovuto alla pretesa espansione): egli dice così che «l’aumento del red shift è proporzionale alla distanza della sorgente» (the amount of
22 Cfr. D. Sciama, L’unità dell’universo, cit. pp. 78-120. Tuttavia Sciama, a differenza di Ghosh, difende il principio di Mach nel quadro di un’adesione sostanziale al modello cosmologico standard (v. anche Modern Cosmology, 1971, tr. it. Cosmologia moderna, Milano 1973, Mondadori). 23 A. Ghosh, Origin of inertia, cit. pp. 83-100.
333
redshift is proportional to the distance of the source), precisando di considerare «il coefficiente di proporzionalità fra distanza e spostamento verso il rosso (non la velocità!) quando usiamo il termine “costante di Hubble”» (to the coefficient of proportionality between the distance and redshift – not velocity – when we use the terme Hubble constant)24. In tal modo Ghosh ne ricava che nell’universo i moti apparentemente inerziali oppure accelerati delle stelle e delle galassie sono determinati non dall’inverosimile espansione dell’universo con reciproco allontanamento galattico, bensì più logicamente da attrazioni gravitazionali esercitate – stante la «matter present in the rest of universe» – da un effetto di “deriva” o “trascinamento” cosmico (Cosmic Drag) determinato da lontani attrattori e sorgenti gravitazionali costituiti da galassie anche molto lontane. Infatti se nell’universo vi fosse un solo corpo celeste allora questo sarebbe immobile o al più ruoterebbe solo su se stesso per via dei campi magnetici, cosicché evidentemente le galassie sono in moto nell’universo perché variamente attratte da altre galassie e sorgenti gravitazionali e non perché portate a spasso dallo spazio in espansione. Queste sorgenti gravitazionali anzitutto «cause the redshifting of photons»: infatti esse rallentano la frequenza della luce in arrivo, poiché «a photon suffers a lass of energy as it travels through space»25, così producendo il fenomeno della tired light o “luce stanca” (non a caso il libro di Ghosh è dedicato al citato Jaakkola, che negli anni ottanta ripropose la teoria della luce stanca). Particolarmente convincente appare la spiegazione di Ghosh delle eccessive velocità delle stelle periferiche, spesso rivelato dal loro red shift Doppler26. Come si è visto, noi rileviamo per le stelle
24 Ivi, cit. p. 52 e 53. Cfr. p. 120-121: «the observed redshift is an indicator [...] of the distance rather than the recessional velocity of a galaxy»; «it is reasonable to assume that a major fraction of the redshift is an indicator of distance rather than velocity». 25 Ivi pp. 122-123. 26 Ivi pp. 111-122.
334
all’interno delle galassie una velocità media sostanzialmente uguale indipendentemente dal fatto che esse orbitino nei pressi del centro galattico o alla sua estrema periferia, senonché tali elevate velocità delle stelle – compatibili per le orbite più interne e centrali – sono per le orbite periferiche in totale contraddizione con la terza legge di Keplero e la legge di gravitazione newtoniana per le quali la velocità orbitale di una stella dovrebbe decrescere con l’aumento della sua distanza dal centro gravitazionale galattico, proprio come nel sistema solare Saturno lontano dal Sole è ben più lento del vicino Mercurio (ad esempio il Sole si muove a 240 Km/sec mentre per la distanza dal centro galattico la sua velocità dovrebbe essere 180 Km/sec). Come si è accennato, per spiegare il fenomeno senza sacrificare le leggi di Keplero e di Newton è stato ipotizzato un grande “alone oscuro” di materia invisibile (su cui si tornerà più ampiamente in seguito) che, nascosta alla periferia delle galassie, ne accelererebbe i sistemi stellari periferici così spiegandone le eccessive velocità. Ma la spiegazione assai più convincente di Ghosh, in base all’applicazione cosmologica del principio di Mach, è che l’eccessiva velocità delle stelle periferiche sia un effetto mareale ovvero un’accelerazione indotta dall’attrazione gravitazionale delle galassie circostanti, che opererebbe a quelle distanze secondo una lieve variazione rispetto alla legge newtoniana dell’inverso del quadrato (come si è accennato, una correzione dei coefficienti gravitazionali newtoniani – ma anche einsteiniani – è stata proposta anche da Milgrom). In effetti nell’immagine di una galassia a spirale appare evidente il moto centrifugo dei bracci periferici: e siccome il nucleo rotante non può avere la forza di scagliare lontano le stelle dei bracci, mantenendo costante nella trasmissione il proprio momento angolare, allora per Ghosh tale moto sarà causato dalle galassie vicine che tendono a strappare le stelle periferiche dalla galassia di appartenenza. In questo modo si spiegherebbe anche perché al contrario nel sistema solare i corpi più esterni come Plutone si muovano più lentamente, a differenza delle veloci stelle periferiche delle galassie: infatti le galassie (solitamente associate in ammassi separati da grandi vuoti) sono spesso poste a distanze relativamente piccole non di 335
rado di pochi milioni di anni luce o ancor meno (ad esempio la galassia M33 dista da Andromeda solo 570.000 anni luce, Andromeda dista dalla Via Lattea due milioni di anni luce, le Nubi di Magellano – che sono piccole galassie – ne distano solo 180.000 anni luce, la nebulosa di Orione 1900 anni luce, l’ammasso di Perseo 7400 anni luce); invece le stelle all’interno delle galassie (ad eccezione delle stelle doppie che però nascono da una stessa nube in contrazione) sono per lo più lontanissime fra loro, come arance poste a centinaia di chilometri di distanza (ad esempio la stella più vicina al Sole, Proxima Centauri, che ovviamente ha le dimensioni di un granello rispetto a una galassia, dista ben quattro anni luce). Dunque una galassia distante da un’altra qualche milione di anni luce (o anche meno) è in realtà molto vicina a quest’ultima (se consideriamo sia le dimensioni di una galassia media con duecento miliardi di stelle dal diametro di 100.000 anni luce sia la sua grande capacità di attrazione gravitazionale), assai più vicina di quanto una stella sia vicina ad un’altra stella distante qualche anno luce (poiché le due stelle saranno come due granellini spersi nello spazio e praticamente privi di attrazione gravitazionale). Una stella distante da un’altra quattro anni luce praticamente non risentirà di nessun influsso gravitazionale, mentre ne risentirà decisamente una galassia distante da un’altra quattro milioni di anni luce. Di conseguenza le stelle periferiche delle galassie possono essere gravitazionalmente attratte e accelerate dalle galassie vicine mentre i pianeti esterni del sistema solare non sono sostanzialmente né attratti né accelerati da altre stelle troppo lontane donde la loro bassa velocità: infatti le galassie sono spesso portate a collidere dalla reciproca attrazione gravitazionale mentre invece le collisioni stellari sono (ad eccezione dei sistemi binari e dei centri degli ammassi ad altissima densità) statisticamente quasi impossibili. L’ipotesi di Ghosh – che qui abbiamo anche cercato di motivare nel difenderla – sembra molto plausibile e assai più convincente dell’ipotesi della inverificata e inverificabile “materia oscura” invisibile. Ma quanto va qui anzitutto rilevato è che comunque, sia che l’eccessiva velocità delle stelle periferiche nelle galassie venga spiegata 336
con l’attrazione gravitazionale della ipotizzata materia oscura sia che venga spiegata con l’attrazione gravitazionale delle galassie lontane, in ogni modo lo spostamento verso il rosso delle righe spesso emesse dalle stelle periferiche – nonostante siano per lo più stelle giovani a nucleo blu – sarebbe o un classico red shift gravitazionale senza alcun Doppler (se si trattasse di materia oscura) oppure un red shift gravitazionale a cui si aggiunge un Doppler (se si tratta di moto di allontanamento indotto da lontani attrattori gravitazionali) che però non indica alcuna espansione dell’universo (detto per inciso, quest’ultimo caso è assai più probabile del primo in quanto il red shift delle stelle periferiche nelle galassie è in media sufficientemente alto da far pensare non solo ad un effetto gravitazionale bensì ad un effetto congiunto gravitazionale e cinematico). Parimenti in base alle tesi di Ghosh sembra trovare una plausibile spiegazione l’osservata piccola accelerazione dei satelliti artificiali Pioneer su lunghe distanze, ben oltre Saturno27: essi accelererebbero una volta entrati nell’influenza di un lontano campo gravitazionale. Ghosh conclude la sua ricerca scrivendo che «lo spostamento gravitazionale verso il rosso non è prodotto da nessuna espansione dell’universo iniziata dal Big Bang, ma è generato da un effetto di trascinamento cosmico gravitazionale» (the cosmological redshift is not produced by any expansion of the universe started in a Big Bang, but it is generated by the cosmic gravitational drag).28 Un solo rilievo vorremmo fare a Ghosh. Vorremmo cioè dire che il “principio di Mach” va maneggiato con cautela perché se preso alla lettera e unilateralmente sembra condurre a conclusioni inverosimili: già si è detto difficile credere davvero (come si dovrebbe in base ad un’interpretazione letterale del principio) che le galassie partecipino significativamente al movimento inerziale dei pas-
27 Cfr. E. Novati, La strana accelerazione dei Pioneer e Inspiegata l’accelerazione dei Pioneer, in “L’astronomia”, Milano, rispettivamente dicembre 1998 p. 16 e febbraio 2000 pp. 15-16. 28 A. Ghosh, Origin of inertia, cit. p. 135.
337
seggeri di un autobus in frenata attirandoli in avanti; ora, entrando più nello specifico, non sapremmo se le conclusioni di Ghosh sul rallentamento della rotazione terrestre o sull’accelerazione di Phobos, che considerano poco rilevanti le più vicine azioni gravitazionali della Luna sulla Terra e di Marte sul suo satellite in favore di più lontane azioni gravitazionali, siano in tutto esatte. Probabilmente, ridurre integralmente e senza residui l’inerzia centrifuga ad una accelerazione indotta da una lontana sorgente gravitazionale sembra eccessivo. Così è un buon contributo dire che molte galassie manifestino attraverso i tipici bracci a spirale evidenze di allontanamento dei sistemi stellari periferici dal nucleo galattico anche perché attratte gravitazionalmente dalle galassie vicine e circostanti, senza però che sia necessario negare (come sembra implicitamente fare Ghosh) che fin dall’origine e ab initio il moto rotatorio di tutta la galassia (e dunque non innescato dal bulge) di per sé possa generare un moto centrifugo. Si tratta insomma di capire che un fenomeno può essere prodotto non sempre da una causa sola, ma anche da un concorso di cause. In ogni modo, possibili critiche a parte, resta indubbio l’interesse delle tesi di Ghosh in quanto esse (ricondotte al loro nocciolo essenziale) consentono una significativa spiegazione del red shift cosmologico senza chiamare in causa l’inverosimile espansione dell’universo. Siamo infatti profondamente stanchi dei soliti libri sull’espansione dei vari Bonnor, Weinberg, Rees, e chi più ne ha più ne metta (anche Davies e Barrow si lasciano troppo incantare dalla sirena espansionista), ciò per cui accogliamo volentieri un po’ di aria fresca. Infine, vogliamo dire: ammettiamo pure che il red shift galattico sia solo e soltanto un Doppler, e che esso debba intendersi nel senso ulteriormente restrittivo per cui tutte le galassie (tranne le poche vicine e in avvicinamento) si allontanino da noi, cosicché parimenti da ogni altra galassia si vedrebbero quasi tutte le altre galassie in allontanamento. Ebbene, diremmo allora che in ciò non vi sarebbe nulla di strano, certamente non da richiedere l’inverosimile espansione dell’universo quale spiegazione. Infatti, per un banalissimo 338
calcolo delle probabilità e in considerazione delle enormi distanze stellari, è del tutto normale e logico che la gran parte delle galassie si allontani da noi (come peraltro da qualsiasi altra galassia dell’universo), a meno di non ritenerci così importanti da credere che quasi tutte le galassie dell’universo ce l’abbiano con noi e stiano per piombarci addosso. Oserei dire che necessariamente per ogni galassia vi sia negli anni luce intorno solo qualche galassia vicina o in avvicinamento, e la gran parte delle altre in allontanamento. Precisamente le poche galassie in avvicinamento alla “nostra” Via Lattea (come Andromeda) saranno naturalmente e ovviamente quelle nei dintorni, perché gravitazionalmente attratte dalla stessa Via Lattea, mentre tutte le altre lontane o lontanissime non si dirigono verso la Via Lattea semplicemente perché non ne sono gravitazionalmente attratte essendo piuttosto attratte da altre sorgenti ad esse più vicine. Siccome le galassie non stanno ferme nell’universo, allora naturalmente tutte quelle che non si avvicinano si allontanano verso altri attrattori. Anziché dunque trovare strano che la gran parte delle galassie si allontani da noi, dovremmo piuttosto domandarci perché mai esse dovrebbero avvicinarsi a quel minuscolo punto dell’universo costituito dalla Via Lattea (come peraltro a qualsiasi altro minuscolo punto dell’universo). Sarebbe come se una particella in una bombola di gas si domandasse perché non tutte le altre particelle vengano a collidere con essa. Invece, sarebbe ben più strano se tutte le galassie si avvicinassero a noi come se fossimo il centro dell’universo, no? Dunque che molte galassie si allontanino da noi non è affatto cosa così strana da richiedere uno spazio in espansione per spiegarla. Certo si obietterà che galassie, pur lontanissime, possono tuttavia muoversi verso la nostra direzione pur senza essere affatto attratte dalla Via Lattea: tuttavia tali galassie (che statisticamente dovrebbero essere il 50% del totale) non produrranno un blue shift perché, per tutti i motivi detti e soprattutto per la dispersione della radiazione luminosa nelle enormi distanze, questo avvicinamento da tali distanze sarà ininfluente nella produzione del blue shift. In base a quanto detto si deduce ora logicamente questo: a parti339
re da Hubble lo spostamento verso il rosso evidenziato dalla gran parte delle galassie dell’universo (ma comunque non da tutte) è stato interpretato unilateralmente solo e comunque e soltanto come un effetto Doppler in modo tale da confermare la teoria dell’espansione dell’universo, senonché questo non sembra affatto rispondente. Infatti l’interpretazione dello spostamento verso il rosso come un effetto Doppler non è la sola possibile. In realtà la frequenza della luce e in particolare il suo abbassamento, nonché l’allungamento della lunghezza d’onda, non dipendono sempre e soltanto dallo spostamento della sorgente bensì piuttosto da un pool di fattori, parte interni alla costituzione fisica della sorgente e parte relativi alla distanza rispetto all’osservatore: lo spostamento verso il rosso è in realtà un indice polisemico che può significare più cause, fra cui “anche” un eventuale spostamento della sorgente. Infatti lo spostamento verso il rosso ci dice soltanto che noi riceviamo poca luce e bassa frequenza: poi sta a noi capire perché questo avvenga. Ora le diverse possibili spiegazioni sopra esposte dello spostamento verso il rosso delle stelle e delle galassie (costituzione chimica, campi magnetici, densità, antichità, temperatura, campo gravitazionale interno o esterno alla sorgente anche con riferimento al principio di Mach, rallentamento anche intrinseco della luce, maggior assorbimento della radiazione violetta rispetto a quella rossa, effetto Doppler non ridotto a fuga della sorgente) evitano la spiegazione riduzionista e univoca in termini di effetto Doppler, per di più inteso in senso alquanto restrittivo, in favore di una molteplicità di cause. Occorre anzi insistere sulla molteplicità e non univocità delle cause, perché in genere nessuna causa singola isolatamente considerata (tantomeno il Doppler di fuga) sembra spiegare adeguatamente il red shift evidenziato dalla maggior parte delle stelle e delle galassie. Ad esempio è vero che il campo gravitazionale della stella e la materia interstellare nello spazio in genere (tranne nel caso di stelle terminali: nane bianche, stelle di neutroni, buchi neri) determinano rispettivamente solo un piccolo spostamento delle righe spettrali verso il rosso, mentre invece il redshift osservato è solitamente maggiore: l’effetto Doppler relativistico implica soltanto una 340
lieve correzione che, in aggiunta all’effetto Doppler classico, consideri anche l’incidenza dei campi gravitazionali nel produrre ulteriori incrementi di red shift, ciò per cui è stata respinta (piuttosto frettolosamente) l’interpretazione del redshift in termini di effetto gravitazionale e di “luce stanca” in favore dell’effetto Doppler. Ed è anche vero che l’idrogeno stellare evidenzia uno spostamento verso il rosso maggiore del corrispondente idrogeno terrestre, ciò che può far pensare a un Doppler supplettivo. Tuttavia, senza escludere la possibilità di sottostime numeriche di altri tipi non Doppler di red shift ma soprattutto rinunciando alla pretesa di rintracciare una causa univoca per una fenomenologia complessa, occorre considerare l’effetto congiunto di queste spiegazioni alternative, che sono fra loro complementari e non mutuamente escludentesi: e l’effetto congiunto potrà determinare il più alto valore del redshift risultante alle osservazioni. Tutto ciò senza chiamare in causa l’effetto Doppler che comunque, come si è visto, può esso stesso essere interpretato senza presupporre necessariamente l’allontanamento reciproco delle galassie. Solo così, attraverso una spiegazione multipla e non univoca della fenomenologia osservata, si può rendere pienamente conto di due fatti: il primo, che la maggior parte delle stelle della galassia in cui siamo immersi, che certo non si allontanano da noi visto che appunto ne siamo immersi, rivelano comunque uno spostamento verso il rosso, evidentemente non solo Doppler e sicuramente non Doppler di fuga; il secondo, che stelle chiaramente appartenenti alla stessa galassia o galassie chiaramente appartenenti a uno stesso gruppo, dunque tutte praticamente poste alla stessa distanza da noi in termini di anni luce, evidenziano spostamenti verso il rosso assai diversi fra loro. Ad esempio due galassie (“galassie binarie”), gravitazionalmente legate fra loro, possono rivelare l’una uno spostamento verso il rosso molto maggiore dell’altra, e in generale in un sistema galattico le galassie nane e compagne rivelano un red shift maggiore della galassia principale. Così ad esempio la galassia NGC 1232 viaggerebbe a 1776 Km/sec mentre due piccole galassie che appaiono ad essa associate, interpretandone il red shift come un 341
Doppler, sarebbero invece lontanissime e viaggerebbero l’una a 7000 Km/sec e l’altra a 28.000 Km/sec: e come possono galassie associate da un filamento di materia viaggiare l’una a 7000 e l’altra a 28.000 Km/sec? Qui si vede bene che in questi casi lo spostamento verso il rosso non vale come indicatore di allontanamento (e nemmeno di distanza): perché se così fosse queste stelle e galassie, tutte poste praticamente alla stessa distanza rispetto a noi, in base alla legge di Hubble dovrebbero rivelare un redshift dello stesso tipo e non redshift così diversi. Su questi problemi si tornerà fra breve a proposito dei quasar. Per ora, circa la legge di Hubble, vogliamo ricordare che lo stesso Hubble (assai meno incline al dogmatismo di quanto non sia stata la cosmologia successiva), come ebbe dei dubbi sulla sua legge prima del ’29, così li ebbe anche molto più tardi. Scrisse infatti Hubble, nel 1947: «It seems likely that redshift may not be due to an expanding Universe, and much of the speculations on the structure of the universe may require reexamination».
342
IV Le galassie in eccesso di velocità e gli effetti relativistici Rispetto a tutta l’analisi precedente, volta a enucleare possibili interpretazioni alternative al Doppler dello spostamento verso il rosso, financo reinterpretando lo stesso Doppler quale indizio di non recessione assoluta, si potrebbe domandare perché rifiutare l’interpretazione canonica che vede nel red shift la prova dell’espansione dell’universo. In effetti, il fatto che si possano dare altre interpretazioni del red shift di per sé non garantisce che siano quelle giuste così come non esclude l’interpretazione canonica in chiave Doppler né la smentisce. Senonché, ciò che rende alquanto plausibile per non dire necessario e imprescindibile il riferimento alle interpretazioni alternative del red shift è anzitutto la debolezza intrinseca e la contraddittorietà della legge di Hubble, che coerentemente applicata conduce a risultanze paradossali e assurde. Questo vale anzitutto per il problema della velocità crescente stabilita dalla legge di Hubble. Come sappiamo la legge di Hubble non dice solo che le galassie si allontanano fra loro nello spazio, bensì dice anche che la loro velocità cresce sempre più con la distanza e che è proporzionale alla distanza: il che in altri termini vuol dire che quanto più le galassie sono distanti tanto più velocemente si allontanano, e che le galassie più distanti debbono necessariamente essere le più veloci. Hubble è giunto a questa conclusione in modo in fondo piuttosto semplice. Interpretando il blue shift come un Doppler in avvicinamento e il red shift come un Doppler in allontanamento, e vedendo che solitamente le galassie più vicine come Andromeda evidenziano un blue shift e quelle più lontane un red shift, ha detto: c’è un allontanamento di galassie nello spazio, ma questo allontanamento diventa significativo e sempre crescente solo col crescere della distanza. Hubble ha espresso questa tesi secondo la nota formula (1929) per la quale v = H · r con v = velocità della galassia, r = distanza della galassia, 343
H = costante di Hubble che è il tasso di incremento di velocità della galassia. Così gli astronomi possono ad esempio calcolare che una galassia che, in base alla legge di Hubble e alla quantificazione del red shift come un Doppler, risulti in fuga a 1000 Km/sec a una distanza di circa 50 milioni di anni luce si allontanerà a 2000 Km/sec alla distanza di 100 milioni di anni luce, e così via sempre con distanza doppia – velocità doppia. Ma allora si pongono alcuni problemi: vediamoli. Moti propri e moti impropri I valori di Hubble pretendono una velocità crescente con la distanza secondo un preciso rapporto matematico. Ma se così fosse allora a un certo momento la galassia, raddoppiando sempre più la velocità con il raddoppiamento della distanza per l’assioma distanza doppia – velocità doppia, finirebbe per raggiungere velocità incredibili e financo superare la velocità della luce: infatti una galassia distante per ipotesi 1 milione di anni luce che viaggi anche solo a 50 Km/sec (manteniamoci pure molto molto stretti) viaggerà a 100 Km/sec a 2 milioni di anni luce, cosicché a 128 milioni di anni luce viaggerà a 6.400 Km/sec: ma allora essa ben prima di arrivare alla distanza di 20 miliardi di anni luce dovrebbe già avere superato la velocità della luce che è 299.793 Km/sec. Il problema si poneva già per Hubble, che (come si è detto) prima di porre la sua “legge” era restio ad ammettere simili velocità per le galassie e parlava di «velocità apparenti» attribuendo in un primo tempo il red shift alla perdita di energia dei fotoni nel tragitto negli spazi cosmici; ma mentre al tempo di Hubble i telescopi più potenti non arrivavano che a 150 milioni di anni luce, oggi invece giungono a distanze cento volte maggiori, cosicché il problema delle velocità a tali distanze diventa veramente serio. Eddington aveva previsto che le distanze e dunque le velocità sarebbero ben presto apparse molto maggiori, e si grattava preoccupato il capo: «la velocità di allontanamento corrispondente a tali distanze di344
venterebbe molto prossima a quella della luce, e questo è un affare che merita esame».29 In effetti la ricerca condotta negli ultimi decenni conduce a dati paradossali: la galassia Virgo, che risulta distante 78 milioni di anni luce (= 16 megaparsec), in base alla legge di Hubble dovrebbe procedere a 1200 Km/sec, e fin qui va forse ancora bene; ma già Ursa Major, distante un miliardo di anni luce (= 200 Mpc), dovrebbe procedere a 15.000 Km/sec; Corona Borealis, distante 1,4 miliardi di anni luce (= 300 Mpc), dovrebbe viaggiare a 22.000 Km/sec; Bootes, distante 2,5 miliardi di anni luce (= 500 Mpc), andrebbe a 39.000 Km/sec; Hydra, distante 3,96 miliardi di anni luce (= 800 Mpc), andrebbe a 61.000 Km/sec; e l’ultima e più lontana galassia scoperta (nel 1998), distante 13 miliardi di anni luce, viaggerebbe al 95,6% della velocità della luce. Di conseguenza se si scoprisse una galassia posta a una trentina di miliardi di anni luce essa supererebbe di gran lunga la velocità della luce, senza dire – per ora – dei quasar, sconosciuti negli anni ’30 e per cui i sostenitori del modello standard ipotizzano velocità crescenti a partire da un minimo di 100.000 Km/sec per 15 miliardi di anni luce di distanza, con conseguente avvicinamento crescente e infine superamento della velocità della luce (vi torneremo). Ora (senza scomodare il fatto che per la teoria della relatività la velocità della luce costituisce un limite massimo invalicabile, poiché in realtà si è visto che anche questo è discutibile), ci si chiede se e come siano concepibili galassie che viaggiano quasi alla velocità della luce o addirittura a velocità superluminali, quando gli scienziati contemporanei faticano ad ammettere una simile velocità per alcuni tipi di particelle che invece sembrano proprio richiederla. Certo si potrebbe sempre dire che quando le galassie si avvicinano alla velocità della luce allora l’espansione, rispettosa dei limiti di velocità, si ferma: ma insomma, l’argomento sarebbe un po’ ad hoc e comunque in base alla legge di Hubble le velocità galattiche, anche senza superare la velocità della luce, risultano così alte da apparire inverosimili. 29
A.S. Eddington, L’universo in espansione, cit. p. 33.
345
Oltretutto se una galassia veramente viaggiasse a tali altissime velocità, addirittura paragonabili alla velocità della luce (o anche “solo” a un terzo di tale velocità), allora – poiché secondo Doppler il colore della luce delle stelle viene modificato dalla loro velocità – tale velocità dovrebbe rendersi visibile non soltanto con uno spostamento delle righe spettrali verso il rosso perché in tal caso l’intero spettro dovrebbe colorarsi di rosso: addirittura la stella dovrebbe proprio mostrare un bel color rosso vivace e non semplicemente uno spostamento vulgaris di righe spettrali verso il rosso. Ci si domanda inoltre che ne sarebbe di galassie a velocità prossime a quella della luce e come esse ci apparirebbero: sappiamo infatti che per la teoria della relatività la massa di un corpo aumenta esponenzialmente e parossisticamente con la velocità della luce cosicché al 70% di questa velocità la massa aumenterebbe del 25%, al 90% di tale velocità ne verrebbe più che raddoppiata, e alla velocità della luce diverrebbe addirittura infinita, mentre sempre per la teoria della relatività un oggetto in moto a 260.000 Km/sec all’osservatore in quiete relativa apparirebbe contratto con lunghezza dimezzata, e alla velocità della luce tale contrazione apparirebbe totale con conseguente sparizione dell’oggetto. È vero che nel nostro intendimento (come abbiamo mostrato) queste paradossali conseguenze della teoria della relatività sono in non piccola misura dovute ad un fraintendimento, in particolare per quanto riguarda il preteso aumento di massa con la velocità, ma resta il fatto che esse sono invece del tutto reali per tutta la fisica contemporanea cosicché, per evitare la flagrante contraddizione fra la teoria della relatività che vieta le velocità superluminali da una parte e la legge di Hubble e la teoria dell’espansione che invece vi conducono dall’altra, i teorici della cosmologia relativistica e espansionistica hanno detto che in realtà non sono le galassie che si allontanano bensì sarebbe lo spazio che espandendosi le allontana anche a velocità quasi luminale o addirittura luminale o superluminale: e questo è stato detto (esplicitamente da Eddington30) proprio per non ammettere che secondo la 30
346
Fig. 4 Relazione tra la distanza e la velocità di allontanamento delle galassie in base alla legge di Hubble L’interpretazione dogmatica della legge di Hubble (assunta non come un indicatore approssimato di distanza ma come un indicatore di velocità di allontanamento) non solo impone alle galassie una corrispondenza meccanica e biunivoca fra velocità e distanza (ad es. 20.000 Km/sec per 400 Mpc etc.), ma anche assume su grandi distanze una velocità inverosimile delle galassie (o addirittura dello spazio).
Ivi p. 54.
347
Fig. 5 Esemplificazione della legge di Hubble Nell’interpretazione consueta della legge di Hubble (per cui la velocità cresce con la distanza) la galassia Hydra, distante 800 Mpc, si muoverebbe (o sarebbe portata dal substratum) a una velocità incredibile pari a quasi un terzo della velocità della luce. Altri valori ancora più inverosimili, prossimi o superiori a c, sono stati rilevati negli ultimi decenni: la legge di Hubble, nell’interpretazione consueta, conduce all’assurdo.
348
legge di Hubble le galassie si allontanerebbero con velocità superiore a quella della luce, e parimenti per non ammettere le conseguenze paradossali ma in realtà del tutto inosservate previste per tali velocità dalla teoria della relatività. Ma la contraddizione non è affatto tolta: infatti sia che una galassia si allontani a 100.000 km/sec o alla velocità della luce per moto proprio sia che venga portata sul groppone dal misterioso spazio in espansione rimane comunque che essa si allontanerebbe da noi osservatori terrestri a simili folli velocità, per cui in ogni modo per la teoria della relatività dovrebbero conseguirne almeno alcune delle assurde e peraltro inosservate conseguenze previste (se non l’abnorme aumento di massa almeno l’abnorme contrazione alla rilevazione dell’osservatore). Tuttavia per parte nostra non ci rifaremo certo ai suddetti principi relativistici per mostrare le paradossali conseguenze della legge di Hubble, visto che la stessa teoria della relatività non ci appare esente da contraddizioni e paralogismi: non paventeremo dunque per queste galassie né una crescita all’infinito della massa e nemmeno una contrazione all’infinito della lunghezza, e neppure ci sottoporremo ai calcoli per verificare se sia possibile che in un universo in espansione all’incirca da 15 miliardi di anni con tali elevatissime velocità le galassie siano ancora ben visibili in cielo e non si siano ancora disperse allontanandosi nello spazio sottraendosi alla vista. Semplicemente rileviamo quanto sia inverosimile immaginare una galassia (per non dire lo spazio) in allontanamento a 100.000 o a 200.000 km/sec. Al riguardo ricordiamo che la Terra si muove a 30 Km/sec mentre per il Sole è stata calcolata una velocità di 240 Km/sec che è ben lontana da 100.000 o 300.000 Km/sec, e non v’è motivo di pensare che per gli altri corpi celesti dell’universo quali stelle, pianeti e galassie le velocità siano di ordine totalmente differente. Il primo astronomo a rendersi conto che le stelle non sono “fisse” nel cielo, come tutta una tradizione le aveva ritenute per millenni, fu E. Halley (lo scopritore della cometa omonima) che notò che tre stelle molto luminose – fra cui Sirio – non si trovavano più nella posizione indicata dal catalogo di Tolomeo, segno di un loro spostamento sulla volta celeste avvenuto negli ultimi 1500 anni. Da allora le mi349
surazioni si sono moltiplicate ed oggi sappiamo che la stella con il massimo moto proprio è Barnard che percorre 10.3" (equivalente a poco più dello 0,5% del diametro angolare della Luna visto dalla Terra), mentre in media il moto proprio di tutte le stelle visibili a occhio nudo è 0.1" all’anno. Invece le misurazioni di velocità delle galassie (rilevate con precisione fino a mezzo secondo per secolo), indicano – per galassie veloci – velocità comprese fra i 500 e i 700 Km/sec. Non si tratta affatto di velocità eccessive o incredibili, come a prima vista potrebbe sembrare: 300 o 500 Km/sec sono una velocità piuttosto bassa e un tratto di strada minimo per una galassia il cui diametro è normalmente di 100.000 anni luce; similmente la velocità del Sole a 240 Km/sec (o della Terra a 30 Km/sec) corrisponde ad uno spostamento minimo per un corpo celeste di quelle dimensioni, tanto è vero che a quella velocità il Sole impiega 250 milioni di anni per compiere la sua orbita intorno al centro galattico. Allo stesso modo un uomo che camminando percorra 10 centimetri al secondo non percorre affatto distanze enormi a velocità incredibili, anche se così potrebbe sembrare visto da una formica: così, fatte le proporzioni, una stella o una galassia risulta muoversi con la lentezza di una tartaruga. Ora, queste sono le misurazioni “sobrie” e concretamente rilevate per le stelle e per le galassie: questi sono i “moti propri”, che con ogni probabilità sono i soli moti veri, reali, concreti, e certo i soli rilevabili e rilevati con precisione. Viceversa le altre velocità, le velocità presunte per galassie che si suppone siano portate sul groppone dallo spazio in espansione, sono veramente velocità incredibili e folli. I moti calcolati in base alla legge di Hubble appaiono solo moti fittizi, illusori, puramente postulati: perché è soltanto il modello addizionale dell’espansione quello per cui, interpretando lo spostamento verso il rosso come un effetto Doppler e la velocità sempre crescente con la distanza, si è costretti a immaginare velocità incredibili per le galassie. In realtà queste velocità non sono in alcun modo un dato di rilevazione bensì un postulato conseguente alla preliminare ammissione della legge di Hubble e della teoria dell’espansione. Dunque, per la teoria dell’espansione avremmo 350
un’espansione generale di tutto il substratum dell’universo – anzi un’espansione dello spazio – e poi, in più, in aggiunta come supplemento rapido, i “moti propri” delle galassie: ma questo è credibile? Noi misuriamo ad esempio per una galassia un moto di 600 Km/sec ma poi, se la galassia è lontana, la teoria ci costringe ad aggiungere un “moto metafisico” di poniamo 100.000 Km/sec che naturalmente rende il primo moto assolutamente irrilevante: solo che il primo moto è rilevato, il secondo è soltanto postulato. Cosicché diciamo: è concepibile un fotone che viaggia a 300.000 Km/sec, ma è concepibile una galassia che viaggia a 100.000 o 200.000 o 300.000 Km/sec? Se, interpretando lo spostamento verso il rosso come un Doppler e traducendolo in velocità, risulta che una galassia percorrerebbe tre milioni di chilometri all’ora, mentre un’altra ne percorrerebbe trenta e un’altra ancora trecento e poi altre tremila e trentamila e trecentomila e poi tre milioni etc., forse prima di prendere per buone tali pazzesche velocità, che non risultano minimamente alla normale rilevazione, varrebbe la pena di lasciarcisi sfiorare dal pensiero che quello spostamento verso il rosso non sia un Doppler. Lo spazio reificato e il cortocircuito fra velocità e distanza Per quanto riguarda l’attribuzione di queste velocità non direttamente alle galassie bensì allo spazio che le trasporterebbe, abbiamo già detto come simili velocità rimangano incredibili comunque. Ora aggiungiamo che l’idea di uno “spazio in espansione”, per cui non sarebbero nemmeno le galassie che si allontanano ma addirittura l’universo che espandendosi come un palloncino le porta a spasso (tesi che ricorda molto l’idea meccanica di Aristotele per cui non sono i pianeti che si muovono ma le sfere che muovendosi li trasportano), appare ancora più incredibile. In realtà non ha alcun senso parlare di uno spazio in espansione perché lo spazio non è un qualcosa passibile di espansione: le galassie possono anche allontanarsi ma non lo spazio. Gli ammassi e superammassi galattici possono anche essere paragonati a nubi di gas molecolari che (soprat351
tutto all’inizio e alla fine dei loro cicli) si espandono e si sciolgono, si dilatano e si disperdono così – fatte salve le condensazioni locali – diluendosi e rarefacendosi nello spazio proprio come nuvole di fumo in cielo, donde financo l’idea di un loro apparente reciproco allontanamento, ma in nessun modo questo rivela uno spazio e un universo in espansione. Lo spazio dilatato (come il tempo rallentato) è un costrutto teorico, ma il dato osservativo indica soltanto un rallentamento di frequenza semmai interpretabile come un’onda dilatata e allungata: lo spostamento verso il rosso ci dice soltanto di una frequenza rallentata come di un’onda dilatata nello spazio e per nulla affatto che sia lo spazio a dilatarsi. Qui evidentemente lo “spazio in espansione” è una diretta derivazione dallo “spazio curvo” relativistico, curvo perché appesantito e incurvato dalle masse gravitazionali, sulla cui illecita reificazione e ipostatizzazione ci siamo già soffermati: il “discorso della patata” sulla stella che pur praticamente priva di peso “curva” miracolosamente lo spazio ci è già apparso come uno pseudoragionamento del tutto inaccettabile; parimenti la cosiddetta “curvatura gravitazionale” della luce – predetta da Einstein come conseguenza della “curvatura dello spazio” – è in realtà una rifrazione della luce, un’onda deflessa che può far presupporre campi elettromagnetici curvi ma non uno “spazio curvato”, e anche l’avanzamento del perielio di Mercurio si può spiegare senza chiamare in causa l’inverosimile “curvatura” dello spazio. Riconsiderando così il problema dello spazio la cui considerazione appare implicita nell’interpretazione consueta della legge di Hubble, per la quale la velocità delle galassie aumenta con la distanza e dunque quanto più le galassie sono distanti tanto più rapidamente si allontanano dall’osservatore, ci domandiamo perché mai ciò. Qual è il magico potere, quale la vis occulta della distanza capace di far aumentare la velocità? Si attribuiscono qui alla distanza, e allo spazio in sé autodilatantesi, strani e occulti poteri come quello di aumentare la velocità: ma da che mondo è mondo è la distanza che cresce con la velocità, non la velocità con la distanza. In realtà qui Hubble ha operato una sorta di parafrasi a rovescio della celebre legge newtoniana: per Newton la forza gravitazionale che 352
avvicina i corpi decresce in modo inversamente proporzionale alla distanza, per Hubble la velocità galattica che li allontana cresce in modo direttamente proporzionale alla distanza. Ma evidentemente quando dice che la forza gravitazionale decresce con la distanza, Newton non intende affatto dire che la forza decresce a causa della distanza; parimenti quando dice che il pianeta alla massima distanza dal Sole (afelio) viaggia più lentamente e invece più velocemente alla massima vicinanza (perielio), Newton non intende dire che è la distanza in sé a produrre questi effetti bensì soltanto la distanza dal Sole: egli constata una relazione ma non attribuisce alcun potere alla distanza e allo spazio in sé. Inoltre, in questo misterioso rapporto fra velocità e distanza non si cela un palese circulus vitiosus, una petitio principii, una diallele? In pratica Hubble dice: quando una galassia viaggia molto velocemente con accelerazione progressiva? Quando è molto molto lontana. E quando una galassia è molto molto lontana? Quando viaggia molto molto velocemente con accelerazione progressiva. Una galassia è molto lontana perché si allontana sempre più velocemente, ma se si chiede come si fa a sapere che una galassia si allontana sempre più velocemente la risposta è: lo si ricava dal fatto che è molto lontana. Per calcolare la velocità occorre conoscere la distanza ma per calcolare la distanza occorre conoscere la velocità: un serpente che si morde la coda. Va dunque precisata la distinzione fra distanza, allontanamento e allontanamento con velocità crescente. Anzitutto che una galassia con spostamento verso il rosso sia lontana non vuol dire necessariamente che si allontani, poiché la distanza galattica non equivale alla recessione galattica (su questo punto, circa la possibilità di reinterpretare la legge di Hubble in funzione della distanza e non della velocità, abbiamo già valutato le posizioni del primo Eddington, del primo Hubble e poi di Ghosh). Ma, anche interpretando unilateralmente lo spostamento verso il rosso come un Doppler, proprio non si riesce a capire perché mai la velocità del corpo in allontanamento debba necessariamente aumentare sempre più con la distan353
za. O meglio, lo si capisce benissimo: i cosmologi hanno supposto che la presunta velocità recessiva galattica (già di per sé alquanto ipotetica) sia oltretutto progressiva e accelerante con la distanza per il semplice fatto che l’assunzione preliminare dell’espansione dell’universo richiedeva questa particolare interpretazione del Doppler. Hubble può interpretare il red shift come un Doppler indizio di velocità crescente solo perché ha preliminarmente accettato la tesi speculativa per cui l’universo si espande: infatti se e soltanto se l’universo si espande sempre più si può dire che le galassie che sono in esso si allontanano e che la velocità di una galassia può crescere con il crescere della distanza. Ma questa lettura del red shift Doppler, anche ammettendo che il red shift cosmologico sia sempre Doppler, non è affatto suffragata dai dati. Infatti l’effetto Doppler mi dice semplicemente che quanto più l’ambulanza o il treno si avvicinano tanto più il loro suono diventa sempre più acuto e che al contrario quanto più si allontanano tanto più diventa grave: ma questi suoni sempre più acuti o sempre più gravi non ci dicono ancora che l’ambulanza o il treno in avvicinamento o in allontanamento debbano necessariamente aumentare o diminuire la velocità, che invece potrebbe anche rimanere costante, e solo calcoli suppletivi sulla frequenza ci diranno se questi suoni sempre più acuti o sempre più gravi indicano un’accelerazione nella sorgente in avvicinamento o in allontanamento. L’effetto Doppler, che nemmeno ci dice con chiarezza che tutte le galassie si allontanano, meno che mai ci dice che esse si allontanano con velocità progressiva. Anche ammettendo secondo la riduttiva lettura Doppler che le galassie a più alto red shift siano le più lontane e le più veloci, questo red shift delle galassie non ci indica di per sé la loro presunta ulteriore accelerazione, che sarebbe indicata solo da un ulteriore e continuo spostamento crescente in atto delle righe verso il rosso che invece naturalmente manca essendo esso uniforme e non presentando nel tempo indici di variazione: lo “spostamento” delle righe, almeno per quanto riguarda le galassie, non è certamente uno spostamento in atto visibile e crescente; noi non vediamo le righe spostarsi, bensì le righe spostate. Così, anche interpretando l’elevato red shift di una 354
galassia supposta lontana come un Doppler e dunque come un indizio di allontanamento, in nessun modo tale red shift mi dice che questa galassia supposta in allontanamento stia anche accelerando: questo è in realtà soltanto un assunto teorico preliminare. Hubble ragiona un po’ come se un automobilista di Roma pretendesse che tutte le auto vadano lentamente a Tarquinia, velocemente a Milano, e oltre i limiti di velocità a Berlino, tutte sempre più accelerando. Ma in realtà noi sappiamo che, anche ammettendo l’espansione, superata una certa soglia una forza repulsiva può soltanto decrescere con la distanza e non aumentare. Veramente nessun elemento osservativo supporta la “legge di Hubble” per cui le galassie debbano necessariamente sempre più aumentare la velocità (fino a limiti inverosimili) nel mentre si allontanano ad infinitum.
Gli effetti relativistici e l’incostante H Inoltre dobbiamo chiarire ancora un punto e dire che la “legge di Hubble”, per cui la velocità cresce con la distanza, è un fraintendimento relativistico. Si diano infatti tre galassie A, B, C e si diano le distanze AB = BC. Secondo A. Bolognesi la teoria dell’espansione
.
.
.
.......... .................... .................... .......... A B→ C→ verrebbe inficiata per il fatto che B, che è nel mezzo, non può allontanarsi al contempo da A e da C in quanto se si allontana da A dovrà necessariamente avvicinarsi a C: ma egli non considera che per la teoria dell’espansione è lo spazio fra A e B e fra B e C che si espande, ciò per cui B potrebbe allontanarsi da A e da C al tempo stesso. L’argomento è piuttosto un altro, e riguarda le velocità. Per la legge di Hubble la galassia B si allontanerà da A con una velocità crescente proporzionale alla distanza, mentre la galassia C si allontanerà da B con la stessa velocità crescente (poiché AB = 355
BC) che poniamo 100 in un momento dato. Poiché però C dista da A il doppio di B, allora la sua velocità misurata da A risulterà il doppio di B. Senonché noi sappiamo che B e C in realtà percorrono le stesse distanze AB = BC alla stessa velocità 100 in un momento dato. Dunque è falso l’assioma di Hubble per cui distanza doppia = velocità doppia. La velocità di C appare 200 in un momento dato per A, ma in realtà è 100 in un momento dato come la velocità di B; parallelamente è chiaro che per C è A che viaggia a 200 in un momento dato in direzione opposta. Più chiaramente: se noi distribuiamo dei puntini omogenei alla stessa distanza su un palloncino gonfiato (ove i puntini stanno per le galassie e il palloncino per l’universo), allora noi vedremo i puntini allontanarsi fra loro con la stessa velocità e accelerazione; ma ovviamente se io mi colloco sul punto A avrò l’impressione (= effetto relativistico) che i punti più lontani E, F, G si allontanino più velocemente dei punti più vicini B, C, D. Infatti un teorico del modello espansionista come Weinberg si tradisce senza accorgersene, poiché scrive: «la velocità di ogni galassia, qual è vista da ogni altra [corsivi miei], è proporzionale alla distanza che le divide»31. Dunque egli stesso implicitamente ammette che non abbiamo modo di rilevare un moto assoluto esprimibile come distanza doppia – velocità doppia causato dall’espansione dell’universo, e che in realtà la velocità di una galassia semplicemente appare e viene misurata dagli altri osservatori come proporzionale alla distanza. Per un osservatore dato la velocità delle galassie appare crescere con la distanza, ma in realtà non vi è alcun motivo per pensare che realiter la velocità delle galassie debba crescere con la distanza. Sarebbe come se un osservatore lontano, sentendo il suono grave di una ambulanza in allontanamento, pensasse che il suono dell’ambulanza sia in sé grave: quando invece per un altro osservatore cui si avvicina l’ambulanza avrà un suono acuto. Giustamente dunque il primo Hubble parlava al riguardo di «velocità apparenti» delle 31
356
S. Weinberg, I primi tre minuti dell’universo, cit. p. 111.
galassie: ma in seguito egli, e quant’altri dopo di lui, ha preso alla lettera l’effetto relativistico deducendone l’assurda legge per cui veramente, realmente tutte le galassie più lontane sono più veloci di quelle più vicine quando invece è del tutto relativo dire cosa sia vicino o lontano. La debolezza della pretesa “legge di Hubble” appare infine comprovata anche dall’equivocità della nota formula, in cui il valore della costante H non è affatto chiaro. Infatti: se la costante H definisce il tasso di espansione dell’universo, in altri termini la sua velocità, allora H sarebbe inversamente proporzionale all’età dell’universo e dunque l’inverso di questa costante (1/H) ci dovrebbe dare l’età dell’universo (t =1/H): più grande è H (più alta è la velocità di espansione) più piccola dovrebbe essere l’età dell’universo, mentre più piccolo è H (più bassa è la velocità di espansione) più grande dovrebbe essere l’età dell’universo. Ma allora, se l’inverso di H ci dà l’età dell’universo, succedono continuamente strani pasticci. Così il valore di H inizialmente proposto da Hubble, 540 Km/sec per megaparsec che era poi il valore risultante ai suoi red shift interpretati come Doppler (mentre invece Eddington proponeva 572 km/sec), per il rapporto inversamente proporzionale corrispondeva ad un universo neonato sorto appena due miliardi di anni fa: ma tale valore apparve erroneo perché, risultando l’età della Terra 4 o 5 miliardi di anni, ne veniva la strana conseguenza di una Terra più vecchia dell’universo. Il valore dovette quindi essere modificato e fu necessario abbassare continuamente H in modo da accordarla con un universo di almeno 5 miliardi di anni (ove appare strano comunque questo persistente antropocentrismo per cui l’universo sarebbe appena più vecchio del “nostro” sistema solare). Un momento decisivo si ebbe quando nel 1952 Baade raddoppiò la scala delle distanze di Hubble con ciò raddoppiando l’età dell’universo, e poi ancora nel 1956 quando A. Sandage triplicò le dimensioni dell’universo, ma nemmeno ciò definì la questione e le datazioni proposte furono continuamente ritoccate, scendendo dai 540 Km/sec del primo Hubble a 250 e poi a 180. In particolare negli anni ’70 e ’80 vi fu una lotta aspra fra 357
opposti indirizzi per stabilire se il valore di H fosse di 100 km/sec, equivalenti ad un universo di 6,5 miliardi di anni, oppure 50 e infine fu ammesso il valore di 55 km/sec corrispondenti a un universo di 14 miliardi di anni. Ma il balletto frenetico di cifre non si arrestò e continuò a variare con il variare delle tecniche di misurazione delle distanze e man mano che nuove scoperte spostavano in avanti nello spazio i pretesi confini dell’universo e all’indietro nel tempo il preteso inizio: infatti l’ultima e più lontana galassia scoperta, e per questo ritenuta più antica, obbligava ogni volta a estendere l’universo e a retrodatarne l’inizio. Poi nel 1994, quando la costante di Hubble (che all’inizio era 500!) fu portata da 55 a 80 e dunque quasi raddoppiata, l’età dell’universo venne dimezzata scendendo improvvisamente a 8 miliardi di anni. Nuovamente si aprì un bell’inghippo poiché le analisi chimiche fanno risalire le stelle più vecchie a 14 miliardi di anni fa, col che ne avremmo nuovamente un impossibile universo - madre più giovane dei corpi celesti - figli che contiene, senonché per risolvere il problema (o per ritenere di averlo risolto) bastò abbassare nuovamente H a 65 Km/sec. Dunque, il valore di H, per decenni stiracchiato in un modo o nell’altro per rendere conto di questo o di quel dato, è sempre variato con le annate e con gli articoli sulle riviste scientifiche e tuttora rimane di fatto indeterminato. Attualmente si ipotizza H equivalente a 65 Km/sec per un milione di parsec, il che significa un aumento della recessione galattica di 65 Km/sec per ogni megaparsec di distanza e dunque 130 Km/sec per due megaparsec etc., cosicché occorrerebbero vari miliardi di anni prima che la distanza fra due galassie vicine raddoppi, ma in realtà il valore di H rimane di fatto indeterminato. Si è discusso per ottant’anni “quanto” sia la costante H, non a caso da molti astronomi ironicamente ribattezzata la “incostante H”, ma nessuno sa veramente quanto essa sia e nessuno può escludere prossime variazioni del suo valore. Questo già di per sé è alquanto sospetto: infatti noi sappiamo quanto vale la costante di Planck o la costante di gravitazione, e con esse si opera da parecchio tempo, mentre invece i cosmologi non riescono a quantificare la loro costante. Ma si può già prevedere la fine di questa storia: poiché infatti più 358
alto è il valore della costante H più alta è la velocità di espansione e più giovane è il cosmo e poiché H, sia pur con fluttuazioni varie, continua da oltre mezzo secolo a calare vertiginosamente (500, 250, 80, 65…) così diminuendo la velocità di espansione e aumentando sempre più l’età dell’universo, allora essa arriverà prima o poi verosimilmente… al valore zero, che è il valore corrispondente a un universo eterno e non in espansione che manderebbe in pensione H. Del resto già oggi, con H = 65 Km/sec per megaparsec, l’universo in espansione trotterella lemme lemme con velocità quasi nulla. Potremmo anche dire quanto tempo occorrerà perché H vada in pensione: se ci sono voluti 80 anni perchè H cadesse da 540 a 65 perdendo in media 70 chilometri di velocità per decennio, allora (a meno di caduta uniformemente accelerata o di fluttuazioni eccessive) fra nemmeno 10 anni la volubile H scendendo sempre più dovrebbe finalmente arrivare a zero e sparire. Alla fine appare sempre più chiaro che la legge di Hubble con la sua costante e le sue velocità crescenti non riesce a rendere conto di quanto avviene nell’universo. Dalle righe spettrali inclinate verso il rosso non siamo affatto autorizzati a dedurne necessariamente un allontanamento della sorgente con velocità progressiva. Che la velocità cresca con la distanza non è in alcun modo un dato osservativo rilevato bensì deriva da un postulato indimostrabile perché tautologico e in realtà dogmatico e aprioristico.
359
V L’anomalia dei Quasar Quale decisivo falsificatore della legge di Hubble occorre ora ricordare l’anomalia costituita dai quasar. Il nome di quasar, acronimo di quasi-stellar object o quasi-stellar radiosources, allude a oggetti o sorgenti radio «quasi stellari» a indicarne la natura ibrida e poco comprensibile. In effetti i quasar, scoperti nei primi anni sessanta, sono oggetti stellari piuttosto misteriosi: sulle lastre appaiono puntiformi come stelle e quasi sempre associati a galassie. Soprattutto i quasar evidenziano, in un numero significativo di casi, un redshift molto pronunciato ben superiore a quello delle galassie, anche delle galassie a cui appaiono associati: si rilevano così galassie con basso z (con z indice di spostamento verso il rosso) che appaiono associate a quasar ad alto z (ad esempio z > 1 o z > 2 ma si conoscono anche casi con z equivalenti a 5, 6 e perfino 10 valori), che indicano spostamenti verso il rosso su lunghezze d’onda ben più lunghe del normale (infatti anche solo con z = 1 abbiamo lunghezze d’onda allungate del 10%). Di conseguenza, interpretandone lo spostamento verso il rosso come effetto Doppler quale segno di allontanamento progressivo questi oggetti, che pur sembrano con evidenza associati a galassie a basso z e dunque per l’interpretazione Doppler piuttosto vicine, risulterebbero al contrario non solo lontanissimi da noi e da quelle galassie a cui pur appaiono associati, ma addirittura apparirebbero gli oggetti celesti in assoluto più lontani, posti all’estrema periferia dell’universo visibile lontani fino a 15 miliardi di anni luce. Inoltre essi (per la relazione posta da Hubble secondo cui la velocità cresce con la distanza) risulterebbero allontanarsi da noi a velocità incredibili: già z = 1 in base alle relazioni di Hubble corrisponderebbe ad un oggetto celeste che si allontana da noi a un decimo della velocità della luce, ma si rilevano quasar che in base a quelle relazioni raggiungerebbero velocità con punte di 100.000 Km/sec e altri con picchi pari all’80% della velocità della luce, mentre addiritura in taluni casi (a partire dalla sco360
361
perta della radiosorgente 3C 9 nel 1965) risulterebbero valori corrispondenti a due e perfino a cinque o sei volte la velocità della luce. In pari tempo però, nonostante lo spostamento verso il rosso a cui dovrebbe corrispondere – stante le enormi distanze – una debole e fioca energia luminosa, e nonostante che questi oggetti pur con grande massa dovrebbero avere dimensioni molto piccole (infatti appaiono puntiformi), la radioastronomia – a partire dagli studi di M. Ryle sulle radiosorgenti – ha consentito di rivelare che i quasar sono sorgenti emittenti estremamente potenti di radiazione radio oltre che infrarossa, ottica e ultravioletta: dai calcoli risulterebbero emettere più radiazione di bilioni di soli, più radiazione di centinaia di galassie, cosicché essi (se veramente fossero così lontani) risulterebbero dotati di grandissima luminosità intrinseca (seppure variabile) tali da essere in assoluto gli oggetti più luminosi di tutto l’universo anche perché oltretutto ancora rilevabili a tali enormi distanze. Così, stante l’asserita lontananza dei quasar, si ritenne che essi differissero dalle più vicine stelle perché risalenti ad una lontana epoca primordiale successiva al Big Bang e che proprio questa mancata omogeneità fra le stelle vicine e le stelle lontane dell’universo dimostrasse una sua storia evolutiva a partire dall’inizio. In realtà, se anche i quasar fossero così lontani, l’omogeneità dell’universo non ne verrebbe negata in quanto per una ovvia questione di probabilità essi sarebbero dovuti necessariamente apparire in quantità sempre maggiore quanto più si ampliava il raggio di universo captato dai radiotelescopi. Ma il punto è se veramente questi oggetti sono così lontani. Infatti stando così le cose i quasar, che secondo l’interpretazione tradizionale del redshift come effetto Doppler sarebbero gli oggetti più luminosi e al tempo stesso i più distanti dell’universo, oltre che fra i più piccoli, risulterebbero autentici mostri del cielo: infatti se sono così distanti, fino a miliardi di anni luce, e se sono così piccoli, come possono da tali distanze rivelare tanta luce? È mai concepibile pensare seriamente a piccole stelle dallo splendore pari a migliaia di galassie, e ancora ben visibili nonostante le inimmaginabili distanze, che procedono a 100.000 Km/sec ed oltre? Sarebbe come se qualcuno dicesse di aver visto 362
dalle Alpi svizzere un topolino in Africa correre come una Ferrari. Naturalmente tutto questo appare difficilmente credibile e allora Arp, uno studioso di galassie di forma anomala (ne raccolse 338 nel suo Atlas of peculiar galaxies) in seguito divenuto il maggior esperto dei quasar e un critico radicale del modello espansionistico, ne ha tratto delle conclusioni che sembrano assolutamente logiche: il red shift dei quasar – ha detto – non va interpretato come un effetto Doppler; non è un indicatore di distanza e non ha nulla a che fare con la distanza; in realtà è molto probabile che i quasar siano oggetti sì luminosi, come indica la radioastronomia, ma non così lontani né in tale perenne allontanamento da noi.32 La strategia del diniego e l’occultamento dei quasar Naturalmente anche i teorici del modello dominante hanno cercato di risolvere il problema dei quasar, e senza abbandonare la teoria della recessione galattica. Un primo tentativo di spiegazione all’interno del quadro interpretativo convenzionale è consistito nell’eliminare le velocità galattiche superluminali dei quasar risultanti alla lettura Doppler del red shift dicendole (come in altri casi simili) impossibili in base alla correzione relativistica che impedisce il raggiungimento e il superamento di tali velocità, stante che a c si potrebbe solo tendere asintoticamente, e parimenti precisando che in ogni caso tali velocità non sarebbero degli oggetti in questione bensì dello spazio in espansione che li allontana: al che si obietta però (nuovamente) che
32 H. Arp, Quasars, Redshift and Controversies, 1987 (tr. it. La contesa sulle distanze cosmiche e le quasar, Milano 1989, Jaka Book); v. anche i più recenti Seeing Red, Montreal 1998, Apeiron e Catalogue of Discordant Redshift Associations, Montreal 2003, Apeiron, nonché l’intervista ad Arp in “Emmeciquadro”, cit., 2000, n. 8 pp. 6-11. Attorno ad Arp si sono raccolti vari ricercatori fra i quali ricordo, in Italia, A. Bolognesi (Eppur non si muove!, San Marino 1996, Studio Stampa).
363
non meno imperscrutabile è un oggetto celeste che viaggi a un terzo o ai nove decimi della velocità della luce, anche se non alla velocità della luce, così come non meno imperscutabile appare uno spazio in espansione a velocità luminale o superluminale. Un secondo tentativo di risposta consiste nel dire che in realtà i quasar non sarebbero affatto collegati a galassie a più basso redshift, se non per un’illusione prospettica: insomma Arp avrebbe preso lucciole per lanterne, e confuso il primo piano con lo sfondo. Ciò a cui naturalmente va risposto che Arp potrebbe essersi sbagliato in alcuni casi, ma ben difficilmente in tutti i casi. Lo stesso Arp ha portato nel 1979 l’esempio di ben tre quasar associati alla galassia NGC 1073 a basso red shift, chiedendo se in quel caso vi fosse una triplice illusione prospettica: gli fu risposto incredibilmente che quelli, benché ne avessero tutte le caratteristiche a partire dal forte red shift, non erano quasar. Ma il fatto è che in seguito gli esempi (anche ad opera di altri ricercatori) si sono presto moltiplicati. Così la galassia M82 ha rivelato quattro quasar (con z > 2) associati; la galassia NGC 520 ha rivelato sei quasar collegati; la galassia NGC 1097 ha rivelato nelle vicinanze addirittura 42 quasar: e tutti questi quasar appaiono posti lungo la direttiva del nucleo galattico associato emettente onde radio e raggi x, in modo da far pensare che anch’essi siano strutture espulse dal nucleo galattico. In altri casi il collegamento fra galassia e quasar (ad esempio fra galassia NGC 3067 e quasar 3C 232) sembra proprio tangibile: infatti sembra proprio di vedere “ponti di materia” o “code” fra una galassia e un vicino quasar, proprio come se questi fossero strutture espulse o direttamente dal nucleo galattico o centrifugamente dal moto rotatorio assiale della galassia associata. La differenza di red shift fra galassie e quasar associati appare spesso veramente enorme: ad esempio la galassia NGC 4319 appare associata al quasar MK 205, ma se ne interpretiamo le differenze di red shift in termini di effetto Doppler dovremmo dire che la galassia viaggia a 1700 Km/sec alla distanza di 100 milioni di anni luce mentre invece il quasar che vi appare associato viaggerebbe a 21.000 Km/sec alla distanza di un miliardo di anni luce. 364
Fig. 6 Quasar 1327-206 Il quasar 1327-206 evidenzia z = 1,17 molto maggiore della galassia con z = 0,018 cui – tranne inverosimile confusione fra sfondo e primo piano – sembra collegato da un filamento di materia. Tale associazione è inspiegabile nell’interpretazione Doppler di z in quanto a due redshift così diversi dovrebbero corrispondere distanze diverse. La casistica di Arp, da cui l’esempio è tratto, contempla numerosi fenomeni simili.
365
Fig. 7 Galassia AM 2006/295 e quasar Altra associazione inspiegabile in termini di Doppler: nel braccio della galassia appare una condensazione – indicata dalla freccia – con redshift superiore a quello della galassia (dal catalogo di Arp).
366
Un terzo tentativo di spiegazione all’interno del quadro cosmologico tradizionale consisté nel dire che in realtà i quasar non sarebbero oggetti del tutto reali bensì una sorta di miraggio cosmologico, insomma ancora un’illusione ottica: essendo impossibile che non vi siano corpi interposti da tali distanze allora un invisibile buco nero interposto fra noi e il quasar determinerebbe con il suo campo gravitazionale una deflessione e distorsione, dunque una curvatura relativistica della luce, operando come una specie di “lente gravitazionale” (gravitational lens) deformante con conseguente duplicazione, moltiplicazione e soprattutto ingrandimento ad arco dell’immagine in onde radio proveniente dalla sorgente, cosicché la luce del quasar aggirerebbe l’ostacolo scindendosi in due direzioni opposte e passando ad ovoide dall’una e dall’altra parte del corpo riflettente così formando un’immagine multipla e apparendo a noi come una luce gigantesca del cielo. La luce emessa dal quasar e rilevata in onde radio verrebbe dunque deflessa, sparpagliata, moltiplicata e ingrandita dal corpo interposto: in questo modo lo spostamento verso il rosso dei quasar continuerebbe ad essere interpretato come un effetto Doppler e un indicatore di distanza ma al tempo stesso i caratteri più abnormi di queste sorgenti verrebbero spiegati in ultima analisi come semplici effetti ottici. Senonché questa spiegazione può valere solo in alcuni casi, nei casi cioè in cui l’identità dell’immagine spettrale e dei dati di rilevazione del valore di z possa far pensare ad uno sdoppiamento: ma non può costituire una spiegazione esaustiva del fenomeno dei quasar, perché spesso l’analisi spettroscopica rivela differenze (ad esempio una differenza anche lieve di red shift) fra questi oggetti, che invece sarebbero del tutto identici se fossero un miraggio effetto di sdoppiamento o moltiplicazione di immagine. Inoltre, a tacere del fatto che il buco nero interposto è soltanto un’ipotesi ad hoc e non un dato osservativo, ci domandiamo perché in tutti gli altri casi conosciuti le sorgenti gravitazionali anche estreme producono soltanto le ben note deflessioni gravitazionali della luce e per nulla affatto gli abnormi effetti dei quasar. Insomma, sembra qui ripe367
tersi la vicenda di Galileo: gli oppositori di Arp, quando non rifiutano di vedere le anomalie al telescopio, le attribuiscono a miraggi proprio come per gli oppositori di Galileo le macchie solari e i monti lunari rivelati al telescopio erano solo fenomeni di aberrazione ottica, con la differenza però che gli oppositori di Galileo potevano essere giustificati stante la bassa definizione e lo scarso potere risolutivo dei primi cannocchiali. Un quarto tentativo di spiegazione si è avuto quando i teorici del modello tradizionale, rendendosi conto che non tutti i quasar potevano essere ridotti a illusioni prospettiche o a effetti di lente gravitazionale, hanno cercato di collegarli a buchi neri e alle galassie di Seyfert (“galassie attive”): i quasar non sarebbero altro che buchi neri che, collocati all’interno delle “galassie attive”, generano altissimi red shift. All’ovvia obiezione per cui i buchi neri dovrebbero essere invisibili per definizione sia al telescopio sia al radiotelescopio poiché non emettono radiazione alcuna mentre invece i quasar sono rilevabili anche da grandi distanze, la risposta è stata: i buchi neri invisibili, silenziosi e muti, spenti e privi di radiazione sono quelli attuali mentre invece i loro lontani avi, risalenti alla mitica era del Big Bang, sarebbero stati ben vivi ed energetici all’interno delle “galassie attive”, ed essi sono appunto i quasar che noi vediamo così lontani nello spazio (secondo la “legge” di Hubble) e dunque così indietro nel tempo; essendo lontanissimi, i quasar sarebbero antichissimi ed anzi sarebbero i primi oggetti galattici comparsi, tali da testimoniare della fortissima attività energetica sussistente nel cosmo subito dopo il Big Bang. In questo modo i quasar, anomalia vivente all’interno della legge di Hubble e del modello espansionistico, ne sono invece presentati come una sorta di conferma: anzi i quasar, che pur così piccoli emetterebbero tale enorme energia radioattiva, costituirebbero addirittura una sorta di minuscoli Big Bang e risalirebbero insomma a quelle supposte epoche incandescenti. Ma tutto questo, naturalmente, avviene solo a prezzo di evidenti estrapolazioni indebite, perché se i buchi neri hanno certe caratteristiche e i quasar hanno invece caratteristiche del tutto diver368
se se non opposte (ad esempio appaiono solitamente alla periferia come strutture espulse e non al centro delle galassie di appartenenza là ove sarebbero i buchi neri), allora appare piuttosto forzato dire che i quasar siano stati i progenitori dei buchi neri. Se noi diciamo che tutti i corvi sono neri e con una certa struttura anatomica e poi troviamo un animale dalle caratteristiche del tutto diverse, non pretenderemo a tutti i costi di chiamarlo corvo o antenato del corvo. Le censure scientifiche e la ricerca di alternative Cosicché alla fine appare lecito dire: di contro a tutti questi tentativi discutibili e criticabili di spiegare i quasar mantenendone le enormi distanze e le altissime energie in base all’interpretazione Doppler del loro redshift, perché non accettare per spiegazione l’ammissione che non tutte le sorgenti luminose che producono un redshift siano in fuga e in allontanamento da noi, checché ne dica la vulgata? Arp, per aver constatato l’impossibilità di spiegare come un Doppler l’alto redshift dei quasar nel quadro del modello espansionistico, si è visto ritardare per anni o decisamente rifiutare la pubblicazione di alcuni suoi lavori per l’Astrophysical Journal e nel 1984 gli venne perfino negato l’uso dei telescopi di Monte Palomar e Monte Wilson presso cui pur aveva lavorato per trent’anni (Arp ha raccontato la vicenda in appendice al suo libro dell’87); alla fine, egli ha lasciato l’America e per trovare migliori condizioni al suo lavoro si è trasferito in Europa presso l’Istituto Max Planck di Monaco. Sembra addirittura che alcune immagini fornite dalla NASA fossero state “elaborate” in modo da far scomparire i ponti di materia fra galassie e quasar, che invece apparirono vivissime alle fotografie di centinaia di professionisti, di dilettanti e associazioni private che però non riuscivano a pubblicare i loro risultati, e si direbbe che non a caso la NASA, che sempre aveva offerto determinati tempi di osservazione alle associazioni amatoriali e alle istituzioni private, le ha poi revocate nel 1993 quando un 369
dilettante fece richiesta di fotografare con l’Hubble Space Telescope una discussa coppia galassia-quasar. Parimenti quando nel 2001 due giovani ricercatori spagnoli videro due spettri ben diversi (l’uno con z = 0.391 e l’altro con z = 0.243) in due quasar posti lungo un braccio di collegamento fra due galassie, la rivista Nature e l’Astrophysical Journal rifiutarono di pubblicare la notizia, e successive richieste di investigazioni al telescopio vennero respinte. Ma la scienza non si fa a colpi di censura, né ignorando o rimuovendo i problemi: «certo se si ignorano le osservazioni in contrario – disse una volta Arp (Science News, 27 luglio 1991) – allora si può pretendere di avere una teoria elegante o solida. Ma questa non è scienza». In effetti la cosa più semplice e più logica al riguardo sembra proprio ammettere che i quasar, nonostante il loro spostamento verso il rosso, non siano poi così lontani, soprattutto considerandone l’associazione con galassie a noi più vicine con ben più modesto redshift – associazione che spesso sembra del tutto reale e non mera ingannevole sovrapposizione fra sfondo e primo piano. Fra l’altro – a parte i quasar – vi sono intere galassie che stando al red shift dovrebbero essere lontanissime, mentre invece da vari motivi si deduce che esse non siano poi così lontane. Va detto comunque che le ricerche di Arp di per sé non falsificano ancora in toto la legge di Hubble adeguatamente reinterpretata: non la relazione red shift – velocità bensì la relazione red shift – distanza (cui si riferivano il primo Eddington, il primo Hubble e ora Ghosh) appare valida nella maggioranza dei casi e l’anomalia costituita dai quasar, se vera come sembra, dimostra solo che la legge di Hubble per il rapporto red shift – distanza (non velocità!) è valida in generale ma non in modo universale in quanto evidentemente in determinati casi alti altissimi red shift possono essere dovuti a fattori d’altro tipo la cui natura ci è attualmente ignota. Secondo Arp i quasar sono oggetti espulsi dal nucleo di galassie giovani e attive come quelle di Seyfert, senza connessione con i buchi neri. Nel tentativo di spiegarne l’altissimo red shift, di cui giustamente nega il carattere Doppler e cinematico, egli suppone (con 370
J.V. Narlikar) che esso sia connesso alla massa del quasar: «le righe spettrali emesse dagli oggetti cosmici – scrive così un seguace italiano di Arp – non vengono spostate da un effetto cinematico equivalente all’effetto Doppler, bensì si trovano realmente alle frequenze e alle lunghezze d’onda osservate» (A. Bolognesi). La massa generatrice di righe spettrali spostate verso il rosso viene intesa – da Narlikar, da Arp e dai suoi seguaci – quale valore variabile nel tempo e non costante: i quasar verrebbero emessi dal nucleo galattico con una certa massa ad altissimo red shift ma in seguito questa massa, a partire dalle particelle componenti, aumenterebbe col tempo e con l’età della stella in pari tempo via via passando a più bassi red shift e infine evolvendo nelle normali galassie. In questa prospettiva il red shift, il red shift delle stelle e delle galassie tutte e non solo dei quasar, esprimerebbe non l’effetto cinematico e la velocità e nemmeno la distanza dell’oggetto bensì la sua età: lo spostamento delle righe spettrali sarebbe tanto maggiore quanto maggiore è la massa e minore è l’età della sorgente. Queste però restano per ora ancora ipotesi, che oltretutto pongono alcuni problemi: appare infatti piuttosto difficile pensare alla massa di una particella e per estensione di un oggetto celeste quale crescente di per sé col tempo, proprio come già contraddittoria risulta la corrente e scorretta interpretazione della teoria della relatività ristretta secondo la quale la massa crescerebbe misteriosamente da sé con la velocità. Invero una relazione fra età e red shift della sorgente appare plausibile, ma essa sembra in genere andare piuttosto nel senso contrario a quello ipotizzato da Arp: infatti (e come abbiamo visto) sono le stelle di potenza energetica e di temperatura piuttosto bassa, che per lo più sono stelle di antica età in fase di esaurimento (ivi comprese le giganti rosse), che appaiono rivelare spostamenti verso il rosso delle frequenze; parimenti anche le nane bianche, le stelle di neutroni, le pulsar, gli ipotizzati buchi neri, che appaiono connessi ad altissimi red shift, sono stelle molto vecchie in fase terminale. Se i quasar sono strutture di giovane età, o addirittura galassie incipienti in fieri come suppone Arp, allora per la loro straordinaria attività energetica dovrebbero piuttosto rivelare 371
un blue shift e non un red shift. Si consideri infine, circa il supposto aumento della massa col tempo, che in realtà gli oggetti celesti (prescindendo dalla fase germinale e terminale foriere di grandi mutazioni) sembrano per la quasi totalità del loro ciclo vitale alquanto stabili: una stella piuttosto normale come il Sole, prescindendo dalla sua formazione e dalla sua futura fine in gigante rossa, vive per quasi dieci miliardi di anni senza subire significative mutazioni cosicché del tutto ipotetico per non dire arbitrario appare presumerne una variazione di massa con continuo suo aumento nel tempo. Per parte nostra, anziché pensare ai piccoli quasar come galassie nascenti per successivi incrementi di massa, preferiamo pensare in termini più tradizionali a vaste nebulose gassose in seguito frazionate e coagulate in stelle. In realtà noi non disponiamo per ora di una spiegazione certa del red shift dei quasar, anche se appare possibile supporre in essi l’esistenza di masse contratte con enormi campi gravitazionali generatori (proprio come nelle nane bianche, nelle stelle di neutroni e nei buchi neri) di grandi spostamenti verso il rosso, forse ulteriormente accentuati dalla velocità con cui i quasar sembrano espulsi dalle galassie a cui appaiono connessi. Insomma, nella nostra prospettiva è preferibile cercare una spiegazione dei red shift alternativa al Doppler classico e alla teoria dell’espansione nei termini da noi precedentemente esposti piuttosto che nei termini delle masse variabili con il tempo di Arp. In ogni modo il valore della pluridecennale e meticolosa ricerca osservativa di Arp, che senza dubbio è uno dei maggiori astrofisici dell’età contemporanea, non consiste tanto nella pars costruens quanto nella pars destruens: in altri termini non consiste nella sua spiegazione alternativa del red shift bensì nell’aver mostrato con impressionante casistica e al di fuori di ogni ragionevole dubbio (almeno per chi vuol vedere) che i quasar – l’oggetto specifico della sua ricerca – costituiscono una grave anomalia (certo non la sola, come abbiamo visto e come vedremo) per la legge di Hubble e per la teoria dell’espansione, in quanto il loro red shift non appare spiegabile come un Doppler cinematico a meno di non cadere nelle più inverosimili paradossalità. Una cosa infatti sembra certa: qualunque cosa siano, 372
ben difficilmente i quasar possono essere quei mostri del cielo che sarebbero in base all’interpretazione del redshift come un Doppler. Dunque, come abbiamo finora cercato di mostrare e come risulta anche all’indagine di Arp sui quasar, non sembra proprio concludente la riduttivistica equazione che sempre e comunque equipara uno spostamento verso il rosso a una sorgente in fuga: i quasar, in cui lo spostamento verso il rosso difficilmente sembra spiegabile come indice di una velocità di fuga, sembrano solo l’ultimo arrivato dei vari esempi sopra riportati di sorgenti luminose il cui redshift può e in certi casi deve essere letto ben diversamente da un effetto Doppler. Oltretutto, le galassie con le righe spettrali più spostate verso il rosso dovrebbero essere le più lontane e le più veloci: ma allora perché vi sono molte galassie che vari indizi dicono piuttosto vicine, e con bassa velocità di recessione, che parimenti evidenziano – ciò che non dovrebbero – un analogo spostamento verso il rosso? Che le galassie più lontane siano necessariamente le più antiche, in quanto la loro luce può aver impiegato milioni o miliardi di anni per giungere a noi, è falso perché una galassia vicina può essere antichissima e tuttavia la sua luce può raggiungerci in tempi cosmologicamente brevi solo perché vicina. In conclusione, noi non abbiamo alcun diritto di costringere il reale in un letto di Procuste pretendendo che lo spostamento verso il rosso debba necessariamente significare sempre e soltanto una e una sola cosa. L’errore di Hubble non è stato nell’aver posto una relazione fra spostamento verso il rosso e allontanamento della sorgente, bensì nell’aver pensato che lo spostamento verso il rosso possa significare sempre e soltanto la recessione galattica. Lo spostamento verso il rosso può naturalmente indicare che varie galassie, nel loro moto, possano allontanarsi da noi: ma non è affatto necessario supporre improbabili galassie che fuggono reciprocamente nello spazio per spiegarne lo spostamento delle righe spettrali verso il rosso. Lo spostamento verso il rosso delle righe spettrali emesse dalle sorgenti stellari non depone a favore della tesi della recessione galattica ed è una generalizzazione indebita e illegittima estrapolarne che tutte le galassie si allontanino l’una dall’altra. 373
VI L’ineffabile singolarità e la sua strana esplosione Alla luce della precedente analisi il fondamento epistemico della cosiddetta “legge di Hubble”, che impose il modello dell’espansione dell’universo, appare assai fragile in quanto basato su una palese forzatura interpretativa dei dati osservativi. Naturalmente, una volta posta in discussione la legge di Hubble con la sua interpretazione dello spostamento verso il rosso come prova della recessione delle galassie, la teoria del Big Bang – che ne deriva e che crede di rinvenire a ritroso nel tempo in un’esplosione originaria la causa di quella pretesa espansione – cade da sé. Per questo da parte nostra teniamo a precisare che quello che soprattutto ci preme è la critica alla teoria dell’espansione dell’universo, e solo in secondo luogo la critica alla teoria del Big Bang. Oggi la quasi totalità degli astronomi e dei cosmologi crede alla teoria del Big Bang in questa o quell’altra sua formulazione ma, se possibile, ancora di più e diremmo praticamente la quasi unanimità degli astronomi e dei cosmologi (pur con qualche significativa eccezione) crede all’espansione dell’universo. Per questo, la critica alla teoria dell’espansione ci preme di più: una critica più o meno plausibile alla teoria del Big Bang (come vedremo) è stata fatta, per quanto essa sia stata decisamente respinta da quasi tutti i cosmologi contemporanei, ma la critica alla teoria dell’espansione era in ampia misura ancora da fare e in ciò prima di tutto il nostro contributo. Tuttavia questo non toglie che, oltre a mostrare la debolezza della teoria dell’espansione, sia anche opportuna qualche considerazione a proposito del cosiddetto Big Bang. La cosmologia dinamista La teoria del Big Bang aggiunge sostanzialmente due cose alla “legge di Hubble”. Anzitutto essa dice che se le galassie si allontanano allora esse, e con esse tutta la materia dell’universo, dovevano 374
375
essere concentrate un tempo (sempre modificato: 1 miliardo di anni fa nelle equazioni di Friedmann, 2 miliardi per il primo Hubble, poi 10 miliardi, quindi 20 e ora circa 15 miliardi) in una sorta di fireball o “Palla di Fuoco” o addirittura in un punto o “Singolarità” iniziale dotato di temperatura e densità infinite e da molti cosmologi stimato equivalente a poco più di un decimo di millimetro cubo (dunque incomparabilmente più piccolo sia dell’«atomo primordiale» di Lemaître grande quanto il sistema solare sia dell’Urstern o «stella primitiva» di Weizsacker sia dell’Ylem gassoso di Gamow): in questa singolarità sarebbe quindi avvenuta illo tempore una gigantesca esplosione, un Big Bang o “Grande Botto” (come lo definì ironicamente F. Hoyle), con conseguente rottura dell’unione iniziale fra le quattro forze fondamentali della natura in successiva divaricazione asimmetrica, nonché con violenta espulsione e successiva formazione di galassie che da quel tempo memorabile incessantemente si allontanerebbero fra loro fuggendo nello spazio. In secondo luogo la teoria dice – generalizzando l’idea relativistica di uno spazio curvo e reinterpretando in tal senso la legge di Hubble – che l’universo è in espansione, in quanto più propriamente non sarebbero le galassie che si allontanano bensì sarebbe lo spazio che espandendosi come una sorta di palloncino gonfiato le allontanerebbe. Circa le sorti ultime dell’universo, come si è detto, a partire da Friedmann e poi da Robertson e Walker (1935) si sono formulate due soluzioni alternative: o l’universo continuerebbe ad espandersi inerzialmente all’infinito (una volta vinta la quantità di massa gravitazionale dell’universo, troppo scarsa per opporsi all’espansione fino ad arrestarla) oppure (se la densità media della massa gravitazionale fosse invece sufficientemente ampia da frenare l’espansione) l’espansione a un certo punto (fra 30 o 100 miliardi di anni a seconda della velocità) si arresterebbe e l’universo – come in una sorta di film a rovescio – tornerebbe infine a contrarsi a ritroso con temperature sempre più alte in quel punto di singolarità iniziale da cui sarebbe partito, in un Big Crunch o “Grande Schiacciamento” (insomma la Grande Strizzata). Tertium non datur: la teoria non ammette più infatti l’equazione einsteiniana con 376
W = 1 corrispondente alla possibilità di un universo statico, bensì reinterpreta le equazioni ponendo con Robertson e Walker: – W > 1 che normalmente significa più di un atomo di idrogeno ogni metro cubo, anche se in realtà non si capisce bene e altri dicono più di un atomo di idrogeno ogni 10 metri cubi. Questo valore definisce un universo chiuso a curvatura positiva (ovvero con k = +1 con geometria ellittica): esso sarebbe un universo espanso e poi contratto per eccesso di forza gravitazionale; – W < 1 che significa meno di un atomo di idrogeno per metro cubo o meno di un atomo di idrogeno ogni 10 metri cubi. Questo valore definisce un universo aperto a curvatura negativa (ovvero con k = –1 con geometria iperbolica): sarebbe un universo in espansione infinita con inerziale velocità costante per deficit di forza gravitazionale; – W = 1 che significa un atomo di idrogeno per metro cubo o un atomo di idrogeno ogni 10 metri cubi. Questo valore definisce un universo prima curvo e poi piano a curvatura nulla (con k = 0 con geometria euclidea): sarebbe un universo con una strana espansione che rallenta sempre più all’infinito la propria altissima velocità fino a percorrere, col tendere di l a zero, un metro ogni miliardo di anni senza però mai arrestarsi. A questo proposito, ricordiamo appena quelle teorie che si rivelano infine soltanto delle varianti della teoria del Big Bang: così ad esempio le teorie inflazionarie (di cui comunque riparleremo) che postulano infiniti universi “paralleli” o “frattali” tutti nati da altrettanti Big Bang; così la teoria di Hawking33 che, sullo sfondo di un “vuoto quantistico” all’interno di un tempo “immaginario” eterno, postula un universo finito ma senza confini e non generato da alcuna singolarità. Tutte queste teorie, proprio perché mantengono e presuppongono la “legge di Hubble” e l’idea dell’espansione, in realtà sono soltanto varianti inconcludenti della teoria classica o Standard View. Un di33 S. Hawking, A Brief History of Time, 1988 (tr. it. Dal Big Bang ai buchi neri, Milano 1988, Rizzoli).
377
scorso a parte meriterebbe la teoria dello stato stazionario (Steady State Theory of the expanding Universe)34 elaborata nel 1948 da H. Bondi, T. Gold e F. Hoyle e in un primo tempo sostenuta anche da D. Sciama. Per questa teoria in un universo infinito ed eterno, dunque senza alcun Big Bang, si avrebbe una piccola creatio ex nihilo di materia (il quantum non si capisce bene: un atomo di idrogeno per 100 metri cubi ogni due milioni di anni, o un atomo per metro cubo ogni 500.000 anni o ogni dieci miliardi di anni, o un atomo al secolo per chilometro cubo o vari altri valori ancora) con successiva formazione di galassie in fuga; l’“equilibrio stazionario” dell’universo – che permane omogeneo e uniforme non solo nello spazio ma anche nel tempo (è il “principio cosmologico perfetto”) – verrebbe consentito proprio da questa continua creatio ex nihilo di nuovi atomi e poi di nuove galassie che, in una sorta di horror vacui, si formerebbero sui residui delle galassie vecchie ormai allontanatesi per l’espansione dell’universo così prendendone il posto (in effetti sappiamo che le stelle spesso nascono sui detriti di stelle precedenti esplose). Ma come ognun vede anche questa teoria radicale, diffusa negli anni ’50-60 e poi abbandonata, che elimina il Big Bang e osa supporre una problematica creazione dal nulla violando i princìpi classici di conservazione, mantiene intatto il dogma indiscusso dell’astronomia moderna: in questa teoria infatti (peraltro fonte sottaciuta di altre più recenti teorie cosmologiche quantistiche e inflazioniste) non c’è più il Big Bang ma c’è ancora l’espansione; il modello espansionistico vi persiste tale e quale, anzi ancor più inesplicato e incomprensibile in quanto sembra contraddittorio ammettere un’espansione eterna senza alcun punto d’origine. Anche l’ipotesi ad hoc di un tasso di creazione di materia non convince, non perché la creazione di materia sia impossibile in sé (sebbene sia difficile pensarla ex nihilo), quanto per l’inverosimiglianza di un coefficiente di creazione guarda caso proprio esattamente pari al
tasso di diluimento ed espansione così da bilanciarlo annullandone gli effetti: il “principio cosmologico perfetto”, per cui l’universo su grande scala appare sempre lo stesso in ogni punto dello spazio e in ogni istante del tempo, è certamente plausibile, ma contraddittorio con l’idea dell’espansione dell’universo. In seguito Hoyle (assieme a G. Burbidge e a J. Narlikar) ha proposto una variante della sua teoria denominandola “teoria dello stato quasi stazionario” (quasi-steady-state cosmology) in cui suppone che l’universo esista da sempre in alterne fasi di espansione e contrazione, ove ad ogni contrazione seguirebbe una creazione di materia non infinitesimale e continua (come nella prima versione della teoria) bensì una creazione attraverso una serie di little Bangs con formazione di elementi leggeri e successiva espansione: ove però non è chiaro in cosa questa nuova teoria (con i suoi molti Big Bang al posto di uno solo) si differenzi realmente dalla teoria rivale del Big Bang tanto a lungo combattuta. In ogni modo risulta che il Big Bang non sia apparso sempre e a tutti quale causa della pretesa espansione: tale non fu appunto per i teorici della prima teoria dello stato stazionario. Al riguardo si può anche riandare a Eddington che, in una conferenza del 1931, disse: «la teoria [...] secondo cui in principio tutta quanta la materia creata sarebbe stata proiettata con moto radiale in modo da disperdersi [...] mi lascia perplesso. [...] Lo stato primordiale che mi raffiguro è una distribuzione uniforme di protoni ed elettroni, estremamente diffusa e tale da riempire tutto quanto lo spazio [...]. Alfine [...] si formano le condensazioni che diverranno poi le galassie»35. Più tardi Eddington scrisse: «l’idea di un improvviso inizio dell’ordine presente della natura mi ripugna; [...] un colpo solo di bacchetta magica in una lontana epoca non è propriamente il genere di relazione fra Dio e il mondo che soddisfi la mente»36. Egli rifiutava l’ipotesi dell’esplosione inaugurale come troppo brutta per essere
34 Sulla lunga controversia fra teoria del Big Bang e Steady State Theory v. H. Kragh, Cosmology and Controversy. The Historical Development of Two Theories of the Universe, Princeton 1996, University Press.
A.S. Eddington, L’universo in espansione, cit. pp. 70-71. A.S. Eddington, New Pathways in Science, 1935, tr. it. Nuove vie della scienza, Milano 1967, Hoepli, p. 163.
378
35 36
379
vera: «preferisco l’ipotesi che contempla l’inizio delle cose più calmo e ordinato. L’opinione che l’universo sia cominciato con il rombo di un’esplosione sarà interessante, ma non c’è nulla nelle nostre conoscenze attuali che ci dia ragione di crederla; a me pare antiestetico dare all’universo [...] un movimento iniziale così brusco»37. Eddington in effetti postula un universo non eterno ma nato da un caos di particelle poi confluite in sistemi stellari e poi a un certo punto misteriosamente espanso. Egli poneva piuttosto l’esplosione... alla fine del processo38: in effetti è vero o non è vero che gonfiando sempre un palloncino questo prima o poi esplode? Come si vede, alcune critiche alla teoria del Big Bang sono già state fatte. Ma il difetto di queste critiche (Eddington, Hoyle) consiste a nostro avviso nella pretesa di scindere la teoria del Big Bang e la teoria dell’espansione dell’universo, rifiutando la prima ma accettando la seconda. Invero fra le due teorie v’è una indubbia connessione, anche se non un’identità. Infatti una volta ammessa l’espansione sembra logico derivarne l’adesione al Big Bang quale causa di quella espansione: due punti che si allontanano reciprocamente sempre più in direzioni opposte dovrebbero essere stati in passato in contatto; dati n punti in reciproco allontanamento radiale e riportando all’indietro il sistema si dovrebbe pervenire a una condizione iniziale in cui tutti i punti si trovavano in una singolarità. In realtà le due teorie appaiono così connesse che sembrano tenersi insieme o cadere insieme: se c’è stato un Big Bang iniziale vi sarà stata di conseguenza un’espansione; viceversa se non c’è stato nessun Big Bang non c’è stata verosimilmente nessuna espansione, e se non c’è stata nessuna espansione non ci sarà stato nessun Big Bang. Invece questa connessione – che appare piuttosto cogente – non è sempre stata vista come necessaria: appunto, Eddington e i teorici dello stato stazionario non credono al Big Bang e tuttavia credono all’espansione. La cosa appare veramente poco coerente: se ad esempio pensiamo (con Eddin-
37 38
380
Ivi p. 198. A.S. Eddington, L’universo in espansione, cit. p. 95, 108.
gton) ad un caos iniziale di particelle o anche alla formazione delle prime galassie, non si capisce perché mai ad un certo punto e solo ad un certo punto lo spazio comincerebbe ad espandersi cosicché in esso le particelle (o le galassie) comincino a orientare il loro moto in modo da allontanarsi tutte le une dalle altre, né si capisce la gratuità assoluta di tale allontanamento di tutto da tutto. Così dire, come oggi vari autori che pur non citano Eddington, che in realtà non da un solo punto originario dell’universo si sia dipartito il Big Bang con il successivo allontanamento dei punti bensì che tutti i punti dell’universo si allontanino reciprocamente per l’espansione senza alcun Big Bang in un punto originario, lascia impregiudicata la questione appunto perché o l’espansione dei punti inizia solo ad un certo momento in modo del tutto misterioso (e perché non prima?) oppure riandando all’indietro tutti i punti che ora si allontanano radialmente devono essere stati un sol punto. Ma a questo punto noi vorremmo semplicemente porre alla teoria classica e originaria del Big Bang – teoria comunque da cui derivano quasi tutte le altre rivedute e corrette, e con la quale si pretende spiegare la pretesa espansione dell’universo – alcune obiezioni, riguardanti il misterioso e inverosimile carattere della ineffabile “Singolarità” dalla cui esplosione verrebbe il cosmo. La contrazione illimitata della massa Per la teoria del Big Bang l’intero universo sarebbe stato un tempo compresso nella Singolarità iniziale in una temperatura e densità infinita ma in un volume quasi nullo: nelle parole di Tullio Regge il nucleo primordiale non è altro che «tutto il cosmo radunato nelle dimensioni di una capocchia di spillo»39. Altri invece vanno ancora più in là e affermano che la Singolarità iniziale sarebbe stata
39
T. Regge, Cronache dell’universo, Torino 1981, Boringhieri, p. 48.
381
contenuta in un decimo di millimetro cubo: essa sarebbe stata «un punto infinitamente piccolo, rispetto al quale [ben oltre la “capocchia di spillo”!] un punto che segniamo a matita su un foglio di carta potrebbe essere descritto come un oggetto gigantesco». Si impone allora una domanda: come può la Singolarità contenere in nuce in sé, in una densità e temperatura infinite ma con volume praticamente nullo, tutta la massa dell’universo che ne nasce? Certo abbiamo capito che non si può ragionare al chilo, in termini di massa e di conservazione della massa, bensì dobbiamo ragionare in termini di energia come prevede l’equazione relativistica per la quale la massa m si può convertire in energia e possiede una quantità di energia pari a mc2. Così sappiamo che una stella morente, dopo aver esaurito il “combustibile nucleare”, e dopo aver esaurito la pressione di radiazione che ne controbilancia il peso degli strati esterni, può contrarsi nella sua fase finale collassando in modo che parte della sua massa venga concentrata, compressa e “stipata” ad opera dell’attrazione gravitazionale in un piccolo volume ad enorme densità. Ad esempio (e come già abbiamo accennato) una nana bianca è una stella di medie dimensioni che, dopo essersi enormemente diluita nello spazio come gigante rossa rilasciandovi ampia parte della sua massa, si è spenta e ridotta alle dimensioni di un piccolo pianeta (prima incandescente come nana bianca e poi via via raffreddato in nana nera) ad altissima densità gravitazionale, pari a centinaia di tonnellate per centimetro cubo, in cui una zolletta di zucchero peserebbe tonnellate stante la grande massa concentrata (questo sarà peraltro il destino del Sole: come gigante rossa giungerà a inglobare la Terra e poi diverrà una nana bianca). Parimenti una stella di neutroni (che può anche essere “pulsante” ovvero una pulsar o pulsating star rotante ad altissima velocità secondo la spiegazione corrente) è una stella collassata che, solitamente dopo aver rilasciato ampia parte della sua massa nello spazio in una gigantesca esplosione da supernova che la rende in cielo più luminosa di mille galassie, comprime la massa del suo nucleo, costituita essenzialmente di neutroni e pari a milioni di volte quella della Terra, in un diametro magari di venti chilometri a elevatissima densità, pari a milioni di tonnellate per centimetro cubo 382
(ove una zolletta di zucchero peserebbe centinaia di milioni di tonnellate). Infine un buco nero (Black Hole) è (almeno se l’ipotesi è corretta) una stella collassata che, spesso passando prima attraverso la fase di stella di neutroni, può comprimere la massa di sei soli appunto in un minuscolo “buco nero” di immane densità gravitazionale che risucchia in sé contraendola la massa della stella originaria nonché ogni altra massa che sia entrata nel suo “orizzonte degli eventi”, il cui raggio detto raggio di Schwarzschild può variare da due-tre chilometri fino a milioni di chilometri (per enormi buchi neri ipotizzati al centro di molte galassie): la forza gravitazionale vi è talmente intensa che la luce ne viene catturata e l’emissione luminosa impedita, cosicché i buchi neri (donde appunto la loro dicitura) sono invisibili – “censura cosmica” – e essenzialmente rilevabili solo dalle perturbazioni gravitazionali “mareali” causate in stelle vicine40. Si giunge poi all’ipotesi di Hawking, in cui mini-buchi neri “primordiali” concentrerebbero in un volume della grandezza di un protone la massa di una montagna alla temperatura di un miliardo di gradi: essi potrebbero rilasciare raggi x e gamma, evaporare e infine esplodere. Dunque, anche senza considerare l’ipotesi di Hawking per ora non sufficientemente suffragata, esistono certamente moltissimi casi in cui indubbiamente i resti stellari sono compressi in una massa molto piccola ad enorme densità, e sappiamo che la più piccola quantità di massa è un enorme serbatoio di energia intrappolata. Ci si chiede però: non vi sono limiti a queste trasformazioni di massa in energia? La teoria della relatività non dice che (ad esempio nelle stelle in fase di “sequenza principale”) non tutta ma solo una piccolissima frazione (stimabile in 0,007) della massa di partenza – ovvero dell’idrogeno fuso in elio – si trasforma in energia? Sembra evidente che fenomeni come le nane bianche, le stelle di neutroni, e soprattutto i buchi neri che risucchiano in sé contraendo-
40 Tralasciamo qui le sciocchezze fantascientifiche avallate da molti noti scienziati per cui attraversando un buco nero si uscirebbe magicamente in un altro universo.
383
la parte della massa di una stella morente nonché ogni altra massa dei dintorni, siano stati estrapolati e utilizzati come Singolarità iniziale universale. Ma è lecito estrapolare alcuni fenomeni particolari dell’universo generalizzandoli fino a farne un modello di comprensione della genesi dell’universo stesso, o non si tratta piuttosto di un procedimento indebito di generalizzazione induttiva? Una stella può contrarsi in una nana bianca, in una stella di neutroni, forse in un buco nero: ma il passaggio successivo, per cui tutto l’universo sia stato originariamente contratto in un decimo di millimetro cubo, cosituisce certamente una estrapolazione indebita. Infatti: si può immaginare una massa illimitatamente grande compressa in una singolarità o massa puntiforme con raggio e volume praticamente nullo ma con densità e temperatura infinita? In altri termini: può essere che tutto l’universo con i suoi miliardi e miliardi di anni luce, con i suoi miliardi di miliardi di galassie (per non dire infinite) ciascuna delle quali composta da un minimo di 100 miliardi di sistemi solari (1011) e ciascuna delle quali avente un diametro medio di 100 milioni di anni luce, sia stato virtualmente contenuto in un decimo di millimetro cubo? Certo si può rispondere che sì, che l’equivalente di miliardi di miliardi di galassie sia stato un tempo contenuto in una “capocchia di spillo” o in un volume ancora più ristretto: ma, a questa stregua, sembra non esservi limite alle ipotesi e tutto si può dire. Il saggio indiano diceva che tutto l’universo poggia su una tartaruga, mentre lo scienziato moderno assicura che stava tutto in una capocchia di spillo: non sapremmo per quale motivo dovremmo definire il primo (fraintendendone peraltro la profonda simbologia) ancora avvolto nelle nebbie del pensiero mitico mentre il secondo sarebbe ormai entrato nella comtiana fase scientifica e “adulta” dell’umanità. Ritornano qui i dubbi di Eddington, che contestava gli studi di S. Chandrasekhar chiedendosi come fosse possibile che nelle stelle in fase terminale la materia potesse raggiungere certi enormi valori di densità: e anche se in realtà si sbagliava perché veramente sussistono nelle stelle terminali (nane bianche, stelle di neutroni, buchi neri) fenomeni che possono apparire abnormi, rimane lecito il suo dubbio sull’esistenza di una densità infinita in un volume pratica384
mente nullo postulata dalla teoria del Big Bang. Certo una nana bianca, una stella di neutroni, un buco nero comprimono una massa stellare in un volume enormemente più piccolo: Eddington faticava a immaginarlo, ma comunque noi sappiamo che queste stelle sono in certa misura dei residui, in quanto hanno prima rilasciato nello spazio una parte notevole della loro massa o espandendosi come giganti rosse o esplodendo come supernove. Dunque soltanto una parte della massa stellare viene compressa in un volume piccolo, e comunque se una stella diventa una nana bianca compressa in un piccolo pianeta, o un buco nero con un orizzonte degli eventi di tre chilometri, bisognerà pur dire: un piccolo pianeta, un orizzonte di eventi di tre chilometri sono certamente poco ma son pur sempre qualcosa. Insomma: nelle nane bianche, nelle stelle di neutroni, nei buchi neri vi è comunque, per quanto compressa, solo una frazione della massa originaria della stella di provenienza. Inoltre: una nana bianca, una stella di neutroni, un buco nero, sono il concentrato di una parte di stella e non certamente il concentrato di tutta la massa dell’universo. Un buco nero, che comunque dovrebbe avere un volume ben superiore a un decimo di millimetro cubo visto che già il suo “orizzonte degli eventi” dovrebbe equivalere a alcuni chilometri, contiene al più parte della massa stellare di provenienza e qualcos’altro vi fosse capitato dentro: invece nella teoria del Big Bang saremmo in presenza di una singolarità che in un decimo di millimetro cubo conterrebbe in potenza non una stella bensì addirittura l’universo intero. Come può dunque la massa di tutto l’universo essere contratta in potenza in un volume quasi nullo ma a densità e temperatura infinita? Oltretutto già qui vi è un equivoco: si vuole infatti, e lo si ripete ad abundantiam nei testi espositivi della teoria, che nella singolarità iniziale in cui stava virtualmente contenuto tutto l’universo vi fosse una temperatura infinita, senonché se veramente la temperatura nella singolarità iniziale fosse stata infinita, come con grossolana imprecisione di linguaggio si dice, allora mai e poi mai per nessun motivo tale temperatura infinita – né in una frazione di secondo né in tutta l’eternità: si dia pure tutto il tempo che si vuole – avrebbe potuto scendere a un valore finito per 385
quanto grande sia dato perché una quantità infinita resta tale qualunque quantità finita le si sottragga (∞ – x = ∞). Certo in realtà si vuol dire che la temperatura iniziale sia stata altissima e non misurabile: ma anche così l’immagine richiama più la fantascienza che la scienza. La fisica quantistica è nata proprio, a partire da Planck, dal non voler ammettere quantità infinite che sarebbero risultate in un approccio classico, e Dirac per conto suo cercava di eliminare gli infiniti risultanti in fisica: non sappiamo quanto ciò sia giusto, ma certo nella teoria del Big Bang non v’è alcun timore nel porre con facilità estrema quantità infinite. In realtà – come abbiamo visto – è sostanzialmente a partire dalla teoria di Lorentz che si è giunti a porre come reale l’ipotesi per cui un corpo o una particella, alla velocità della luce, vedrebbe contratta la propria lunghezza e con essa la propria massa e le proprie dimensioni fino a scomparire, ed è soltanto con la teoria della relatività che si è supposto che un corpo alla velocità della luce aumenti la propria massa all’infinito con la sua totale trasformazione in energia. A partire dalla fisica novecentesca, in particolar modo relativistica, si è posta come reale l’ipotesi per cui in un volume nullo possa sussistere una massa infinita in contrazione estrema: come sia possibile che una massa infinita si contragga in un volume nullo invero non si sa, ma tuttavia a partire dalla teoria della relatività si è giunti a porre questa condizione-limite (certo allora già le galassie per la distanza supposte in allontanamento alla velocità della luce dovrebbero annullarsi e magicamente scomparire). Ma il punto è che al riguardo la vulgata relativistica fraintende lo stesso senso profondo della teoria della relatività. Infatti abbiamo già visto che lo stesso Einstein ha spiegato la contrazione lorentziana più come un effetto relativistico che non come un fenomeno reale, ovvero come una contrazione apparente relativa a un osservatore dato. Così egli dice che la Terra in moto risulterebbe accorciata di un centomilionesimo a un osservatore terrestre, e di qualche centimetro a un osservatore solare: ma che un corpo alla velocità della luce debba realmente contrarsi fino a realmente perdere la sua lunghezza e le sue dimensioni, è affermazione che non discende da una corretta lettura 386
Fig. 8 Contrazione della massa Dimensioni relative: contrazione della massa del Sole in una nana bianca, di una nana bianca in una stella di neutroni, di una stella di neutroni in un buco nero. Se non vi è un limite alla possibile contrazione e se amiamo la fantascienza, si può proseguire ad infinitum nella contrazione fino a immaginare l’universo intero contratto in un decimo di millimetro cubo.
387
della teoria della relatività. Parimenti dicasi per l’altrettanto strana ipotesi dell’aumento ad infinitum della massa di un corpo alla velocità della luce, con sua trasformazione in energia stante l’annullamento del volume. Lo abbiamo già visto: in realtà non si misurò nessun reale aumento di massa della particella portata ai limiti di c; il cosiddetto “aumento di massa” è in realtà un eufemismo per indicare la crescente difficoltà di accelerare la particella fino a c; si constata che la particella non può essere accelerata oltre un certo limite come se la sua massa fosse aumentata in proporzione di trenta o novecento o quarantamila volte in modo da offrire resistenza all’ulteriore accelerazione, ma questo non significa alcun reale aumento di massa se non quella aggiunta dalla forza accelerante. Ecco dunque quali sono le reali origini della Singolarità cosmologica che in un volume nullo o prossimo a zero conterrebbe in sé contratta una massa addirittura infinita: queste origini non stanno nemmeno nella teoria della relatività, là dove essa pone certe conseguenze per un corpo accelerato alla velocità della luce, ma piuttosto in un suo grossolano fraintendimento (di cui fu in parte responsabile lo stesso Einstein). Il matematismo e il fantasma del collasso gravitazionale Il punto centrale è che qui si vede bene che il ragionamento che ha condotto a porre come reale il mostruoso ibrido della Singolarità con volume nullo ma massa infinita è stato in realtà un ragionamento anzitutto e in primo luogo puramente matematico e soltanto in secondo luogo fisico e cosmologico. Infatti nel 1916 K. Schwarzschild (Sul campo di gravità di una massa puntiforme nella teoria di Einstein) disse: in linea di principio una massa x potrebbe essere compressa in un volume y mentre invece densità, pressione, temperatura dati come a, b, c crescerebbero in ragione inversamente proporzionale; se dunque con il diminuire del volume di x la densità, la pressione e la temperatura aumentano, allora proseguendo il calcolo a ritroso è possibile, data per definizione una massa X 388
di valore illimitato, porre tale massa compressa in un volume Y con valore zero o tendente a zero ma con densità, pressione e temperatura A, B, C infinite o tendenti all’infinito. Quando, dopo più di vent’anni, vennero scoperte le stelle di neutroni e si cominciò a parlare di buchi neri (peraltro già teoricamente previsti nel ’700 in base alla gravitazione newtoniana), si riprese il lavoro dimenticato di Schwarzschild. Vennero poi i “teoremi della singolarità” di Hawking-Penrose (1970), in cui la singolarità appariva la conseguenza necessaria di un teorema matematico. Si poté così ribadire: perché non pensare a una massa illimitata (= universo) originariamente data in un volume nullo a densità, pressione e temperatura infinita (= singolarità)? Insomma si è detto: se una stella può essere compressa in un piccolo pianeta o in un volume ancora più piccolo, allora perché non pensare che tutta la massa attualmente esistente nell’universo potesse un tempo essere compressa in un volume nullo o quasi nullo ma con densità e temperatura infinite? In effetti, nulla vieta di pensare ciò. Si tratta di un puro calcolo matematico: che però a questa possibilità puramente teorica risultante a un calcolo matematico debba essere corrisposta una realtà effettiva alle origini del cosmo sotto forma di singolarità iniziale, è altra questione. Ad esempio, normalissime equazioni predicono una crescita infinita nell’ampiezza delle oscillazioni di un ponte: ma in realtà noi sappiamo che le oscillazioni non crescono all’infinito in quanto superata una certa soglia il ponte si spezza. Dunque, non tutto ciò che è pensabile è reale: esistono anche calcoli teorici a cui non corrisponde nulla di reale. Così i teoremi della singolarità di Hawking-Penrose, alla fin fine, dicono semplicemente che un qualsiasi modello di universo in espansione riportato indietro nel tempo incontra una singolarità iniziale: ma naturalmente non possono dire e non dicono affatto che una singolarità si sia fisicamente verificata. L’esistenza dell’universo a partire da una singolarità iniziale può essere la risultante di un esercizio matematico, che però nulla ci dice circa la sua quanto mai improbabile esistenza fisica e reale. Hawking ha detto, riguardo il teorema di cui è coautore, che «non è possibile discutere a lungo di 389
fronte a un teorema matematico»41, ma questo è falso. Anche J. von Neumann pretendeva di aver dimostrato in un teorema matematico la necessità ineluttabile dell’indeterminismo quantistico e l’impossibilità dell’esistenza di “variabili nascoste”, tranne poi vedersi mostrare da J. Bell negli anni sessanta che il suo teorema era basato su assunzioni dubbie dal punto di vista fisico. Così, come il teorema di von Neumann e come tutti i teoremi, anche i teoremi della singolarità di Hawking-Penrose partono da determinate assunzioni e ne traggono determinate conseguenze. Precisamente, essi dicono: se l’universo è in espansione allora esso è iniziato da una singolarità; ovvero dati n punti in reciproco allontanamento radiale e riportando all’indietro il sistema si dovrebbe pervenire a una condizione iniziale in cui tutti i punti si trovavano in una singolarità. Ma non c’è bisogno di scomodare Gödel per dire che la verità dell’assunto di partenza resta ipotetica e indimostrata. Anche ammettendo la validità di quei teoremi tutto quanto se ne può trarre è al più che chi compra il modello espansionista deve anche comprarsi l’inserto allegato della teoria del Big Bang, in quanto i due modelli si tengono insieme un po’ come lo zoppo e il cieco cercano di aiutarsi l’un l’altro. Ora, che si tengano insieme è cosa di cui siamo convinti, perché in effetti abbiamo visto come sia difficile accettare il modello espansionista senza accettare anche la teoria del Big Bang: ma allora per conto nostro diremmo che proprio la necessità di portarsi a casa la singolarità con l’espansione è un ulteriore motivo per abbandonare anche il modello espansionistico che sembra condurre a quelle conseguenze inverosimili. Insomma noi riformuleremmo i teoremi della singolarità così: se l’universo è in espansione allora è iniziato da una singolarità; ma è inverosimile che l’universo sia iniziato con una singolarità, dunque ben difficilmente l’universo è in espansione.
41 S. Hawking, The Theory of Everyting. The Origin and Fate of the Universe, 2002, tr. it. La teoria del tutto. Origine e destino dell’universo, Milano 2004, Rizzoli, p. 51.
390
Al riguardo, circa la necessità di non dedurre immediatamente una teoria fisica da una formulazione matematica, va detto che lo stesso Einstein, che pur nel ’32 (come abbiamo visto) passò a un modello di universo evolutivo ed espansivo, non riteneva affatto possibile dedurre matematicamente tramite le sue “equazioni del campo” la singolarità iniziale. Scrisse infatti il fisico di Ulm, nell’appendice cosmologica al suo libro sulla relatività: «i dubbi teorici derivano dal fatto che nell’istante iniziale dell’espansione la metrica presenta una singolarità e la densità s diventa infinita. […] Per grandi densità del campo e della materia le equazioni di campo, e probabilmente anche le variabili del campo che intervengono in esse, non avranno significato reale. Pertanto non si può supporre che le equazioni valgano per densità elevate del campo o della materia, né si può concludere che l’“inizio dell’espansione” debba corrispondere a una singolarità in senso matematico. Si deve solo ricordare che le equazioni non possono essere estese a queste regioni»42. Dunque Einstein, nonostante l’importanza via via crescente da lui data ai modelli matematici e alle «libere invenzioni della mente», non sempre pretese di dedurre matematicamente l’universo e del resto è ben noto il suo aforisma sulle teorie matematiche: «nella misura in cui le leggi della matematica si riferiscono alla realtà non sono certe, e nella misura in cui sono certe non si riferiscono alla realtà» (Geometrie und Erfahrung, 1921). Resta comunque vero che egli, a partire dal suo famoso articolo cosmologico del ’17 in cui pur ancora difendeva un modello statico di universo, ha posto come reale l’inverosimile possibilità di un collasso di tutte le masse dell’universo in una singolarità, quella singolarità che egli più tardi disse di non poter dedurre matematicamente così consegnandola nella zona del mistero. E anche quando in seguito egli passò a un modello dinamico, in realtà il motivo teorico del suo abbandono del precedente modello di universo statico non fu tanto l’errore matematico rilevato da Friedmann nelle sue equazioni, quanto 42
A. Einstein, Il significato della relatività, cit. p. 120.
391
piuttosto fu ancora e sempre la sua erronea convinzione dovuta a un falso problema: la convinzione cioè che un universo statico dominato dalla forza gravitazionale sarebbe impossibile per collasso gravitazionale di tutte le stelle e galassie in un unico punto. Questa idea consegue a un paradosso che in realtà solo apparentemente segue alla teoria newtoniana: non a caso già nel 1848 il grande scrittore Edgar Allan Poe, nel suo poema cosmogonico Eureka43 (che fu il suo ultimo lavoro), aveva supposto che, stante la forza di Attrazione che lega tutte le masse gravitazionali attualmente disperse in un universo sferico, esse dovevano necessariamente un tempo costituire un’Unità divina primordiale da cui ad opera di una opposta forza di Repulsione (poi ipotizzata da H. Seelinger nel 1875) si sarebbero divaricate nella Molteplicità per tornare infine un giorno a quell’Unità – come si vede, una teoria del Big Bang ante litteram data all’interno di una visione sostanzialmente panteistica. Ora, proprio per evitare l’immagine di un simile universo dinamico, e per spiegarne il mancato collasso gravitazionale, Einstein introdusse a suo tempo quella sorta di forza repulsiva alla Poe detta “costante cosmologica” l: gli serviva affinché la misteriosa forza repulsiva che aumenterebbe con la distanza (così da essere insensibile a livello locale “salvando” le condensazioni) controbilanciasse l’attrazione gravitazionale che invece diminuisce con la distanza; a questo scopo l era posta ad hoc come assolutamente generica e priva di valore numerico, in quanto occorreva prima dare un valore alla massa gravitazionale dell’universo per poi dare a l un valore tale da controbilanciarla esattamente (e miracolosamente) proprio come –1 annulla +1. Però non vi era alcun bisogno di escogitare l per evitare il collasso gravitazionale dell’universo. Non perché il collasso gravitazionale sia fatale ma perché, come già mostrato dallo stesso Newton che si era posto il problema, in realtà questo “unico punto”
in cui tutto collasserebbe richiama l’idea errata di un inesistente centro unico di compattamento in un universo chiuso e finito (come nella vecchia teoria aristotelica per la quale tutti i gravi cadrebbero verso il centro del mondo, che gli aristotelici identificavano con la Terra): mentre invece in un universo in realtà infinito stelle e galassie (stante le enormi distanze che indeboliscono l’attrazione gravitazionale e stante le velocità in gioco che costituiscono velocità di fuga dagli attrattori) non sempre collassano fra loro e semmai collassano in più o infiniti punti e non certo in un punto solo (a meno di non pensare che nell’universo vi sia da qualche parte un gigantesco attrattore in grado di attrarre tutte le altre masse, anche quelle infinitamente distanti). In altri termini secondo Newton solo se l’universo fosse chiuso e finito e avesse un centro di gravità sarebbe instabile e potrebbe collassare su se stesso in un unico “centro di massa”; ma in un universo infinito, e dunque senza centro né periferia, nulla di ciò può avvenire semplicemente perchè in esso non v’è un centro di gravità. Scriveva infatti l’autore dei Principia (in una lettera a R. Bentley): «se la materia fosse dispersa in uno spazio infinito, essa non potrebbe mai ridursi in una sola massa, ma una parte di essa si aggregherebbe in una massa e un’altra parte in un’altra, in modo da formare un infinito numero di grandi masse disperse a gran distanza l’una dall’altra nell’infinità dello spazio. E questo potrebbe essere stato il modo con cui il Sole e le stelle fisse si sono formate». L’idea di fondo di Newton è stata pienamente confermata in meccanica celeste: basti ricordare il teorema di Sundman (1911) basato proprio sull’impossibilità reale della collisione totale di tutti i corpi celesti in un punto solo44. Ma se il pensiero di Newton al riguardo è rimasto lettera morta, il pensiero del collasso gravitazionale di tutte le masse dell’universo in un unico punto è rimasto: per questo Einstein, difendendo l’idea di un universo Cfr. V. Banfi, Introduzione alla meccanica celeste, Torino 1991, Centro di Astrodinamica G. Colombo, pp. 152-155. 44
43
392
E.A. Poe, Eureka, 1848 (tr. it. Roma 1996, Newton-Compton).
393
sferico e finito, e dunque in questo caso passibile secondo Newton di un collasso gravitazionale in un solo punto, onde spiegarne il mancato collasso e giustificarne l’equilibrio ha introdotto nelle sue equazioni la costante l. Da allora in poi questa costante è sempre servita a più usi: dichiarata in seguito inutilizzabile da Einstein, che passando al suo modello di universo espanso la definì il più grande errore della sua vita (forse anche perché gli impedì di giungere lui per primo alla mirabile idea di un universo espanso), essa è stata decenni dopo sempre più spesso riutilizzata (come vedremo) proprio per dare all’universo quella forza repulsiva che consentirebbe l’espansione. In realtà la teoria del Big Bang, nel supporre una violenta forza repulsiva causante il “grande botto” e con esso la misteriosa curvatura ed espansione dello spazio, reintroduce la vecchia costante l da Einstein supposta nel ’17 e poi abbandonata perché inverificabile e speculativa, o meglio: abbandonata per poter passare da un universo statico a un modello di universo dinamico ed espanso ma sempre curvo. L’Esplosione, e più non dimandare Certo questo strano buco nero rovesciato in cui consisterebbe la singolarità, che anziché trattenere tutto in sé scaglia addirittura fuori di sé l’intero universo, veramente risulta incomprensibile. Matematicamente la cosa è un gioco: basta togliere un “+” e porre un “–” nelle equazioni relativistiche e immediatamente l’attrazione diventa una repulsione, la gravitazione un’“antigravitazione” e insomma il collasso gravitazionale diventa un’espansione repulsiva. Ma fisicamente e realmente? Senz’altro per nostri limiti intrinseci, proprio non riusciamo a capire ad esempio come questa singolarità iniziale possa mai produrre l’immane esplosione da cui si sarebbe generato il cosmo. Invero ormai vari teorici del Big Bang (come S. Odenwald) sostengono che in realtà esso «is not an explosion»: non vi sarebbe stato un punto privilegiato nello spazio generante l’espansione bensì tutti i 394
punti dello spazio si sarebbero reciprocamente allontanati. Come abbiamo visto questa era già l’idea di Eddington (l’espansione senza alcuna esplosione inaugurale) o l’idea di Hoyle ultima maniera (tanti little Bangs allontanerebbero tutti i punti in un universo eterno), senonché qui la cosa diventa un truismo stante l’anzidetta difficoltà di concepire l’espansione senza la precedente singolarità in esplosione: in realtà se l’universo è una sorta di sferoide gonfiato generato con moto radiale e isotropo dal riverbero di un’esplosione, cosicché le galassie siano collocate alla superficie di questo sferoide in espansione, allora non si vede come si possa negare che vi sia un punto di singolarità privilegiato da cui si diparte l’esplosione, punto che certamente non sarebbe più vicino ad una galassia che ad un’altra bensì sarebbe indubbiamente il centro della sfera equidistante da tutte le galassie poste alla sua superficie. Ma in ogni modo anche il dire che il Big Bang sarebbe accaduto ovunque anziché in un sol punto non muta affatto l’ipotesi dell’esplosione (semmai la moltiplica e la rende ancor più incomprensibile). Evidentemente infatti si tratterebbe di un’esplosione piuttosto particolare (ad esempio essa sarebbe stata silenziosa se dipartita da un sol punto antecedente alla creazione dello spazio, poiché non vi sarebbe stata aria in cui le onde sonore avrebbero potuto propagarsi, cosicché semmai il “rumore” verrebbe dopo), ma sempre di esplosione si tratta, o quantomeno di enorme forza repulsiva innescante l’espansione, sia che essa coinvolga un sol punto o (ancor più misteriosamente) tutti i punti, con conseguente velocità di fuga dell’universo in espansione che ne conseguirebbe. Insomma si rischia di giocare con le parole, e giustamente diceva Narlikar: «se il Big Bang non è un’esplosione, allora cos’è?». Beninteso sappiamo che l’universo è violento e che in esso continuamente avvengono esplosioni: a quanto sembra le stelle di neutroni possono emettere gettiti di materiale stellare anche molto più ampi del nostro sistema solare; i fulminei ed evanescenti lampi di raggi gamma (gamma ray bursts), che talora vengono rilevati negli spazi siderali (quale probabili effetti residui causati da supernove o da una stella di neutroni o da due stelle di neutroni in collisione o forse anche da buchi neri), possono produrre in pochi secondi 395
un’energia altissima (secondo taluni addirittura pari a quella erogata dal Sole in tutta la sua vita); per Hawking perfino i buchi neri possono rilasciare raggi x e gamma, evaporare e infine esplodere. Soprattutto abbiamo l’esempio della supernova: una stella morente che, esaurito il combustibile nucleare, collassa gravitazionalmente su se stessa innescando in condizioni di altissima temperatura e densità reazioni nucleari cosicché infine, prevalendo la forza di pressione all’esterno sulla attrazione gravitazionale interna, la stella esplode come in un ruggito spaventoso scagliando ed espandendo nello spazio tutti i propri detriti e residui da cui poi eventualmente si genereranno nuove stelle. Certamente la vita delle stelle (nelle fasi normali e nelle fasi estreme quali supernova, stella di neutroni e buco nero) è stata un modello in base a cui concepire, per estrapolazione e generalizzazione, la vita del cosmo e in particolare la sua formazione per esplosione nella teoria del Big Bang: l’universo statico proposto da Einstein nel 1917 – in perpetuo equilibrio fra forza di repulsione espansiva e forza gravitazionale contrattiva – non fa altro che riprodurre in grande la vita normale delle stelle nella loro “sequenza principale”, in equilibrio appunto fra forza di pressione verso l’esterno e contrazione gravitazionale verso l’interno; invece i successivi modelli di universo dinamici in cui l’esplosione, la forza repulsiva e la pressione verso l’esterno con conseguente espansione prevalgono sulla opposta forza gravitazionale, che tenderebbe a perpetuare lo stato di singolarità contratta, riproducono in grande le fasi terminali dell’evoluzione stellare soprattutto evidenti nei casi di supernova (anche nella teoria di Hawking i mini-buchi neri sono chiaramente concepiti come una sorta di mini-Big Bang). Ma con questo siamo veramente autorizzati a pensare che l’universo intero nasca da una inimmaginabile esplosione o, nuovamente, non si tratta qui di una estrapolazione e generalizzazione indebita? Certo, in una supernova il collasso gravitazionale conseguente all’esaurimento dell’idrogeno, determinando una contrazione di massa in un piccolo volume e quindi un grande aumento della temperatura, innesca un’esplosione e dunque il mutarsi di una contrazione 396
Fig. 9 Nebulosa Granchio Resto della supernova osservata dagli astronomi cinesi nel 1054 d.C. Per la teoria del Big Bang l’universo avrebbe avuto un inizio inverosimilmente concepito, sul modello di una supernova, come l’esplosione di una massa contratta.
397
gravitazionale in una repulsione espansiva: ma che qualcosa del genere sia stato addirittura la causa dell’universo e il suo principio, questa è soltanto un’affermazione. Infatti la supernova è una stella, cioè un sistema enormemente complesso sui cui residui si formeranno magari altre stelle ma non certamente l’intero cosmo. Ci si deve poi domandare se un’esplosione abbia il potere di creare: infatti è vero che i detriti di una supernova forniscono il materiale – per così dire dire riciclato – con cui probabilmente in futuro si creeranno altre stelle; ma è anche vero che la supernova si limita a fornire il materiale da costruzione mentre le stelle vengono prodotte in altro modo e cioè per contrazione gravitazionale di masse gassose (per lo più senza alcuna visibile supernova precedente). Oltretutto nella supernova la massa prima collassa e poi immediatamente esplode proprio per effetto di tale collasso, mentre viceversa con la Singolarità iniziale non avremmo una materia precedentemente collassata (a meno che non vi sia stato un precedente Big Crunch, in una serie infinita di “universi rimbalzanti” senza un inizio, ma lo stesso cosmologo sovietico Y. Zel’dovicˇ, che propose questa idea, la respinse in seguito come contraddittoria): certamente una Singolarità a densità infinita non potrebbe esistere da un’eternità prima di esplodere in quanto esploderebbe immediatamente. La questione è: perché mai la Singolarità esplode? Qui in genere lo scienziato, come un poliziotto, vieta di porre domande: “qui le domande le faccio io”, sembra che dica. Invero v’è chi specula, e si formulano anche teorie (G. Veneziano e M. Gasperini) su cosa vi fosse “prima dell’inizio” (e naturalmente si dice: un “vuoto quantico”). Ma in genere il veto è assoluto. Ci si dice che la domanda non sia lecita e sia priva di senso, perché la scienza in quanto tale ci può dire cosa accade un centesimo di secondo dopo l’esplosione (come se già questo peraltro di per sé non fosse alquanto speculativo) ma non cosa accada prima dell’esplosione o nell’istante dell’esplosione. Senonché questo veto di porre domande, questo respingere e qualificare come insensata la domanda stessa, peraltro secondo obsolete procedure epistemiche che lo stesso neopositivismo dopo averle poste ha poi superato, è soltanto un divieto di porre domande im398
barazzanti che traduce l’incapacità e l’impossibilità assoluta di fornire un qualsiasi tentativo di risposta: si tratta in effetti di domande che infastidiscono perché costringono a pensare. Lo sappiamo che Agostino riteneva illegittimo chiedere cosa facesse Dio prima di creare il mondo, sostenendo (Confessiones XI 13.15-17) che prima del tempo non vi fosse nessun tempo e ricordando (XI 12.14) quel tale per il quale Dio prima di creare il mondo preparava l’inferno per chi pone simili domande. Sappiamo che a certi problemi metafisici non si può dare risposta, e tuttavia nella cosmologia dinamista non si tratta di sondare la divinità. Noi non chiediamo cioè cosa facesse Dio prima di creare la Singolarità: lo sappiamo bene che per i teorici dell’espansione Dio gonfiava palloncini. Nemmeno chiediamo (come pur sarebbe lecito) se questa Singolarità esistesse da sempre. Chiediamo semplicemente e con tutta gentilezza a chi vuole spiegare l’origine del cosmo con l’esplosione di una Capocchia di Spillo di spiegarci per piacere in qualche modo perché la Capocchia esploda. La domanda sul perché la Capocchia esploda non è più metafisica e più speculativa dell’asserto che postula l’esistenza della Capocchia e la sua esplosione. Lo stesso P. Davies, noto teorico del Big Bang, riteneva lecito porre la domanda: what caused the Big Bang? Dunque: perché la Capocchia esplode? chi glielo fa fare di esplodere? glielo ha ordinato il Dottore? E perché esplode proprio quindici miliardi di anni fa, magari dopo essersene stata quieta (cosa che si è vista impossibile) per un’eternità, e non cento miliardi di anni fa? Oltretutto qui si richiama ancora un qualcosa di incomprensibile: perché se lo spazio e il tempo nascono con il Big Bang, cosicché priva di senso appaia allo scienziato la domanda su cosa vi fosse “prima” in quanto prima di esso non vi era né spazio né tempo, allora evidentemente prima del Big Bang non vi poteva nemmeno essere tutta la massa dell’universo concentrata nella singolarità, perché una massa per quanto concentrata e per quanto tutta risolta in energia occupa comunque uno spazio per quanto minimo (fosse anche lo spazio della “capocchia di spillo”) in un tempo dato: cosicché, se veramente prima del Big Bang non vi era né spazio né tempo né 399
massa, allora questo equivale a dire che la singolarità sarebbe stata per così dire solo virtuale e che dunque con il Big Bang vi sarebbe stata una misteriosa, improvvisa e incomprensibile creatio ex nihilo, con lo spazio e con il tempo, di tutta la materia dell’universo. Quindi non è vero che nella singolarità sia compressa tutta la massa dell’universo: nella singolarità (se veramente essa è fuori dello spazio e del tempo) non v’è assolutamente nulla se non forse una pura virtualità, ma ciononostante da essa dovrebbe improvvisamente fuoriuscire con un’esplosione tutto l’universo, e questo significa che ne avremmo incredibilmente tutta la massa dell’universo creata ex nihilo all’improvviso. Imperscrutabile, come si vede: e dunque il veto di porre domande su cosa sia la misteriosa singolarità che esplode tradisce semplicemente l’imbarazzo dello scienziato di fronte alla domanda stessa. Così quando Grünbaum45 tenta di staccare la teoria del Big Bang da ogni assunto metafisico che richiami una creatio ex nihilo da parte di un Dio creatore, qualificando neopositivisticamente siffatta operazione come una «Pseudo-Explanation» e come lo «Pseudo-Problem of Creation in Physical Cosmology», egli certamente persegue sul piano scientifico un lodevole intento senza però vedere l’inutilità dello sforzo: perché in effetti, per quanto detto sopra, la teoria di una singolarità fuori dello spazio e del tempo e dunque priva di massa che esplode generando tutta la massa dell’universo equivale necessariamente ad una creatio ex nihilo. Né d’altra parte noi ci scandalizziamo più di tanto all’idea di una creatio ex nihilo, supposta anche (sia pur in piccole dosi e non tutta in un colpo solo) dalla teoria dello stato stazionario nonché da certi fisici quantistici, perché ben consci che tale idea non è più incomprensibile dell’opposta idea – pur rispettosa dei princìpi di conservazione – di una aeternitas della materia (sarebbe opportuna al riguardo una ripassatina alle antinomie kantiane del finito e dell’infinito). Diciamo sem-
45 A. Grünbaum, The Pseudo-Problem of Creation in Physical Cosmology, in “Philosophy of Science”, 56, n. 3, 1989, pp. 373-394; e Creation As a Pseudo-Explanation in Current Physical Cosmology, in “Erkenntnis”, 35, 1991, pp. 233-254.
400
plicemente che, anche ammesso che vi sia o vi sia stata una creazione dal nulla, comunque non dal Big Bang (concepito sia nello spazio-tempo sia fuori) tale creazione può essere avvenuta e ciò per le inestricabili difficoltà in cui tale idea si inviluppa. Oltretutto, vi è qui un altro problemino a cui non si dà mai risposta: se veramente lo spazio e il tempo fossero nati con l’esplosione (o come volete chiamarla), allora mai vi sarebbe stata l’espansione dell’universo per il semplice fatto che non vi sarebbe stato alcuno spazio e alcun tempo, nemmeno quello infinitesimo costituito dalla singolarità, in cui l’universo nascente potesse espandersi; se tutto lo spazio fosse racchiuso nella mia stanza, non vedo come essa potrebbe espandersi se al di fuori non v’è nulla in cui espandersi. In realtà pretendere che il Big Bang possa misteriosamente creare lo spazio e il tempo è incongruo, e non a caso Hawking ha cercato di difendere l’idea di un Big Bang non assolutamente creatore in quanto nato da un vuoto quantistico eterno all’interno di un tempo “immaginario” eterno che poi sarebbe una sorta di tempo assoluto. Ma da parte nostra, senza indugiare oltre su problemi metafisici, ci limitiamo semplicemente a porre la domanda di base che – per quanto ci si vorrebbe proibire – riteniamo invece assolutamente legittima: se c’è un’esplosione, cosa la determina? Qui infatti si tratterebbe di immaginare alle origini dell’universo una sorta di forza di pressione quale quella esercitata da un gas enormemente riscaldato, o quale quella che determina un’esplosione da supernova, ma in realtà la contraddizione è stridente: poiché questa misteriosa “singolarità”, che certo non è una stella, non è nemmeno un nucleo atomico suscettibile in quanto tale di fissione o fusione nucleare cosicché dunque possa esplodere. Nella singolarità non vi è uranio, e nemmeno essa è una bomba all’idrogeno. La teoria anzi dice espressamente (vedasi Weinberg) che le prime particelle si formerebbero entro un secondo dopo l’esplosione, e che i primi nuclei atomici si formerebbero dopo i primi fatidici tre minuti. Soltanto dopo l’esplosione protoni e neutroni si unirebbero a formare i nuclei atomici, e ancora dopo nuclei ed elettroni formerebbero atomi. Sembra evidente dunque che per l’esplosione inaugurale si richieda almeno quella struttura nucleare 401
che per definizione la non meglio precisata singolarità iniziale assolutamente non possiede: prima di creare le particelle, l’esplosione in realtà le richiede e solo dal loro movimento potrebbe trarne quella supposta temperatura infinita. Inoltre, se la singolarità non è una particella, e se anzi non può essere concepita come la massa contratta di tutto l’universo, e se dunque alfine è una sorta di virtualità o di potenzialità, allora essa non può avere una temperatura infinita o comunque altissima, ed anzi in realtà non può avere alcuna temperatura: infatti, se la temperatura – come sappiamo – è sostanzialmente il prodotto dell’urto di una molteplicità di particelle in moto, cosicché per avere una temperatura almeno minima dovrebbero richiedersi almeno due particelle collidenti, allora in realtà la singolarità iniziale – che non consiste di una pluralità di particelle ed anzi a ben vedere non consiste nemmeno in una particella – dovrebbe avere non una temperatura infinita bensì una temperatura nulla. Ma allora, non essendovi alcuna temperatura (tantomeno “infinita”), non si vede in che modo la singolarità possa esplodere, visto che qualunque esplosione richiede delle reazioni termiche. Certo si è detto che alle altissime energie della singolarità iniziale, in quella sorta di buco nero rovesciato che respinge anziché attrarre, per definizione non valgano le leggi usuali della fisica (non solo quelle della fisica classica ma nemmeno quelle della fisica relativistica e della meccanica quantistica): ma allora che senso ha porre una ipotetica singolarità iniziale, che nulla se non una teoria preventiva ci porta a porre, aggiungendo che con la matematica e la fisica di cui disponiamo oggi non la possiamo capire? A questo punto credervi diventa una questione di fede o di dogma, e infatti non a caso il cosmologo A. Sandage ha detto che «il Big Bang non può essere inteso in altro modo che come un miracolo»: senonché nella scienza non dovrebbe essere questione né di fede né di dogma. Così, per risolvere il mistero di questa singolarità infinitesimale che non è un nucleo e che tuttavia esplode con potenza inimmaginabile, i cosmologi alla fine hanno tentato una risposta e si sono inventati una “quinta forza” o Forza Repulsiva – misteriosamente determinata dall’energia di un 402
originario “vuoto quantistico” in cui consisterebbe la singolarità – che consentirebbe per principio tale esplosione-espansione. Ma in tal modo si finisce per ipotizzare le condizioni più inverosimili, del tutto al di fuori di ogni fisica conosciuta, così di fatto ponendocisi fuori della scienza: infatti invano i cosmologi quantistici, come Hawking, hanno cercato di spiegarci come le fluttuazioni di un vuoto quantistico all’interno di un tempo “immaginario” eterno abbiano determinato il Botto, e in realtà questo “vuoto” che pur essendo privo di particelle non è un vuoto e esplode con potenza terrifica ricorda molto le misteriose e incredibili proprietà del vuoto che i medievali immaginavano nel loro horror vacui. Nemmeno si capisce se questa immaginata Forza repulsiva sia direttamente o inversamente proporzionale alla distanza, cioè se tale forza acceleri sempre più l’espansione (come pensava Einstein e oggi alcuni teorici dell’inflazione) o se invece la diminuisca (come altri pensano), ma non importa: perché qui ormai siamo nella speculazione gratuita, e dunque si può praticamente dire tutto ciò che aggrada. Certo si potrebbe a questo punto domandare il perché di questo attaccamento irrazionale, e ignaro di ogni contraddizione, all’idea dell’esplosione inaugurale. Non potrebbe ad esempio il Vaso di Pandora della Singolarità rovesciare tutto il suo contenuto, e cioè l’intero universo, poco a poco e goccia a goccia e lentamente anziché tutto in un colpo in un’unica inimmaginabile esplosione? Ma la risposta è presto data: in realtà i teorici del modello standard non vanno tanto per il sottile, e sono sordi e ciechi ad ogni aporia, perché hanno assoluto bisogno dell’esplosione per mantenere in piedi il loro modello. Infatti, se veramente tutte le galassie dell’universo fossero state un tempo concentrate in un decimo di millimetro cubo o in una capocchia di spillo, allora le forze attrattive sarebbero state così incredibilmente potenti che solo un’inimmaginabile esplosione ancora più potente avrebbe potuto rompere la singolarità separandone i componenti. Quindi, contrariamente a quanti sostengono che il Big Bang «is not an explosion», appare invece chiaro che essa è necessariamente un’esplosione, e non potrebbe essere se non un’esplosione. Parimenti solo questa idea di violenta 403
espansione conseguente alla pretesa inimmaginabile esplosione iniziale spiega l’attaccamento pervicace, veramente oltre ogni ragionevolezza, alla legge di Hubble che invece appare priva di valore universale. Infatti per la legge di Hubble le galassie aumentano la velocità con la distanza, e dunque le galassie più distanti da noi sarebbero le più veloci. Ma perché le galassie più distanti devono assolutamente essere le più veloci? Non si tratta soltanto dell’interpretazione letterale e unilaterale del red shift come un Doppler che conduce a questa conclusione. Infatti in realtà si vuole anche – pur con evidente forzatura viste le anomalie – che le galassie più distanti siano le più antiche, e questo perché? Perché così le galassie più distanti e al contempo più antiche, essendo presupposte proprio per la loro presunta antichità come più vicine alla mitica esplosioneespansione inaugurale, sarebbero anche le più veloci proprio in quanto risentirebbero maggiormente della violenta accelerazione iniziale che si vuole impressa all’universo con il Big Bang. La teoria dell’Esplosione dunque assolutamente non convince, ma infine al riguardo è inutile chiedere lumi: affascinato dall’atomo e dalle grandi conquiste della fisica nucleare, Lemaître sempre più difese negli anni trenta e in seguito il suo «universo-atomo» che si disintegra esplodendo, e certo non è un caso che nel secolo che ha visto i grandi sviluppi della fisica atomica, e poi la proliferazione nonché l’utilizzo delle bombe atomiche, la stessa creazione sia stata concepita come una gigantesca esplosione nucleare. Forse ancor più della supernova e della singolarità da buco nero, è stata la sinistra bellezza del fungo nucleare – che dopo il primo test di “prova” (New Mexico, 16 luglio 1945) fece esclamare a Fermi: «che bell’esperimento!» – ad aver così colpito l’immaginazione degli scienziati fino a diventare, nell’incuranza di palesi contraddizioni logiche, il paradigma in base a cui concepire la creazione: d’altronde non a caso quell’esperimento si chiamava in codice Trinity, e così l’universo verrebbe da una bomba esplosa i cui frammenti diventerebbero le galassie. Noi invece pensavamo ingenuamente che un’esplosione distrugge e non avevamo capito che essa fosse lo strumento principe della creazione, la mano sinistra di Dio. 404
VII La radiazione di fondo diversamente interpretata Una pretesa prova del Big Bang, come si sa, è l’esistenza della cosiddetta “radiazione cosmica di fondo di microonde” (cosmic microwave back-ground). R. Tolman negli anni trenta disse che la temperatura dell’universo sarebbe diminuita in presenza di un’espansione, e nel 1948 G. Gamow, R. Alpher e R. Herman pensarono che, come dopo un’esplosione nucleare la zona interessata rimane per decenni contaminata radioattivamente, così nell’universo attuale doveva pur esservi l’eco della inverosimile temperatura “infinita” dell’istante zero a cui dopo l’esplosione e con la successiva espansione dell’universo doveva aver fatto seguito un continuo raffreddamento progressivo. Più tardi Alpher e Herman e poi Gamow valutarono che se l’universo fosse nato con l’esplosione vari miliardi di anni fa allora la sua temperatura attuale dovrebbe essere circa 5 gradi Kelvin. Quindi A. Penzias e R. Wilson, peraltro in tutt’altre faccende affaccendati (dovevano semplicemente rilevare la fonte di certi disturbi nelle comunicazioni), incidentalmente e per puro caso rilevarono nel 1964 una radiazione cosmica di fondo a microonde abbastanza isotropa e ovunque diffusa di quasi 3 °K (2,7 °K) ovvero –270 °C (0 °K equivale a una temperatura di – 273,15 gradi centigradi: per passare da una scala in gradi centigradi a una scala Kelvin basta aggiungere 273 al valore in gradi centigradi). Immediatamente si interpretò questa radiazione come l’eco e il residuo fossile e dunque quale verifica alla teoria del Big Bang, e Penzias e Wilson furono presto insigniti del Nobel «for their discovery of cosmic microwave background radiation». Ancor prima che Penzias e Wilson pubblicassero i loro dati nell’Astrophysical Journal, iniziò la gara per accordare 3°K con la temperatura “infinita” o comunque altissima e con l’antichità dell’universo. Alla fine il premio Nobel S. Weinberg, nel suo testo su I primi tre minuti dell’universo46, ha addirittura ritenuto in tutta 46
S. Weinberg, I primi tre minuti dell’universo, cit. pp. 116-137.
405
serietà di poterci dare la radiocronaca minuto per minuto, a partire dal primo centesimo di secondo, della nascita e della formazione dell’universo manco egli fosse stata una divinità testimone dell’evento. La chiama familiarmente “ricetta per un universo caldo”, un universo in cui dopo il botto la temperatura si dimezza con il raddoppiamento delle dimensioni dell’universo stesso. Particolarmente importanti risultano i primi tre minuti, piuttosto che una mezz’oretta, ma questo è logico: sappiamo bene che il tre è un numero sacro. Ecco i tempi di cottura nell’universo scotto di Weinberg: – al tempo zero (t = 0: dunque fuori del tempo), singolarità a temperatura infinita; – a 10–43 secondi dall’esplosione (tempo di Planck), la temperatura infinita della singolarità (in cui invece dovrebbe esservi la più totale assenza di temperatura) scende immediatamente a un valore finito: 1032 °K; l’universo avrebbe in quell’epoca un diametro di 10–33 centimetri e una densità di 1092 grammi per centimetro cubo; – a 10–34 s., temperatura a 1028 °K (con formazione di quark, elettroni e neutrini e rispettive antiparticelle); – a 10–5 s., temperatura a 1013 °K (con formazione di protoni e neutroni); – a un centesimo di secondo (0,01 secondi) dall’esplosione: 100 miliardi di gradi Kelvin (1011 °K); – a un decimo di secondo (0,1 secondi) la temperatura scende a 30 miliardi di Kelvin (3·1010 °K); – a un secondo dall’esplosione la temperatura scende a 10 miliardi di Kelvin (1010 °K), che è mille volte superiore a quella presente nel centro del Sole, con crescente formazione di particelle (protoni, neutroni, elettroni, fotoni, neutrini); – a 13,82 s. la temperatura scende a 3 miliardi di °K (3 · 109 °K) in un universo cento volte più grande, con formazione dei più semplici nuclei atomici; – a 3 minuti e 2 s. (due secondi! ma come lo sa?) la temperatura dell’universo nascente scende a un miliardo di °K (109 °K), che è 406
una temperatura cento volte più elevata di quella del Sole, con formazione di nuclei atomici; – a 3 minuti e 46 s. (?) la temperatura dell’universo scende a 900 milioni di °K (0,9 · 109 °K); – a 34 minuti e 40 s. (??) la minestra troppo calda viene lasciata raffreddare: siamo a 300 milioni di °K (3 · 108 °K); – da allora la temperatura scende continuamente e l’universo si raffredda sempre più fino a giungere, dopo 500.000 anni (ma tutti i calcoli variano a seconda dell’autore), a 5000 °K; dopo un milione di anni a 3000 °K (temperatura equivalente alla metà circa di quella alla superficie del Sole) con formazione di atomi di idrogeno; dopo tre milioni di anni la temperatura scende a 1000 °K; dopo 3 miliardi di anni a 10 °K; infine, dopo 15 miliardi di anni, al livello attuale di 3 °K. Ci si può chiedere ora: come fa Weinberg a sapere cos’è accaduto miliardi di anni fa con tanta precisione, fino a spaccare il secondo? Egli stesso confessò una volta: «devo ammettere che provo un vago senso di irrealtà scrivendo sui primi tre minuti come se veramente sapessimo di cosa stiamo parlando». E, in effetti, noi sorridiamo oggi di J. Lightfoot che nel 1642 proclamò che la creazione era sicuramente avvenuta il 17 settembre del 3928 a.C., e parimenti sorridiamo dell’arcivescovo T. Usher che invece (in base a un diverso conteggio delle generazioni elencate nella Bibbia) disse che la creazione era avvenuta sabato 22 ottobre del 4004 a.C., alle nove del mattino (secondo altri, a mezzodì): perché non dovremmo sorridere di un premio Nobel che addirittura cronometra per la genesi dell’universo il primo centesimo di secondo? Le previsioni prevedibili e la sincronizzazione dei valori Qui anzitutto va fatta una prima obiezione: va detto cioè che non era difficile “prevedere” che nell’universo e negli spazi siderali vi fosse una temperatura media. Praticamente tutti l’avevano “previ407
sto”47: per primo Guillaume (il citato critico della relatività) che nel 1896 valutò in 5,6 °K la temperatura dell’universo, naturalmente limitatamente allo spazio interstellare della Via Lattea che allora si riteneva coincidente con l’universo. Poi venne Eddington che nel 1926 in base ai suoi calcoli stimò la quantità di luce proveniente dalle stelle come equivalente a 3,18 °K se tradotta in equilibrio termico48, ancora scrivendo l’anno seguente che «al di là di una certa distanza dal Sole la temperatura di un solido o di un liquido scende a –270° C, cioè a 3 °K sopra lo zero assoluto»49. Quindi nel 1933 E. Regener, analizzando l’energia dei raggi cosmici, valutò la temperatura media dello spazio – questa volta intergalattico – in 2,8 °K. Inoltre con la radioastronomia fin dal 1931 l’inascoltato K. Jansky aveva rilevato il fondo di emissione di onde radio che ora si sa provenire dalla Via Lattea, mentre in seguito si rilevarono (dapprima sempre all’interno della Via Lattea) le radiosorgenti di origine stellare. Parimenti si conosceva la temperatura del Sole e di molte stelle e si aveva un’idea, via via sempre più precisa, delle temperature dei pianeti del sistema solare e dei loro satelliti: ad esempio fin dal 1870 si sa che la temperatura della faccia della Luna non illuminata dal Sole è circa 270 °K ovvero poco sotto 0 °C; parimenti si sa che la temperatura media della Terra è circa 287 °K = 14 °C; che l’emisfero di Mercurio non esposto al Sole è 93 °K = –180 °C; che l’atmosfera di Giove è –195°; di Saturno –190°; di Nettuno e Urano –200°, di Plutone –236°. Dunque – sapendo che lassù fa freddino, sottraendo le temperature nei dintorni stellari, riguardando il vecchio Eddington – non era forse così difficile “prevedere” la temperatura media degli spazi siderali intorno a 3 °K: se 0 °K è un punto fuori della scala a
47 Cfr. A. Assis – M. Neves, History of the 2.7 K Temperature Prior to Penzias and Wilson, in “Apeiron”, Montreal, II, n. 3, 1995, pp. 79-84. 48 A.S. Eddington, The Internal Constitution of the Stars, Cambridge 1926, University Press, Cap. XIII (“Materia diffusa nello spazio”), p. 371 ed. 1988. 49 A.S. Eddington, Stars and Atoms, 1927, tr. it. Luci dall’infinito, Milano 1933, Hoepli, p. 174.
408
cui corrisponderebbe un corpo immaginario privo di calore, se la temperatura si abbassa con il decrescere dell’energia cinetica e se la temperatura assoluta è 0 °K corrispondente ad una condizione estrema in cui gli atomi, quasi privi di energia cinetica, sono praticamente fermi e non esistono temperature ad essa inferiori, allora poteva ben essere ipotizzabile che negli spazi siderali la temperatura dovesse essere solo di poco superiore a 0 °K. Così nel 1937 – dunque ben prima di Alpher e Herman, e un po’ dopo Eddington – W. Nernst (che contestava la teoria della relatività e le sue implicazioni cosmologiche, nonché l’interpretazione Doppler del red shift, proponendo un universo infinito senza espansione) aveva presupposto un etere ovunque diffuso che, come assorbiva la luce causandone il rallentamento di frequenza e il red shift, così assorbiva la radiazione cosmica tutta causando un riscaldamento del mezzo interstellare valutato prima in 0,75 °K e poi in 2,8 °K. Quindi nel 1940 una vasta nube interstellare rivelò una temperatura di 2,3 °K e nel 1941 un astrofisico australiano, A. McKellar, stimò la temperatura dello spazio interstellare in 2,4 °K, valore poi confermato da G. Herzberg: ove il fatto più interessante è che McKellar (come Nernst) fece questa previsione non in base alla teoria del Big Bang con la sua espansione e la sua eco di fondo, bensì studiando le righe nere di assorbimento interstellare rivelate alla spettroscopia; del resto negli anni cinquanta alcuni radioastronomi in Francia e in Russia notarono l’esistenza di un rumore di fondo. Dunque era sufficiente un’attenta analisi spettroscopica a rivelare la radiazione di fondo, del tutto a prescindere dal Big Bang: gli scienziati suddetti non stavano affatto cercando l’eco del Big Bang (a cui Eddington per primo, come sappiamo, non credeva affatto) bensì stavano ipotizzando la temperatura di un supposto mezzo interstellare o ancor più semplicemente stavano misurando il grado di assorbimento interstellare della luce proveniente dalle stelle (d’altronde lo stesso Wilson, nel ’64, era un sostenitore del modello stazionario e non pensava al Big Bang). Poi venne R. Dicke che, nel 1946, scoprì addirittura una radiazione cosmica di fondo con una temperatura inferiore a 20 °K (il limite inferiore del suo dispositi409
vo). Per Dicke l’universo passava attraverso cicli successivi di espansione e contrazione, pur senza un vero e proprio Big Bang iniziale, e tuttavia egli non pensava affatto di misurare una radiazione fossile: «non pensavamo alla radiazione del Big Bang – fu il suo eloquente successivo commento – ma solo a un possibile bagliore emesso dalle più distanti galassie dell’universo». Più tardi Dicke stimò addirittura in 45 °K la temperatura dell’universo, mentre nel 1951 Alpher ed Herman (fautori invece dell’evento inaugurale) proposero 28 °K. Quindi Finlay-Freundlich, che (come abbiamo visto) interpretava il red shift in termini di tired light, disse nel 1954 che la temperatuta T dello spazio intergalattico doveva essere «vicina allo zero assoluto» (near the absolute zero), come pensava anche Hoyle, finendo però per quantificarla come oscillante fra 1,9 °K e 6 °K. Poi altri ancora esaminarono il grado di assorbimento della luce interstellare e sempre videro che, qualunque fosse stata la stella considerata, il grado di assorbimento della sua luce oscillava fra 2,5 e 3,5 °K. Particolarmente interessante è al riguardo il caso di Max Born, il quale fin dal 1954 capì la connessione fra red shift cosmologico e radiazione di fondo, interpretandola non in termini di un’espansione dell’universo bensì quale prodotto di un’annichilazione fra due fotoni con produzione di microonde di determinata temperatura in linea di principio rilevabili alla radioastronomia. Peraltro parlare al riguardo di “previsione” della radiazione di fondo da parte della teoria del Big Bang è decisamente incongruo perché, a parte le eccezioni del tutto indipendenti da esigenze di riprova del postulato espansionista di cui si è detto, i ricercatori successivi in cerca di prove del Big Bang previdero in realtà valori diversi, e talora molto diversi, da quelli poi effettivamente riscontrati. Come abbiamo visto, vi furono incongrue previsioni di 28 °K o financo di 45 °K, e solo nel 1948 Alpher e Herman previdero una radiazione base di 5 °K a cui si sarebbe dovuto aggiungere «l’energia termica derivante dalla produzione di energia nucleare nelle stelle»: tale valore, senza aggiungervi l’energia stellare, sarebbe dovuto essere «interpretato come temperatura di fondo che risulterebbe solo dall’espansione universale» («interpreted as the back410
ground temperature which would result from the universal expansion alone»). Da parte sua Gamow, sostenitore del Big Bang, nel suo libro del 1952 su The Creation of the Universe previde 7 °K, poi nel 1956 previde addirittura 50 °K e infine nel 1961 scese a 5 °K. Invece J. Peebles, collaboratore di Dicke e sostenitore del Big Bang, nel 1965 fece una stima di 10 °K. I due ricercatori cominciarono a costruire un’antenna a microonde a Princeton nel 1964 per rilevare effettivamente quanto fosse la radiazione di fondo, ma furono battuti sul tempo da Penzias e Wilson che misero fine alla girandola delle cifre. Come si vede, il problema non era tanto “prevedere” più o meno esattamente (decisamente meno esattamente nel caso dei teorici dell’espansione e del Big Bang) che nell’universo vi fosse una radiazione e quindi una temperatura, visto che in realtà era piuttosto ovvio che vi fosse: il problema era rintracciare effettivamente tale radiazione e soprattutto dimostrare (ciò che molti non ritenevano affatto) che essa fosse la traccia di un’esplosione originaria. Quando Penzias e Wilson rilevarono i 3 °K, Gamow e i teorici del Big Bang vi misero subito le mani sopra dicendo che essa era proprio la conferma della loro previsione e la riprova dell’espansione e del Botto: ma in realtà – come abbiamo visto – Guillaume, Eddington, Regener, Nernst, McKellar, Herzberg, FinlayFreundlich, Born previdero l’esistenza di una radiazione di fondo e financo previdero i 3 °K con ben migliore approssimazione, in vari casi molto prima, e senza vedervi alcuna riprova del Big Bang. Veniamo ora a un secondo rilievo, con il quale si mostra come dietro tutta questa faccenda della “previsione” dei 3 °K c’è il trucco. Torniamo a Weinberg: egli non è certamente partito dalla supposta temperatura e dall’età iniziale dell’universo per ricavarne i 3 °K attuali, bensì al contrario è risalito a ritroso dai 3 °K attuali per cercare di stabilire in base a quelli la temperatura al primo secondo dell’universo e l’età dello stesso. Ovvero: presupponendo l’universo attuale con i suoi 3 °K come una sfera, dal diametro di circa trenta miliardi di anni luce, che è andata via via raddoppiando di raggio con l’espansione (per Eddington ad esempio l’universo in espansio411
ne raddoppia di raggio ogni 1300 milioni di anni), Weinberg ha rifatto i conti al contrario nella supposizione che, andando nel passato, la temperatura sarebbe dovuta aumentare in maniera inversamente proporzionale al raggio del cosmo. Così, riducendo questa sfera alla metà del suo raggio attuale come secondo lui doveva essere un tempo stabilito, ha detto: 1300 milioni di anni fa l’universo era metà di quello attuale e quindi aveva un diametro di quindici miliardi di anni luce, una densità otto volte maggiore (in quanto aumenta come 1/R3, ovvero come l’inverso del cubo del raggio dell’universo) e una temperatura doppia cioè 6 °K; parimenti quando l’universo era dieci volte più piccolo, la temperatura di fondo era dieci volte più grande dell’attuale e cioè non 2,728 °K bensì 27,28 °K; quando era mille volte più piccolo, la temperatura era mille volte maggiore e dunque 2728 °K. In tal modo, andando sempre più a ritroso nel tempo, quanto più Weinberg dimezzava l’universo dimezzandone il raggio (si vuole ad esempio che il diametro dell’universo nei suoi primi 760.000 anni di vita sarebbe stato di 18 milioni di anni luce) tanto più ne raddoppiava la temperatura: così quando l’universo sarebbe stato 400 milioni di volte più piccolo, allora la temperatura sarebbe stata circa un miliardo di gradi Kelvin, e a un secondo dall’esplosione sarebbe stata 10 miliardi °K. E ancora, dimezzando-raddoppiando e dimezzando-raddoppiando, e cioè dimezzando sempre più o ad infinitum quel secondo e parallelamente raddoppiando sempre più o ad infinitum quei 10 miliardi °K, si giunge a un tempo t = 0 con volume nullo e temperatura infinita. In tal modo l’età dell’universo diventa esattamente quella che si voleva diventasse, compatibile cioè con quanto sappiamo sull’antichità di stelle e galassie: ovvero circa 15 miliardi di anni. A questo punto, Weinberg poteva fare la prova del nove ridiscendendo la scala al contrario e fornendo tutti i valori desiderati: cinque minuti dopo il Big Bang la temperatura era diciamo un miliardo di gradi centigradi, un giorno dopo era 40 milioni, dopo 300.000 anni era poniamo 6000 °C, dopo 10 milioni di anni era 300 °C, e così via fino a giungere a 3 °K chiudendo il circolo. Senonché, risorge qui il problema già detto: il dimezzamento del 412
raggio e del tempo dell’universo con concomitante raddoppio della temperatura fino ad avere da una parte un valore nullo e dall’altra un valore infinito è un semplice ed innocuo gioco matematico, come il calcolare la crescita infinita delle oscillazioni di un ponte, privo però di una corrispondente realtà fisica in quanto è impossibile che tutta la massa condensata e contratta dell’universo stia in un volume nullo o praticamente nullo. Ma soprattutto non vi è chi non veda qui che questa spiegazione, ben lungi dall’essere una “prova” del Big Bang, in realtà lo presuppone: la supposta età dell’universo, la pretesa temperatura al primo secondo, il raddoppio del raggio, tutti i valori iniziali sono stati posti in modo da farli combaciare con il 3 °K attuale; qualunque fosse stata la temperatura attuale dell’universo (5 °K, 20 °K o che altro) sempre si sarebbe fatto il giochino, alzando o abbassando la temperatura del primo secondo, allungando o accorciando l’età dell’universo, dando questo o quel valore del raggio in un tempo dato, in modo da far combaciare i valori. Che verifica è mai questa? Se ad esempio si fosse trovata una radiazione di 12 °K, dunque piuttosto altina, allora evidentemente si sarebbe ringiovanita l’età dell’universo di qualche miliardo di anni, e si sarebbe detto che l’universo ha poniamo sette miliardi di anni; se invece si fosse trovata una radiazione di un millesimo di °K allora si sarebbe detto che l’universo è vecchio poniamo di trenta miliardi di anni visto che in esso la radiazione è ormai così estenuata. Insomma i conti sarebbero tornati comunque: risorge qui quell’“imperialismo algebrico” che pretende dedurre a priori il mondo. L’equilibrio termodinamico dell’universo Veniamo ora a una terza obiezione, e domandiamo: con quale diritto, trovando nell’universo una certa temperatura media che relativamente a noi considereremmo molto bassa, ne deduciamo che illo tempore l’universo doveva avere una temperatura un miliardo o dieci miliardi di volte più elevata? Anche qui si tratta di un ragio413
namento aprioristico, per cui si dice: la temperatura dell’universo appare 3 °K alla rilevazione, ma essa un tempo era molto più alta. Alla domanda “perché?” si risponde: perché la teoria del Big Bang esige un’altissima temperatura iniziale; perché la teoria dell’espansione esige una temperatura in costante e continua diminuzione. Noi non applicheremmo facilmente altrove lo stesso ragionamento: se la nostra temperatura corporea è 37° noi non ne ricaveremmo che dunque il mese scorso era 74° e che quindi 20 anni or sono era putacaso 10.000°, così come sarebbe un po’ difficile vedere in un filo d’erba bruciacchiato la prova di un Grande Incendio passato. In breve, l’interpretazione della radiazione di fondo come un residuo del passato presuppone circolarmente quella teoria che vorrebbe dimostrare. Certamente la temperatura media dell’universo, considerandone la parte osservabile, diminuirebbe in presenza di un’espansione che ne dilati ed estenda la densità di massa: ma dire questo presuppone e non dimostra l’espansione. In realtà, cadendo (come per noi cade) la teoria dell’espansione, viene naturalmente meno ogni motivo di postulare una diminuzione della temperatura e della radiazione di fondo. Senonché anche qui, evidentemente, opera potentemente il modello della bomba atomica: la radiazione di fondo sarebbe un’eco dell’Esplosione primordiale, proprio come la decennale contaminazione radioattiva ad Hiroshima è il residuo dell’esplosione nucleare del 6 agosto 1945. L’analogia però è fuorviante: mentre infatti l’esplosione nucleare del 6 agosto 1945 ad Hiroshima è certa, l’esplosione del Big Bang è soltanto postulata. Il risalire genealogicamente a ritroso la radiazione credendo così di giungere a una radiazione originaria di ben diversa intensità non è sempre valido. Certo, conosciamo il metodo del Carbonio 14 in geologia: il carbonio 14 radioattivo assorbito dagli esseri viventi si dimezza dopo la loro morte in un tempo dato (5730 anni) fino a disintegrarsi, cosicché la misurazione del 14C residuo presente in un resto fossile di organismo vegetale o animale ne consentirebbe la datazione (parimenti anche il calcolo del tempo di decadimento dei minerali radioattivi presenti nelle rocce ne consente la datazione). Senonché: col metodo del Carbonio 14 ab414
biamo fra le mani un fossile che sicuramente è il resto di un organismo vivente cosicché non illegittima ne appaia la misurazione della radioattività onde tentarne la datazione (seppur poi tale metodo risenta in realtà di alti margini di incertezza); invece in cosmologia all’osservazione della radiazione di fondo assolutamente niente, se non una preliminare adesione a una determinata teoria cosmologica, ci dice che tale radiazione sia un “fossile” residuo di una condizione originaria assolutamente diversa. Fra l’altro: se a tutti i costi si vuole che la radiazione di fondo sia il residuo degradato di una radiazione miliardi di anni fa molto più alta, allora perché non si vuole riconoscere che quella particolare forma di debole radiazione elettromagnetica (rivelata nel red shift), che è la luce inviataci molti milioni di anni fa da stelle lontane, possa essere non un Doppler bensì il residuo anch’esso degradato (secondo il quadrato della distanza) di una radiazione luminosa molto più forte al momento dell’emissione? Quarta obiezione: poiché la radiazione di fondo, che si pretende sempre decrescente da circa 15 miliardi di anni, in fondo è stata scoperta quasi mezzo secolo fa, allora diventa lecito obiettare che essa oggi dovrebbe essere di una frazione infinitesimale più bassa di quanto non fosse nel 1964. Certo si può rispondere che tale minima variazione non può essere rilevabile, ma intanto noi non abbiamo alcuna prova che fra 10.000 anni la radiazione – lungi dallo scendere come dice la teoria – non sia ancora 3 °K, proprio come oggi, senza la minima variazione. Per intanto sappiamo che, ovunque si guardi in avanti nello spazio e all’indietro nel tempo, la radiazione appare sempre 3 °K. Certo vi sono lievi oscillazioni e variazioni di temperatura, impercettibili fluttuazioni e asimmetrie nella radiazione di fondo, piccole increspature nel mare di radiazione come onde che perturbano leggermente la superficie dell’oceano: infatti alla rilevazione negli anni settanta la radiazione risultò lievemente più intensa – circa una parte su mille – da un lato del cielo che non dal lato opposto (in termine tecnico si parla di “anisotropia di dipolo”); il satellite Cobe 415
(Cosmic Background Explorer) nel 1992 rilevò ancora più lievi e impercettibili variazioni di temperatura – con scarti di uno su centomila, ovvero pochi decimillesimi di Kelvin – quantificate nel numero Q che vale 10-5; e ulteriori recentissime rilevazioni satellitari hanno rilevato fluttuazioni ancora più sottili. I teorici del Big Bang hanno visto in queste oscillazioni e increspature una nuova prova dell’esplosione primordiale: essi hanno infatti affermato che le increspature sarebbero il riverbero dell’asimmetria caotica inaugurale prodotta dall’esplosione, e in pari tempo sostenuto che esse una volta prodotte dal Big Bang sarebbero state un miliardo di anni dopo la causa delle condensazioni protogalattiche. Nulla da obiettare sul fatto che queste fluttuazioni, che come una sorta di clinamen epicureo consentono gli scontri delle particelle e le condensazioni, possano essere all’origine della formazione delle galassie, purché si intenda che non lo siano state una sola volta e lo siano tuttora. Ma che a loro volta queste fluttuazioni siano state prodotte dal Big Bang, questa è un’estrapolazione inverosimile: non fosse per il motivo che queste oscillazioni sintomo di asimmetria sono molto e troppo lievi, quando invece dovrebbero essere ben più marcate se fossero l’effetto di quella traumatica e mitologica conflagrazione iniziale. In realtà queste fluttuazioni appaiono spiegabili diversamente, senza bisogno di alcun Big Bang. Innanzitutto l’anisotropia di dipolo è dovuta al moto del sistema solare e della Via Lattea attraverso il mare di radiazione, cosicché la radiazione appare lievemente più calda nella direzione del moto e più fredda in quella opposta; ma anche le ancor più minuscole increspature e fluttuazioni rilevate da Cobe e in seguito, lungi dal richiedere un Big Bang esplicativo, sembrano essere il normale ondeggiare della “materia sottile” di cui l’universo è pregno. Certamente la radiazione di fondo pur apparendo piuttosto omogenea non può essere totalmente omogenea, stante le galassie diffuse nell’universo, e sembra del tutto naturale che essa appaia lievemente più densa in caso di lieve avvicinamento a un sistema galattico che non altrove: così è probabile che le nebulose e le condensazioni protogalattiche, oltre che esserne determinate, determinino esse stesse le minuscole destruttu416
razioni asimmetriche nella radiazione di fondo. Nulla comunque verifica che tali fluttuazioni, veramente troppo piccole, siano il riverbero del Big Bang. Dunque, anziché essere in costante diminuzione, anziché apparire più alta nelle regioni più lontane del tempo e più bassa nelle regioni più vicine, la temperatura media dell’universo appare invece – entro lievissimi margini di fluttuazioni – uniforme ovunque si guardi, in un equilibrio termodinamico. La radiazione di fondo non rimanda ad alcuna sorgente identificabile: e proprio il fatto che tale radiazione sia sostanzialmente omogenea, uniforme, isotropa, diffusa e continua fa pensare che essa definisca un equilibrio termico generale risultante da sorgenti più o meno uniformemente distribuite nell’universo e non sia affatto l’eco di un singolo e catastrofico squilibrio iniziale ad altissime temperature. Difficilmente un universo dinamico in espansione nato da una traumatica esplosione (o anche da un inverosimile allontanamento di tutti i punti senza alcun Big Bang o con mille Big Bang) potrebbe generare un siffatto equilibrio termico. Se la radiazione oggi è sostanzialmente uniforme, perché non pensare che probabilmente lo sia stata nel più lontano passato ed anzi da sempre? Non è necessario cercare una sorgente unica e antica della radiazione nella mitica singolarità iniziale, bensì piuttosto occorre pensare a sorgenti plurime ovunque mediamente diffuse. La radiazione di fondo appare così una costante nello spazio e nel tempo e non una variabile in continua diminuzione: l’universo potrebbe essere definito come un corpo che, avendo una temperatura costante, ha una radiazione uniforme; o meglio, potrebbe essere concepito come costituito da una materia sottile omogenea, diffusa ovunque e naturalmente radioattiva. Questo evidentemente perché, con ogni probabilità, la radiazione di fondo ovunque diffusa non è il riverbero sempre decrescente di un’altissima temperatura iniziale: essa invece definisce semplicemente la normale temperatura media dell’universo presente, passato e futuro. Certo questa era già l’idea dei teorici dello stato stazionario, in quanto per il “principio cosmologico perfetto” l’universo appare su scala globale lo stesso ovunque sia nello spazio che nel tempo, co417
sicché esso ha da sempre e per sempre gli stessi valori di temperatura media. Tuttavia rimaneva da dare una spiegazione della radiazione di fondo ovvero di quella temperatura media, e una spiegazione alternativa a quella data dai teorici del modello standard, ma tale spiegazione alternativa non fu veramente data dai teorici dello stato stazionario che rimasero per così dire piuttosto spiazzati dalla scoperta della radiazione di fondo: essi la pensavano inesistente o prossima allo zero (il che comunque costituiva una stima più attendibile delle previsioni di 25 o 50 °K), ma soprattutto non seppero darne una spiegazione consona alla loro teoria e veramente convincente, in tal modo favorendo l’ascesa della teoria rivale. Così Hoyle, difendendo la sua pur interessante idea dell’origine cosmica della vita terrestre come immessa da molecole organiche a suo giudizio ovunque diffuse nello spazio e portate sulla Terra da comete e asteroidi, ne trasse l’incredibile corollario sui batteri cosmici assorbenti quale causa della radiazione di fondo; in seguito pensò che detta radiazione potesse essere generata da elementi espulsi e diffusi nello spazio dall’esplosione delle supernove, e in altre circostanze ancora disse che comunque la radiazione di fondo sarebbe soltanto una «temperature of local space», aggiungendo che chi si trovasse in mezzo alla nebbia non direbbe per ciò che tutto l’universo sia avvolto nella nebbia: ma naturalmente è impossibile pensare che i batteri (ammesso vi siano nello spazio) e gli elementi espulsi dalle supernove possano sussistere in quantità tale da costituire il mare della radiazione di fondo, e parimenti (viste le distanze enormi cui giungono ormai gli strumenti di rilevazione e vista la presumibile omogeneità sostanziale nell’universo al di fuori delle condensazioni) non sembra lecito pensare che la radiazione di fondo ovunque riscontrata sia un elemento solo locale. Certo infine i teorici dello stato stazionario giunsero (proprio secondo la vecchia equivalenza eddingtoniana fra luce e corrispettivo termico) a vedere plausibilmente nella radiazione di fondo l’effetto dell’energia stellare degradata, ma tuttavia nella loro teoria la costanza eterna della temperatura media dell’universo, che si vuole infine prodotta dall’energia stellare, appare incompatibile con il mantenimento del modello 418
espansionista: tale modello infatti, postulando un diluimento nel tempo e nello spazio della materia (e dunque un allontanamento delle galassie che forniscono l’energia poi trasformata in radiazione di fondo), necessariamente richiede non una costanza bensì una diminuzione progressiva della temperatura. Né, come si è detto, può convincere l’ipotesi ad hoc per cui il tasso di diluimento dovuto all’espansione sarebbe esattamente e miracolosamente controbilanciato da un corrispettivo tasso di creazione: in realtà la possibilità di una costanza media della radiazione di fondo nel tempo (e nello spazio) può essere affermata non aggiungendo il misterioso tasso di creazione compensativa bensì solo togliendo la tesi dell’espansione, ciò a cui i teorici dello stato stazionario non sono mai giunti. Equilibrio termodinamico e assorbimento luminoso Abbandonando dunque il modello espansionista e sviluppando una spiegazione alternativa alla radiazione di fondo, quella spiegazione che i teorici del modello standard non hanno dato e i teorici dello stato stazionario hanno solo contraddittoriamente abbozzato, diremmo che la scoperta della radiazione di fondo è importante non in quanto pretesa prova dell’esplosione-espansione dell’universo, ciò che non è in alcun modo, né tantomeno in quanto riveli oceani di batteri o scorie di supernove, bensì è importante in quanto essa è la scoperta di una sorta di nuova “materia oscura” (questa volta rilevata e non inventata di sana pianta) o etere. Scriveva infatti Maxwell: «per quante difficoltà possiamo incontrare nella formulazione di una valida teoria della struttura dell’etere, non vi può esser dubbio che gli spazi interplanetari e interstellari non sono vuoti, ma sono occupati da una sostanza o corpo materiale, che è certamente il corpo più esteso e probabilmente il più uniforme che si conosca». Ora la radiazione di fondo sembra poter costituire quella sostanza, per quanto certamente essa sia in realtà una materia estremamente rarefatta e sottile che sembra presupporre un vuoto atto a contenerla. L’omogeneità e l’uniformità di questo “etere” o 419
tessuto riempitivo dell’universo in cui consiste la radiazione di fondo sembra indicare un universo globalmente statico e non dinamico, ed esso sembra fornire la possibilità di misurare la velocità assoluta della Terra e della galassia tutta, cosicché la radiazione di fondo costituisca – contro l’assunto relativistico – un sistema di riferimento privilegiato atto alla determinazione di moti assoluti in relazione a un parametro in quiete. Il fatto poi che questa radiazione elettromagnetica di fondo appaia alla rilevazione ad elevata lunghezza d’onda e dunque fortemente spostata ben oltre il rosso e l’infrarosso, non nell’ottico ma più in giù nella scala nel regno delle microonde rilevabili alla radioastronomia con z = 1100, è la naturale conseguenza del fatto che essa corrisponde a una temperatura molto bassa.50 Significativo è al riguardo un paragone con la radiazione del corpo nero da cui partì la rivoluzione di Planck51. Un corpo nero è semplicemente una cavità vuota dalle pareti nere che assorbe completamente la luce che incide su di essa, così riempiendosi di radiazione termica e riscaldandosi senza però (almeno in una condizione ideale) riflettere e riemettere la luce assorbita bensì emettendo energia interna al corpo sotto forma di radiazione invisibile all’ottico in una certa varietà di lunghezza d’onda. Dunque le bande nere di uno spettro indicano non la mancanza di luce, bensì semplicemente che la luce è stata assorbita e ritrasmessa sotto forma di radiazione. Ritorna così la normale spiegazione della radiazione di
Cfr. P. Anastasovski, H. Fox, K. Schoulders, A New approach to the Cosmic Red-Shift and to the Cosmic Microwave Sources, New Energy, vol. 1, n. 2, 1996: vi si sostiene che la bassa frequenza emessa nella regione delle microonde, dovuta alla perdita di energia del fotone a causa delle sue interazioni nello spazio, fa sì (come già sosteneva Born) che red shift e radiazione di fondo coincidano. 51 Per una ricostruzione storica dei problemi inerenti la radiazione del corpo nero nel passaggio alla meccanica quantistica v. T. Kuhn, Black-Body Theory and the Quantum Discontinuity, 1978 (tr. it. Alle origini della fisica contemporanea. La teoria del corpo nero e la discontinuità quantica, Bologna 1981, Il Mulino). Cfr. anche l’antologia M. Planck, La teoria della radiazione termica, Milano 1999, Angeli. 50
420
fondo antecedentemente data da quasi tutti gli scienziati che se ne occuparono e antecedente alla spiegazione ufficiale come eco della cosiddetta singolarità: infatti Eddington, Nernst, McKellar, Dicke e quant’altri vedevano nella radiazione di fondo l’equivalente termico dell’energia stellare ovvero il grado di assorbimento interstellare della radiazione stellare (non solo luminosa); del resto perfino convinti sostenitori della radiazione fossile come eco del Big Bang e conseguenza dell’espansione quali Alpher e Herman ipotizzarono che detta radiazione fosse dovuta non solo all’espansione ma, per un margine significativo, all’energia termica di origine stellare. Così l’universo pieno di radiazione può essere concepito con i suoi bui spazi siderali come un corpo nero che assorbe l’energia luminosa sparsa in ogni direzione dalle stelle e dalle galassie, che sono in esso in numero inimmaginabile, ritrasmettendola in maniera abbastanza omogenea e uniforme sotto forma di energia non luminosa e cioè per l’appunto sotto forma di radiazione di fondo. Dunque la radiazione di fondo di cui l’universo è saturo sarebbe veramente (proprio secondo il calcolo teorico di Eddington che traduceva l’energia stellare in equilibrio termico) il corrispettivo energetico della totalità di energia luminosa che, emessa dalle stelle e assorbita dagli spazi siderali, causa un riscaldamento del mezzo interstellare e intergalattico (in assenza del quale la temperatura dell’universo sarebbe certo più bassa di –270 °C), e così si può anche rispondere al citato paradosso di Olbers (e di Keplero) che domandava perché, se l’universo è pieno di stelle, noi non vediamo il cielo illuminato a giorno: noi non vediamo l’universo sempre illuminato non perché lo spazio espandendosi a una velocità superiore a quella della luce impedirebbe alla luce delle galassie lontane di giungere a noi (per questo basterebbe già un universo infinito), bensì più semplicemente perché siamo in certo modo ciechi e possiamo cogliere nell’ottico soltanto una piccola percentuale della radiazione in effetti ovunque diffusa. Appare così evidente in questo libro il filo conduttore costituito da una teoria della luce e dell’elettromagnetismo che, ponendo in discussione il principio relativistico della costanza e insuperabilità 421
della velocità della luce e negando a quella velocità l’arresto temporale e l’aumento all’infinito della massa, intende spiegare in non piccola misura con l’assorbimento gravitazionale della luce nel mezzo intergalattico il paradosso di Olbers e lo spostamento verso il rosso della luce emessa dalle sorgenti galattiche nonché soprattutto e infine la stessa radiazione di fondo (oltre che indicare la possibile unificazione elettromagnetica delle forze). Infatti in realtà i raggi gamma, i raggi x, i fotoni, le onde radio e insomma le onde elettromagnetiche tutte (non a caso unificate nelle equazioni di Maxwell) sono alla fin fine la stessa particella fondamentale: noi definiamo raggio gamma o raggio x questa particella (e la consideriamo appunto come una particella) quando essa appare ad alta frequenza e a bassa lunghezza d’onda; la definiamo fotone (e lo consideriamo ora come particella ora come onda a seconda di come ci appare) quando essa ha una media frequenza e lunghezza d’onda; la definiamo onda radio (e la consideriamo come onda) quando essa assume una bassa frequenza e una grande lunghezza d’onda. Si tratta però della stessa particella (o della stessa onda o come la si voglia definire). Passando ad un’altra frequenza e ad un’altra lunghezza d’onda un raggio gamma può diventare per depotenziamento progressivo un fotone o un’onda radio, e infatti proprio questo avviene nella vita delle stelle: nella fase iniziale di una stella agiscono i potentissimi raggi gamma ad altissima frequenza, ma poi essi dopo milioni di anni giungono alla superficie della stella depotenziati e trasformati per riduzione di frequenza in fotoni, quindi essi lasciano la stella disperdendosi nello spazio interstellare e infine si sciolgono in onde radio a bassissima frequenza costituendo il mare della radiazione di fondo. Questa prospettiva, che connette la radiazione di fondo alla luce stellare depotenziata, appare in pieno accordo con le leggi della termodinamica (correttamente interpretate). Infatti le leggi della termodinamica ci dicono che il calore passa naturalmente da un corpo più caldo a uno più freddo alfine distribuendosi in una temperatura media uniforme: così mettendo in un recipiente da una parte molecole più veloci ad alta energia termica e dall’altra mole422
cole più lente a bassa energia, e poi consentendo la libera circolazione fra le molecole all’interno del recipiente, vedremo che alla fine (poiché le molecole più veloci tendono ad occupare più spazi) la parte calda del recipiente si sarà raffreddata e la parte fredda riscaldata fino al raggiungimento di un’omeostasi e dunque di una temperatura media uniforme. Il calore dunque tende a dissiparsi, a distribuirsi uniformemente, e così la temperatura tende a diventare uniforme. Ora, questo è proprio quanto avviene nell’universo, con le stelle che continuamente cedono e trasmettono energia nello spazio: è più normale che un fotone con un certo grado di energia perda parte della sua temperatura divenendo infine un’onda radio che non l’inverso, e certamente – visto che l’energia una volta emessa è indipendente dalla sorgente – non v’è nulla di strano se la radiazione ovunque distribuita dalle sorgenti stellari plurime (o infinite) appaia ridistribuita e sparsa nell’universo in modo sostanzialmente omogeneo e uniforme, isotropo e continuo come appunto appare nel valore di 3 °K. Si tratta infatti di un “campo”: ma per quanto un campo (che è l’energia gobale di un sistema) costituisca una totalità, esso è sempre generato da una o più sorgenti, e come non esiste un campo elettrico senza una o più cariche elettriche, né un campo magnetico senza uno o più poli o aghi magnetici, né un campo gravitazionale senza una o più sorgenti gravitazionali, così non esiste un campo ripieno di radiazione di origine luminosa senza l’esistenza di una o più fonti luminose che nel caso dell’universo sono naturalmente le stelle. Dunque le fonti di calore sempre si svuotano e l’energia stellare si disperde per l’universo (il Sole morirà quando tutto il suo calore sarà distribuito e disperso nello spazio), e proprio questa dispersione di calore spiega il basso valore della temperatura di fondo rispetto alle sorgenti ad altissima energia. Anche nell’universo sembra dunque apparire una strutturale tendenza alla crescita del disordine e dell’entropia, con passaggio da situazioni più ordinate e improbabili (condensazioni galattiche) a situazioni più probabili (energia sparsa con diffusione uniforme): la tendenza al raggiungimento di uno stato di omogeneità e di disordine più probabile è proprio indicata dal valore della temperatura 423
di fondo, i cui 3 °K oltre che uniformemente distribuiti appaiono anche vicini al valore di zero assoluto equivalente alla morte termica. Tuttavia questa distribuzione omogenea e uniforme prossima allo zero non significa affatto che la radiazione termica e dunque la temperatura globale dell’universo debba sempre diminuire, fino a 0 °K e al vecchio scenario apocalittico della “morte termica dell’universo”. Già Maxwell aveva ritenuto, tramite il suo immaginario diavoletto che lascia passare solo le molecole più veloci da un recipiente all’altro, che in linea di principio il calore potrebbe scorrere financo da un corpo più freddo ad uno più caldo; parimenti il teorema di ricorrenza di Poincaré aveva dimostrato che un sistema meccanico chiuso deve tornare nel corso del tempo al suo punto di partenza; infine Boltzmann (nonostante le obiezioni di Zermelo) aveva ritenuto possibile per quanto altamente improbabile che il disordine molecolare rilevato dalla teoria cinetica dei gas producesse una situazione reversibile (nel senso del terzo principio newtoniano) tornando ad una situazione ordinata inizialmente data (come se gli atomi di un bicchiere rotto potessero collidere casualmente in modo da riformare il bicchiere), cosicché il secondo principio che sanciva la crescita irreversibile dell’entropia appariva dotato solo di valore probabilistico e non assoluto. Ma a queste considerazioni per assurdo (Maxwell) o puramente matematiche (Poincaré) o altamente improbabili (Boltzmann), che peraltro non possono negare i fenomeni di irreversibilità, noi aggiungeremmo che in realtà i fenomeni “sintropici”, cioè procedenti in senso anti-entropico, non sembrano affatto casi per assurdo meramente fittizi o totalmente improbabili o possibilità puramente matematiche cosicché una sorta di “diavoletto di Maxwell” potrebbe anche essere qualcosa di più di una ingegnosa finzione paradossale (ad esempio nel caso di Maxwell il raggiungimento dell’equilibrio termico sarà non casuale bensì dovuto al fatto che le molecole più veloci occuperanno più spazi distribuendosi ovunque). In realtà i fenomeni in cui l’entropia non aumenta bensì al contrario diminuisce, ovvero i casi in cui si producono situazioni non disordinate bensì ordinate, non sono affatto casi effimeri, parziali, momentanei, non sono affatto “eccezioni che 424
confermano la regola”, non sono affatto casi rari e isolati in cui l’entropia decresce mentre tutto attorno cresce (come riteneva anche Boltzmann nel concedere eccezioni al valore altamente probabile del principio) bensì sono fenomeni “sintropici” complementari e speculari di quelli entropici che è vano voler spiegare solo in termini di casualità altamente improbabile.52 In particolare per quanto riguarda le applicazioni del secondo principio della termodinamica alla cosmologia, a chi obietti che per questo principio e dunque per la legge dell’entropia crescente la temperatura di fondo deve decrescere col tempo, si risponderà anzitutto che la legge dell’entropia riguarda un sistema chiuso quale a nostro giudizio difficilmente potrebbe essere considerato l’universo, e poi che intepretare la pretesa diminuzione della temperatura come una
52 Sui fenomeni sintropici, complementari alla degradazione entropica sancita dal secondo principio della termodinamica, sono interessanti le considerazioni di L. Fantappiè (Principi di una teoria unitaria del mondo fisico e biologico, 1944 poi Roma 1993, Di Renzo Editore) che vede una contrapposizione abbastanza netta (seppur non assoluta) fra i fenomeni entropici propri soprattutto del mondo inorganico (retti dal principio meccanico di causalità e caratterizzati da “onde divergenti” che procedono da una causa passata al futuro con dissipazione progressiva) e i fenomeni sintropici propri principalmente dei sistemi viventi (retti dal principio di finalità e caratterizzati da “onde convergenti” e “anticipatrici” che, prive di causalità e definite da equazioni con segno invertito, sembrano procedere dal futuro al passato con inversione temporale in quanto “convergenti” verso uno scopo futuro). L’antitesi posta da Fantappiè è troppo netta, stante da un lato l’esistenza di fenomeni sintropici anche nell’autoorganizzazione chimica della materia e dall’altro la dipendenza anche dei sistemi organici dalla causalità senza alcuna inversione temporale se non metaforica (in questo senso v. gli sviluppi della teoria di Fantappiè in Giuseppe e Salvatore Arcidiacono - in particolare S. Arcidiacono, Ordine e sintropia, Roma 1975, Ed. Studium Christi). Nel nostro intendimento però il limite maggiore dell’impostazione di Fantappiè (e degli Arcidiacono) è nella stretta adesione alle teorie cosmologiche dinamico-relativistiche e (gli Arcidiacono) alla teoria del Big Bang, in quanto tali teorie inclinano facilmente alla presupposizione della degradazione entropica del cosmo cui risulta vano contrapporre i fenomeni sintropici. Un universo in equilibrio fra fenomeni entropici e sintropici non può essere quello stabilito dalle cosmologie per le quali la radiazione dell’universo tenda al punto zero.
425
degradazione entropica già presuppone tautologicamente quell’espansione dell’universo che si vorrebbe comprovare proprio con la diminuzione della radiazione. Infatti se e solo se l’universo si espandesse avremmo nei tempi cosmologici, con il diluimento della materia, la diminuzione progressiva della temperatura: ma se, come noi riteniamo, l’universo non si espande affatto allora non si vede perché mai la temperatura debba diminuire. Insomma: la temperatura di un forno acceso indubbiamente diminuisce se ne apriamo lo sportello che ne disperde il calore, altrimenti rimane costante. In tal caso la legge dell’entropia non si applica, e comunque il secondo principio con il corollario della degenerazione entropica progressiva non può annullare il primo principio, che sancisce la conservazione dell’energia. Per questo la temperatura dell’universo si manterrà costantemente uniforme: anzitutto perché per i princìpi di conservazione l’energia totale risultante nell’universo può ridistribuirsi in una densità media ma non può scomparire nel nulla; e poi perché il serbatoio energetico rimane sempre inesauribile in quanto la continuità e la costanza del ciclo energetico viene garantita dalle stelle di nuova formazione che (riutilizzandone la materia sparsa e degradata) di continuo compensano e riequilibrano la cessata erogazione energetica delle stelle collassate, ciò per cui l’universo può apparire veramente come una sorgente continua e illimitata di energia. In questo senso può essere vero che le galassie emergono continuamente dalle fluttuazioni della radiazione di fondo, in quanto tali scarti e asimmetrie ne rompono con una sorta di clinamen l’equilibrio termico perfetto ma sterile così consentendo le condensazioni; ma a sua volta le stelle formatesi si sciolgono infine nel mare della radiazione di fondo generandovi altre asimmetrie che consentiranno in seguito nuove condensazioni. In tal modo si costituisce un ciclo continuo: l’energia ceduta dalle stelle non aumenta la temperatura media degli spazi interstellari proprio per il formarsi di nuove condensazioni che sottraggono la materia diffusa ad una data temperatura. Continuamente il corpo nero dell’universo assorbe la radiazione stellare e continuamente la riemette sotto forma di nuove stelle, in un ciclo continuo. Possiamo così al riguardo riconsiderare la formula di Rayleigh e 426
Jeans per la quale il corpo nero dovrebbe emettere radiazione su tutte le frequenze ivi comprese le alte frequenze (come raggi x e gamma), in un valore infinito e non quantificabile (“catastrofe ultravioletta”), ciò che in realtà non si verifica. Anzitutto che la radiazione avvenga oltre la soglia del visibile spiega il cielo buio e dunque il paradosso di Olbers. In secondo luogo lo stesso irraggiamento infinito del corpo nero, almeno per le alte lunghezze d’onda, significa una sua continua emissione di radiazione. Già nell’Ottocento Rumford aveva constatato che mediante l’attrito si possono estrarre dal metallo illimitate quantità di calore, e sappiamo che dal punto di vista classico ogni corpo dovrebbe irradiare a varie temperature una quantità illimitata di energia sotto forma di radiazione elettromagnetica: ogni corpo appare così come un serbatoio pressoché inesauribile di energia e del resto un corpo in quanto tale, finché esiste, sempre genererà una qualche forma di radiazione. Naturalmente sappiamo che proprio per non ammettere le conseguenze della formula di Rayleigh e Jeans – la “catastrofe ultravioletta” non riscontrabile e l’infinito energetico richiesto a quelle basse lunghezze d’onda – è nata la rivoluzione quantistica di Planck che – supponendo che la trasmissione di energia avvenisse per “pacchetti d’onda” o salti di quanta discreti e finiti ciascuno dei quali supposto con valore fisso definito dalla costante h – ha infine letteralmente impacchettato, legato e imbrigliato l’energia, supponendo che il corpo nero non possa emettere onde di lunghezza inferiore ad una certa soglia così evitando l’insorgere della “catastrofe ultravioletta”. Ma, senza negare la liceità almeno pragmatica dell’operazione di Planck, che comunque a lungo intese il quantum non come un’entità fisica (infatti si oppose ai “quanti di luce” di Einstein) bensì come una suddivisione mentale del continuum dell’energia e solo controvoglia abbandonò il paradigma classico nell’intento di ottenere una formula corretta per la radiazione di corpo nero, si può obiettare che la formula di Rayleigh e Jeans con la sua emissione infinita o meglio illimitata e continua di energia (peraltro perfettamente conforme alle procedure classiche da cui risulta) possa in realtà considerarsi perfettamente lecita almeno per certe lunghezze d’onda del427
la radiazione e in particolare quando per “corpo nero” si intenda l’universo intero, in cui veramente del tutto plausibile appaia l’esistenza di un ciclo continuo di emissione infinita di energia: le lunghezze d’onda troppo brevi (e relativa “catastrofe ultravioletta”) verrebbero in tal caso escluse, secondo la procedura di Planck, proprio dall’insufficiente temperatura originaria del corpo nero. Del resto il tentativo di “bandire l’infinito” dalla scienza appare infine vano, visto che valori infiniti sembrano rispuntare comunque da ogni dove: cosicché, anziché ritenere (ma qui sì in modo veramente contraddittorio e inesplicabile) che una energia infinita sia sussistita alle origini dell’universo, tutta inesplicabilmente compressa in un punto a volume praticamente nullo, alquanto più plausibile appare invece pensare che sempre sussista in un universo infinito un’energia continua e ovunque disseminata nella temperatura media di 3 °K.
VIII Le interazioni galattiche e l’espansione impossibile Come si è visto, porre come origine del cosmo una Singolarità iniziale che esplode appare del tutto incongruo, se non irrazionale e fantascientifico, né v’è alcun motivo cogente per vedere nella radiazione di fondo l’eco di quell’evento. Ora invece vedremo che, anche ammessa (ma non concessa) l’Esplosione con successiva e conseguente espansione dell’universo, nemmeno si comprende come possano avvenire le conseguenze che la teoria del Big Bang ne trae: in particolare data l’esplosione inaugurale e la successiva espansione non si spiega la strutturazione del cosmo così come ci appare. La formazione degli elementi senza Big Bang Il primo problema che si pone è la formazione degli elementi. I teorici del Big Bang dicono che, nelle fasi immediatamente successive alla misteriosa esplosione, la temperatura permane altissima (enormemente più elevata della temperatura del nucleo solare) e che questa altissima temperatura spiegherebbe la formazione – altrimenti dichiarata incomprensibile – delle particelle e successivamente degli elementi sia semplici che pesanti. Così a un secondo dal Big Bang, quando la temperatura sarebbe stata 10 miliardi °K, si sarebbero formati protoni, neutroni, elettroni, fotoni, neutrini; ed entro i primi tre minuti dopo l’esplosione, quando la temperatura sarebbe stata 1 miliardo di °K, si sarebbero formati i primi nuclei atomici. Ma è lecito dubitare della verità di tale asserzione. Già Eddington, ai critici che gli obiettavano che solo ad una temperatura enormemente superiore a quella da lui stimata si sarebbero avute le reazioni nucleari all’interno delle stelle, rispose dicendo loro di andare a cercarsi un posto più caldo nell’universo: quel posto più caldo i cosmologi hanno ritenuto di trovarlo nell’inferno del Big Bang, senonché è
428
429
lecito dubitare che ve ne fosse davvero bisogno per spiegare la formazione degli elementi sia leggeri che pesanti. Pretendere infatti che sia necessaria una temperatura di dieci miliardi di gradi Kelvin per formare i protoni, i neutroni, gli elettroni, i fotoni, i neutrini e che occorra una temperatura di un miliardo di gradi Kelvin affinché i protoni e i neutroni possano unirsi per formare nuclei atomici, è incongruo: di fatto fotoni e neutrini vengono continuamente prodotti dal Sole che certo (temperatura del nucleo = 13 milioni di °K; di superficie = 6000 °K) è ben lontano da quelle temperature, e nemmeno esse vengono raggiunte negli acceleratori ove si producono e si annichilano artificialmente le particelle. Con il Big Bang inoltre si vuole spiegare non solo la formazione delle particelle bensì anche la formazione degli elementi semplici dell’universo, quali l’idrogeno e l’elio nonché l’idrogeno pesante (deuterio) e il litio. Soprattutto, si pensa al riguardo che un problema particolarmente difficile sia costituito dall’elio. Si è rilevato infatti che nell’universo e in particolare nelle nebulose sparse esiste non solo molto idrogeno (oltre a percentuali di carbonio, azoto, ossigeno, metano etc.), ma anche (per circa un terzo) molto elio: ora, poiché l’elio è un elemento molto particolare che si forma all’interno delle stelle alla temperatura di dieci milioni di gradi e poiché esso appare in nebulose e luoghi diffusi dell’universo ove non esistono stelle né temperature così alte (essendo in genere la temperatura di una nube interstellare solo di pochi gradi sopra lo zero assoluto), ci si chiede da dove provenga tutto questo elio e si risponde che quelle altissime temperature atte a formare questo particolare elemento, se non sono quelle delle stelle, sono evidentemente quelle del Big Bang. Se infatti – si dice anche – non vi fosse mai stato alcun Big Bang e l’universo fosse eterno allora, se dall’eternità l’idrogeno confluisce nelle stelle ove si trasforma in elio e dunque in luce, si domanda perché l’idrogeno non sia tutto trasformato in elio e quindi da dove provenga l’abbondanza di idrogeno ovunque riscontrabile nell’universo in quantità ben maggiore dell’elio, in tal modo traendone argomento per addebitarne la grande produzione direttamente e in toto all’esplosione primordiale. Al riguardo è sta430
to piuttosto facile approntare i calcoli ad hoc e, inserendo certi dati sull’età dell’universo e la sua densità nei primi presunti istanti, ricavarne tautologicamente proprio quella quantità di elementi leggeri che corrisponde al valore attualmente rilevabile. Senonché, non è necessario spiegare con l’enorme calore del Big Bang la formazione degli elementi semplici dell’universo. Invero, per quanto riguarda l’idrogeno, non sembrano sussistere particolari problemi tali da chiamare in causa il Big Bang: l’atomo di idrogeno è infatti il più semplice, essendo costituito dall’incontro fra un protone e un elettrone con successiva orbitazione di quest’ultimo, e i protoni e i neutroni abbondano nell’universo. L’associazione dei nuclei e degli elettroni in atomi come l’atomo di idrogeno può avvenire con 1000 °K ma anche decisamente meno: la temperatura delle nubi molecolari ove l’idrogeno è di casa è circa 10 °K. Anche per quanto riguarda gli isotopi dell’idrogeno, quali il deuterio, si tratta infine di atomi di idrogeno nel cui nucleo si è associato un neutrone che è pur esso (assieme ai protoni e agli elettroni) una particella molto diffusa nell’universo. Anche la formazione di una semplice molecola stabile di idrogeno (H2) avviene piuttosto facilmente, almeno là ove vi sia una certa densità di atomi di idrogeno (superiore alla densità minima che è un atomo per centimetro cubo); parimenti l’ossigeno (sia pur ben più raramente) si forma anch’esso negli spazi in quanto l’atomo di questo gas richiede per la sua formazione l’associazione di otto protoni, otto neutroni e otto elettroni. La formazione dell’elio (He) è invece più complessa, ma non costituisce un problema irrisolvibile al di fuori del quadro del Big Bang. Il nucleo dell’atomo di elio è composto di particelle a e precisamente di due protoni e, per gli isotopi elio-3 e elio-4, rispettivamente uno o due neutroni: ora, è vero che è assai difficile che (nella forma più complessa di elio) queste quattro particelle – due protoni e due neutroni – si riuniscano a dieci milioni di gradi con esatta proporzione per formare in una stella di piccola massa un nucleo di elio, così come è difficile che il nucleo di elio unendosi con due elettroni formi l’atomo di elio (due protoni, due neutroni, due elet431
troni), ma è anche vero che, essendo i protoni e i neutroni (come gli elettroni) le particelle più diffuse nell’universo, allora, con l’aiuto di altre particelle agenti come catalizzatori chimici (che nelle stelle di massa maggiore è il carbonio), è comprensibile che infine protoni e neutroni in certe proporzioni e condizioni date generino il nucleo dell’elio e questo di fatto avviene nelle stelle. Così due nuclei di deuterio (costituiti ciascuno da un protone e un neutrone) urtandosi alla temperatura di dieci milioni di gradi anziché rimbalzare si fondono (è il processo della fusione nucleare solare) in uno di elio (due protoni, due neutroni). Questo però non significa che si richieda sempre una temperatura di dieci milioni di gradi, data dal supposto post-Big Bang, per formare l’elio: infatti l’elio non si forma soltanto nelle stelle compiute bensì anzitutto in quei luoghi delle nebulose protosolari in cui, in uno spazio ampio quanto un intero sistema solare, si sono già attivati i processi destinati a generare le stelle in quanto la contrazione gravitazionale ha acceso le prime reazioni termonucleari con conseguente produzione di elio. Così l’elio si trova sui pianeti gassosi come Giove e Saturno, ove certamente le temperature non sono alte quanto quelle interne al Sole, e sulla Terra (ove peraltro è praticamente assente) può essere formato quando, certamente non a milioni di gradi, si accende un pezzo di legna nel camino e il carbonio si mescola con l’ossigeno. Peraltro l’elio che si trova nelle nebulose oltre che nelle stelle può anche essere il residuo rilasciato da precedenti formazioni stellari in quanto esso una volta formatosi viene espulso nell’universo dalle stelle morenti (come nelle esplosioni di supernova). Dunque per la formazione dell’elio nelle nebulose si richiede certamente un’alta temperatura, che però può formarsi senza la necessità di postulare nessun Big Bang a monte. Il presupposto più semplice è dunque che da sempre esistano le nubi di polveri e gas che ovunque vediamo nell’universo, principalmente contenenti l’idrogeno che vi si forma e l’elio che vi si conserva una volta formatosi nelle stelle precedenti: è più semplice pensare che l’idrogeno, l’elio e gli altri elementi semplici si formino nelle nebulose primordiali, e anche nelle stelle precedenti, che non ri432
tenerli l’effetto poco comprensibile della singolarità esplosa. Infatti se l’elio una volta espulso e diffuso nell’universo può sopravvivere per molti milioni di anni (così come sopravvivono i raggi gamma e gli atomi di carbonio espulsi dalle supernove che formeranno altre stelle), diventa invece difficile pensare che esso possa sopravvivere fino ad oggi per 13 o 15 miliardi di anni dopo il Big Bang in quanto in un periodo siffatto esso si sarebbe probabilmente da tempo diluito e sciolto nell’universo nei suoi protoni e nei suoi neutroni di partenza attraverso i processi di decadimento a, cosicché anziché dire che l’elio sia stato prodotto dal Big Bang occorrerebbe domandarcisi come esso sia potuto sopravvivere per così tanto tempo al Big Bang: anziché un elio residuo di un Big Bang avvenuto 15 miliardi di anni fa è più concepibile un elio in una nebulosa quale residuo di stelle precedentemente attive, oltre che formatosi ex-novo nelle nebulose in procinto di generare stelle alle opportune temperature. Il fatto poi che non tutto l’idrogeno sia diventato elio (come si vorrebbe fosse in un universo eterno) si spiega proprio con le particolari condizioni in cui si genera l’elio: l’atomo di elio non si forma comunque e ovunque, ma si forma solo alla opportuna temperatura stellare data la fusione di due atomi di idrogeno o solo dato il legame fra due e solo due protoni e due e solo due neutroni; soltanto una minima parte (meno del 5%) dell’idrogeno e del gas presente nelle nubi interstellari si trasforma in stelle, e comunque esso si riscioglie in gas sparso con la morte delle stelle. Il paradosso dell’eternità – nel quadro di un eterno ciclo di nascita e morte degli elementi e delle stelle – non deve colpire più di quanto colpisca la singolarità iniziale, incomprensibilmente concepita come eterna o creata dal nulla, cosicché eterno per eterno è preferibile il più semplice in modo da non introdurre con l’incredibile singolarità iniziale un elemento del tutto arbitrario e speculativo: noi sappiamo che le particelle vi sono, cosicché possiamo anche pensarle da sempre e per sempre esistenti in un continuo gioco di generazione e annichilazione e trasformazione reciproca, mentre invece è assai più ipotetico e fantastico supporre a monte una specie di SuperParticella da sempre esistente che poi esplodendo le generi. In real433
tà la teoria del Big Bang non fa altro che attribuire in un sol colpo ai primi secondi immediatamente susseguenti la presunta esplosione primordiale con le sue altissime temperature la formazione degli elementi semplici che invece si formano in un lungo processo all’interno delle nebulose e nelle formazioni protostellari. Gli astrofisici che vogliono spiegare con il calore del Big Bang – anziché con le combinazioni chimiche dei protoni, dei neutroni e degli elettroni nelle condensazioni sprigionanti calore – la formazione degli atomi del gas dell’idrogeno e dell’elio non si rendono conto della circolarità, perché a sua volta l’alta temperatura del Big Bang richiede di essere spiegata con quelle particelle che dovrebbe spiegare. Per quanto riguarda invece la formazione degli elementi pesanti, la spiegazione ad opera di R. Alpher e R. Herman (1948) e poi di G. Gamow – celebrata come uno dei più grandi successi della teoria del Big Bang – non convince più. Infatti gli scienziati suddetti, sapendo che la costruzione degli elementi pesanti richiede (ben più di quelli leggeri) condizioni di temperatura e densità estremamente alte, hanno rinvenuto a ritroso nei primi minuti ad altissima temperatura susseguenti al cosiddetto Big Bang, naturalmente accortamente calibrandone la temperatura compatibile per la bisogna, l’atto di battesimo degli elementi pesanti. Allora si è detto: vedete? questa portentosa teoria, oltretutto, spiega anche la formazione degli elementi pesanti. Ma in realtà già a partire dal 1957 (in un fondamentale articolo di Hoyle, W. Fowler e G. e M. Burbidge) si è compreso che gli elementi pesanti dal carbonio in poi si formano esclusivamente nelle stelle, particolarmente nelle reazioni nucleari proprie delle fasi terminali da gigante rossa e supernova (segnatamente nella supernova, quando si esaurisce l’idrogeno e prima che essa esploda, avvengono reazioni per cui tre atomi di elio fondendosi ne producono uno di carbonio e poi ancora si produce azoto, ossigeno, ferro): anche qui, non sono necessari i miliardi di gradi Kelvin immediatamente seguenti al Big Bang, bensì bastano e avanzano i cento milioni di gradi di un nucleo di supernova (o anche, per quantità infinitesime, i dieci milioni di gradi all’interno di una stella). Nemmeno le esplosioni da raggi gamma vengono più spie434
gate come residui dell’“Esplosione primordiale”: dunque proprio non serve nessun Big Bang. Invero si domanda: se dall’eternità l’elio continuamente prodotto nelle stelle viene a sua volta in esse infine trasformato in elementi pesanti, e se poi le stelle dopo aver consumato l’idrogeno e l’elio esplodono scagliando gli elementi pesanti così generati nello spazio, allora perché l’elio non è tutto trasformato in elementi pesanti, e da dove proviene l’abbondanza di elio e la scarsezza di elementi pesanti ovunque riscontrabile nell’universo, visto che l’idrogeno e l’elio costituiscono rispettivamente il 68% e il 28% degli elementi dell’universo? Come si vede questa obiezione è la replica della precedente: prima si domandava perché tutto l’idrogeno non si sia trasformato in elio, ora si domanda perché tutto l’elio non si sia trasformato in elementi pesanti. Ma certo, circa la sorte degli elementi pesanti formati dall’elio nelle stelle terminali, è ipotizzabile che essi, dopo essersi così formati e dopo essere passati attraverso i più traumatici cambi di temperatura, non sussistendo più le altissime temperature stellari che li hanno generati, tornino a frantumarsi e a sciogliersi per molteplici vie negli elementi di partenza – protoni, neutroni, elettroni – così costituendosi a tutti gli effetti un ciclo: ciò che spiegherebbe la continua produzione e abbondanza di idrogeno e elio nell’universo e la concomitante scarsezza di elementi pesanti. Per quanto riguarda infine – dopo la formazione delle prime particelle, degli elementi semplici e di quelli complessi – la formazione delle nebulose protogalattiche, qui sappiamo con certezza che le dissolventi altissime temperature iniziali sono esiziali e si richiedono invece temperature decisamente più basse (le alte temperature vengono semmai dopo, quando si innesca il processo di fusione nucleare con trasformazione dell’idrogeno in elio che forma le stelle). Per questo nella teoria del Big Bang diventa indispensabile un raffreddamento successivo, che sarebbe avvenuto un miliardo di anni dopo il Botto, onde spiegare la successiva formazione delle stelle e delle galassie: l’inferno del Big Bang impedirebbe la creazione. Ma allora ci si chiede a che cosa serva la teoria del Big Bang: una teoria cosmologica, alla fin fine, dovrebbe spiegare anzitutto – do435
po gli elementi – la formazione delle nebulose originarie da cui si dipartono stelle e galassie, e se per spiegare questo si richiedono temperature non così alte allora sembra inutile immaginare a monte di quelle temperature una temperatura altissima che poi si è abbassata, un Grande Incendio che poi si è spento. In questo caso, Dio sarebbe un cuoco maldestro che per preparare un piatto tiepido lo fa prima bruciare scaldandolo fino all’inverosimile e poi lo fa raffreddare: ora, come diceva Einstein, il Signore è sottile ma non malizioso e – aggiungerei – nemmeno stupido. Qui si tratta proprio di un elementare principio di economia del pensiero: entia multiplicanda non sunt praeter necessitatem, simplex sigillum veri. Non a caso il saggio re Alfonso X di Castiglia, agli astronomi di corte che gli mostravano le nuove complicatissime tavole dei pianeti su base geocentrica (le tavole alfonsine che sostituivano le ormai inservibili tavole toledane), sbottò dicendo: se fossi stato Dio avrei fatto le cose in modo più semplice. Certo sappiamo che il mondo è complesso e che la teoria assolutamente semplice che lo spieghi non v’è: ma ciononostante rimane lecito il sospetto su una teoria quando essa appaia ridondante, sovraccarica e insomma inutilmente complicata. Nella fattispecie: se ciò che necessita per spiegare la formazione degli elementi e delle protonebulose e protogalassie è un piatto non caldissimo, che necessità v’è di supporre prima un piatto bollente poi raffreddato? Perché non assumere direttamente questo “piatto semifreddo” (o insomma non caldissimo) come condizione iniziale senza immaginare alle spalle una inverosimile e assolutamente inutile conflagrazione cosmica? Condensazioni, agglomerati e scontri in un universo non espanso In realtà l’attaccamento pervicace al mito dell’esplosione produce aporie a catena. Abbiamo or ora detto che è inutile e ridondante presupporre l’esplosione con temperatura poi raffreddata per spiegare la formazione degli elementi. Ora aggiungeremo che tale pre436
supposto non solo è inutile e antieconomico ma anche che con esso diventa alquanto problematico, per non dire impossibile, spiegare la strutturazione dell’universo. Infatti – come rilevò anche Hoyle – un’esplosione produce una situazione disordinata e non ordinata per cui non si vede come sia possibile un tale passaggio dal caos al cosmo. Così, data l’esplosione inaugurale, i teorici del Big Bang sono costretti a dire che dopo la conflagrazione si formerebbero, ovunque sparpagliati, particelle e atomi che poi si compatterebbero in stelle e galassie e quindi in ammassi e superammassi di galassie, secondo una pura associazione meccanica di parti slegate a formare un tutto: è la teoria del Bottom Up (dal basso verso l’alto), che sembra proprio richiesta dalla teoria del Big Bang. Viceversa sembra più plausibile concepire vaste nebulose originarie che poi si frantumano, si frammentano, si sdoppiano e si moltiplicano separandosi e condensandosi in ammassi, galassie e stelle, secondo una visione olista che proceda dal tutto alle parti. È questa la teoria del Top Down (dall’alto verso il basso), assai più convincente ma assai poco compatibile con il Big Bang che non produce vasti aggregati ma elementi singoli sparpagliati di cui poi difficilmente si spiega la connessione: così ad esempio per il cosmologo sovietico V. Ambartsumian (che rigettava l’idea delle collisioni galattiche) i filamenti che uniscono certe galassie sono l’ultimo legame che ancora le unisce dopo la scissione di un nucleo primigenio. Infatti tutta la moderna teoria del campo, dal campo elettromagnetico di Maxwell al campo gravitazionale di Einstein, ponendo le singolarità come “grumi” o condensazioni locali a maggior densità di un’energia ovunque diffusa nel “campo”, rende difficile pensare all’esistenza fisica e reale (e non puramente matematica) di una singolarità iniziale: in altri termini sembra essere il campo a generare le singolarità e non viceversa, cosicché una singolarità non può essere iniziale se la sua stessa esistenza in realtà richiede un campo. E ancora si potrebbe ricordare il teorema di Liouville per il quale, data in un sistema dinamico un’evoluzione temporale delle sue parti, muterà la superficie del sistema, che si ridistribuisce cambiando forma e diffondendosi, mentre il volume della regione di spazio interessata 437
non varia con l’evoluzione degli elementi rimanendo costante: ciò che appare veramente un buon modello esplicativo delle condensazioni date all’interno di un medesimo volume originario costituito da masse nebulari amorfe e indistinte. Per questo, anche vedendo nella parte di universo osservabile un gigantesco gas molecolare in espansione, non sarebbe comunque affatto ovvio accreditare tale espansione a una singolarità in esplosione. Il punto che occorre comprendere è che, data l’espansione conseguente alla conflagrazione che tutto allontana, diventa difficile spiegare come al contrario avvengano i compattamenti e le condensazioni in cui si rivela la strutturazione stessa del cosmo. «Sicuramente l’espansione dell’universo significa che Brooklyn si sta espandendo, che io mi sto espandendo, che Lei si sta espandendo, che tutti noi ci stiamo espandendo»: così Woody Allen sdraiato sul lettino dice al proprio analista nel film Io e Annie. Ebbene, questa obiezione è tutt’altro che stupida: il problema della difficoltà per non dire della impossibilità delle condensazioni in un cosmo in espansione costituisce una riconosciuta difficoltà teorica e una grossa spina nel fianco del modello cosmologico tradizionale, e può ben essere infine che una risata seppellisca una accreditata e pluridecennale teoria cosmologica. Riformulando dunque una intelligente battuta di spirito in un argomento più concettualmente mediato, diciamo: dato il Big Bang con la successiva violenta espansione dell’universo, i processi di condensazione e di agglomerazione ovvero la formazione delle nebulose, delle galassie e delle stelle diventa impossibile. Infatti se lo spazio si espandesse come una sorta di gas o di fungo nucleare allora tutti i punti dello spazio si allontanerebbero fra loro: tutto si allontanerebbe da tutto. Ma allora con l’espansione dello spazio non si allontanerebbero soltanto le galassie: ancor prima si allontanerebbero anzitutto i protoni, i neutroni, gli elettroni, e gli atomi non potrebbero mai formarsi; anzi, non potrebbero formarsi nemmeno i nuclei atomici in quanto si allontanerebbero i protoni e i neutroni che li compongono. In tal modo nemmeno i primi mattoni elementari dell’universo potrebbero mai formarsi e 438
la nucleosintesi (la fusione dei nuclei con produzione di elementi leggeri) diverrebbe impossibile. Protoni e neutroni non potrebbero mai formare nuclei, nuclei ed elettroni non potrebbero mai formare atomi, gli atomi non potrebbero mai formare molecole: così le galassie, prima ancora di allontanarsi, non potrebbero nemmeno formarsi. Due particelle infatti non possono congiungersi se lo spazio fra esse continua ad allargarsi: è vero che gli spazi fra i nuclei atomici sono intervalli di pochi centomilionesimi di centimetri (10–13), ma è anche vero che questi spazi – se rapportati alle masse infinitesime delle particelle – sono in realtà enormi, cosicché in un nucleo di atomo i protoni distano enormemente dagli elettroni e ancor più distano i nuclei atomici fra di loro, proprio come un pianeta è enormemente lontano dalla sua stella che a sua volta è ancor più enormemente lontana da altre stelle, cosicché tali vastissimi spazi intra e interatomici, espandendosi con la pretesa espansione dell’universo e aumentando vieppiù le distanze fra le particelle all’interno dell’atomo e fra gli atomi, non possono non allontanare sempre più le particelle impedendone il congiungimento. Le forze nucleari che tengono insieme l’atomo e il nucleo dell’atomo non potrebbero essere abbastanza forti per vincere l’opposta e enormemente più potente forza repulsiva innescata dalla colossale esplosione primordiale: sarebbe come pretendere che un piccolo pesciolino possa risalire al contrario le onde di un immenso oceano in tempesta. Ma anche se per assurdo in uno spazio in espansione potessero mai formarsi le condensazioni atomiche e infine le stelle, esse dovrebbero a loro volta continuamente allontanarsi fra loro e, all’interno dei sistemi solari, anche le stelle e i loro pianeti dovrebbero allontanarsi fra loro: ad esempio nel nostro sistema solare il Sole e la Terra dovrebbero reciprocamente allontanarsi. E anche ammettendo che le condensazioni e le galassie si siano ugualmente potute formare mantenendo la loro coesione interna nonostante l’espansione, rimane da spiegare come in un universo in espansione le galassie in certi casi possano dirigersi l’una verso l’altra. Infatti è da considerare il fatto che non tutte le galassie rivelano quello sposta439
mento verso il rosso che sempre si vorrebbe leggere come un Doppler, ed anzi non poche rivelano uno spettro con righe spostate verso il blu o il violetto. Già nel 1868 Huggins affermò che molte stelle rivelano uno spostamento delle righe non solo verso il rosso ma anche verso il violetto e nel secolo successivo la cosa venne confermata anche per le galassie. Anzi, il primo spettro galattico analizzato (Slipher, 1912) indicò proprio uno spostamento verso il violetto: si tratta – come sappiamo – della galassia costituita dalla nebulosa Andromeda, la galassia (dopo le nubi di Magellano) più vicina alla Via Lattea e distante circa due milioni di anni luce. Non esiste dunque solo lo spostamento verso il rosso cosicché, interpretando ad esempio lo spostamento verso il violetto di Andromeda come un effetto Doppler, dovremmo dedurne un suo moto di avvicinamento alla Via Lattea (alla velocità di quasi 300 Km/sec) oppure potremmo dire che è in realtà la Via Lattea che (più o meno alla stessa velocità) si avvicina ad Andromeda, evidentemente per una reciproca attrazione gravitazionale, oppure ancora potremmo dire che in realtà entrambe le galassie si avvicinino l’una all’altra (ciascuna a circa 150 Km/sec). Certamente è possibile dire che, come lo spostamento verso il rosso non significa necessariamente un allontanamento della sorgente, così lo spostamento verso il violetto di una sorgente potrebbe non significare un avvicinamento progressivo in quanto tale spostamento, come noi sappiamo applicando la reciproca dei ragionamenti svolti riguardo lo spostamento verso il rosso, potrebbe indicare non un moto Doppler bensì la particolare natura fisica della sorgente (infatti rileviamo la preponderanza di stelle più giovani e calde con spostamento spettrale verso il blu nei bracci delle galassie anche lontane). Comunque in generale una sorgente ad alto blue shift indica un’alta temperatura e una notevole quantità di luce anche a causa della vicinanza cosicché, che si tratti di vicinanza o di avvicinamento, rimane accertata con il blue shift l’esistenza di sistemi in cui le galassie non sembrano affatto allontanarsi reciprocamente. Ora, se noi dalla nostra prospettiva vediamo varie galassie il cui blue shift ne indica o una potenza energetica esaltata dalla vicinanza oppure un avvicinamento Doppler (come 440
nel caso di Andromeda rispetto alla Via Lattea), allora evidentemente dobbiamo pensare che da qualsiasi altra galassia si vedrebbero vari blue shift indicanti galassie vicine o in avvicinamento, e per nulla affatto in allontanamento per espansione dell’universo, e in effetti l’esistenza di raggruppamenti galattici con reciproche orbitazioni è da tempo pienamente confermata: come nel piccolo fanno le cosiddette “stelle doppie” fra loro gravitazionalmente legate, che fra l’altro sono più della metà delle stelle osservate, così si riscontrano numerose galassie con satelliti (ad esempio le Nubi di Magellano rispetto alla Via Lattea) nonché galassie binarie che orbitano l’una attorno all’altra (come potrebbe essere per Andromeda rispetto alla Via Lattea); molte galassie mostrano perfino vere e proprie “deformazioni mareali” dovute all’attrazione gravitazionale di altre galassie, con lunghe code di filamenti stellari in direzione dell’attrattore, quasi come sulla Terra l’innalzamento o l’abbassamento delle acque del mare a causa della gravitazione lunare. Ora, se si allontanano tutte tra loro per via dell’espansione, come si spiega il fatto che in realtà quasi tutte le galassie osservate si rivelano parti di strutture con reciproche orbitazioni? Qui la tesi di Hubble e dei teorici dell’espansione circa la recessione galattica sembra smentita: il modello standard dice che le galassie si allontanano fra loro e invece – classico caso di anomalia scientifica all’interno di un paradigma dominante – saltano fuori i “bastian cuntrari” ovvero galassie orbitanti o financo galassie mattacchione che si avvicinano e si divertono ad andare contromano. Ma non basta ancora. Torniamo ad Andromeda: se Andromeda e la Via Lattea si stanno avvicinando allora questo significa che fra qualche miliardo di anni (si calcolano 3,7 miliardi di anni) potrebbe aver luogo una collisione fra le due galassie. Ora noi non sappiamo se la galassia Andromeda sia destinata in un futuro più o meno lontano a scontrarsi con la Via Lattea. Potrebbe essere infatti, come avviene per i reciproci rapporti gravitazionali fra galassie, che Andromeda sia semplicemente legata gravitazionalmente alla Via Lattea secondo fasi periodiche e alterne di avvicinamento in periastro (la fase attuale) e di allontanamento in apoastro, un po’ come il pe441
rielio e l’afelio dei pianeti rispetto al Sole. Ma in ogni modo, anche se non sappiamo se Andromeda sia destinata allo scontro con la Via Lattea, certamente sappiamo ormai che nell’universo sono molto diffusi gli scontri fra galassie, dovuti a reciproca attrazione gravitazionale, con galassie che provenienti da direzioni diverse quando non opposte si intersecano, si attraversano, si mescolano, si fondono e si confondono fra di loro: quando per esempio due galassie mostrano filamenti di connessione è probabile che essi siano non sempre e soltanto il prodotto di una scissione incipiente all’interno della stessa galassia madre (come pensava Ambartsumian), bensì anche l’effetto di uno scontro; parimenti quando rileviamo che in una galassia le parti esterne dell’alone appaiono controrotanti in senso retrogrado e opposto rispetto alla rotazione della struttura centrale, vi sono ben pochi dubbi che questi siano effetti di fusione galattica. Recentemente la radioastronomia, attraverso questi giganteschi orecchi puntati verso il cielo che sono i radiotelescopi, ha accertato moltissimi casi di fusione galattica (un esempio per tutti: la sorgente Cygnus A), e lo stesso ha fatto il telescopio Hubble con ottima visibilità perché posizionato al di là dell’atmosfera terrestre. Vi sono casi di “cannibalismo galattico” in cui una galassia più grande letteralmente ne ingoia un’altra fagocitandola, e sembra che certe galassie ellittiche possano essere il prodotto della fusione di due galassie a spirale: dunque la formazione di nuove galassie e di nuove stelle, quando non è l’effetto del collasso rotazionale di una protogalassia gassosa, sembra in molti casi originata dai detriti residui lasciati dopo uno scontro galattico. Così, nuovamente ma con più insistenza, la domanda è: come si conciliano non solo i raggruppamenti e le orbitazioni galattiche ma addirittura gli scontri e le fusioni fra galassie con il modello per il quale le galassie si allontanano continuamente fra loro? Invero a queste obiezioni i teorici del modello dominante in astronomia hanno pronta una risposta. Essi infatti dicono che le galassie con spostamento delle righe spettrali verso il blu, che a loro giudizio indicano sempre un avvicinamento Doppler, sono so442
lo eccezioni locali: sarebbero essenzialmente solo le poche galassie più vicine ad altre e in direzione di avvicinamento ad esse, che da quella prospettiva appaiono più luminose appunto per la vicinanza, a evidenziare un blue shift. Non solo la Via Lattea nei suoi dintorni, ma tutte le galassie possono avere nei loro dintorni galassie vicine, il cui avvicinamento sarebbe rivelato da un blue shift, costituenti con esse gruppi interconnessi che vincono la forza di espansione dell’universo. Più precisamente i teorici del modello dominante rilevano che per la legge di Hubble la velocità di allontanamento cresce sempre più con la distanza, per cui a distanze piccole e locali la bassa velocità di allontanamento può essere irrilevante e superata dalla velocità opposta del moto proprio delle galassie in avvicinamento. Dunque la legge di Hubble – essi rilevano – non dice in realtà che tutte le galassie si allontanano fra di loro (o vengono allontanate dallo spazio in espansione), bensì che solo le galassie lontane si allontanerebbero reciprocamente. L’allontanamento delle galassie su grande scala non nega il loro avvicinamento su piccola scala: normalmente le galassie si allontanano fra loro, ma ciò non toglie che vi siano gruppi di galassie gravitazionalmente legate fra loro con possibili avvicinamenti e financo scontri reciproci, così come a maggior ragione a distanze ancor più locali i pianeti e le loro stelle (ad esempio il Sole e la Terra) rimangono connessi e non si allontanano reciprocamente per l’espansione, e parimenti le potenti forze atomiche e nucleari possono mantenere i compattamenti fra le particelle. In tal modo l’ammasso della Vergine si allontana da tutti gli altri ammassi esterni di galassie ma all’interno di tale ammasso, ad esempio nel Gruppo Locale, una galassia (Andromeda) può avvicinarsi ad un’altra (la Via Lattea); viceversa il Gruppo Locale, pur attratto gravitazionalmente dall’ammasso della Vergine a cui si avvicina alla velocità di 400 Km/sec, in realtà se ne allontana a 600 Km/sec perché la velocità di avvicinamento sarebbe superata dalla velocità di recessione galattica di 1000 Km/sec. Parallelamente, e più in generale, dando alla costante di Hubble un valore di allontanamento nell’universo in espansione pari a 65 Km/sec, ne consegui443
rebbe che due galassie vicine (per le quali la velocità di espansione non va moltiplicata per la distanza) con moto proprio di 300–400–500 Km/sec possono avvicinarsi fra loro fino a collidere pur in presenza di un moto opposto di espansione dell’universo. Senonché questa formulazione, che invocando l’universo solo debolmente espanso a livello “locale” e tarando opportunamente la costante di Hubble crede di giustificare il mancato allontanamento delle galassie fra loro vicine, appare un argumentum ad hoc per occultare le anomalie, un po’ come nel passato si cercava con gli epicicli di salvare il modello geocentrico dalle anomalie sempre più insorgenti. Al riguardo va rilevata l’acrobazia intellettuale con la quale Hubble, destreggiandosi fra i dati osservativi, ha cucito loro addosso la sua “legge”: interpretando il blue shift come un Doppler in avvicinamento e il red shift come un Doppler in allontanamento e vedendo che le galassie più vicine come Andromeda evidenziavano un blue shift e quelle più lontane un red shift, egli ha detto: la velocità di recessione, dapprima piccola “localmente”, cresce sempre più con la distanza. Ma in realtà non v’è nessun motivo, se non ad hoc, per dire ciò: anzi, l’espansione dovrebbe essere omogenea e uniforme, o addirittura dovrebbe – esattamente al contrario – essere più veloce localmente per poi decrescere con la distanza. Se Hubble avesse visto un red shift nelle galassie più vicine e un blue shift in quelle più lontane, avrebbe formulato la sua legge al contrario e avrebbe detto che la velocità di recessione, grande o grandissima a livello locale, diminuisce sempre più con la distanza. In realtà la legge di Hubble, che dapprima parlava semplicemente di allontanamento con velocità progressiva delle galassie, soltanto in seguito è stata reinterpretata in termini di espansione dello spazio e questo in primo luogo proprio per “salvare i fenomeni”: poiché infatti era evidentemente impossibile mantenere una legge per la quale le galassie si allontanano in proporzione alla distanza (oltretutto anche ad una velocità prossima a quella della luce) in presenza di galassie – fosse anche solo una – che invece si avvicinano ad un’altra (come nel nostro caso Andromeda con la Via Lattea), allora si è detto che in realtà non sono le galassie che si allontanano ma è lo spazio che si espande – debolmen444
te a livello “locale” e sempre più velocemente quanto più cresce la distanza – così da poter aggiungere che l’allontanamento via via crescente vi sarebbe comunque ma che ciononostante le galassie più vicine fra loro (nonché i sistemi solari, gli atomi e le particelle) possono avvicinarsi a livello locale in quanto, nuotando per così dire controcorrente, superano l’opposta velocità d’espansione del substratum troppo debole a brevi distanze. Ma soprattutto noi domandiamo in particolare circa le galassie più distanti, che in base al rapporto di Hubble fra velocità e distanza dovrebbero avere una altissima velocità di recessione: galassie lontane il cui moto proprio sia 500/600 Km/sec (poiché in genere non è di più) come possono apparire collegate (e come potevano esserlo in passato) e come possono attirarsi fra loro fino a scontrarsi, se stando ai dati della legge di Hubble lo spazio in espansione che le separa può allontanarle a quelle distanze non a 65 Km/sec ma (per la moltiplicazione di quella costante con la distanza) anche a 200.000 Km/sec o anche più, fino al limite della velocità della luce ed anche oltre? Qui, anche ammettendo per buona l’argomentazione dei teorici del modello cosmologico dominante circa le “distanze locali”, subentra una considerazione con la quale veramente l’argomentazione diventa decisiva: nell’universo infatti non vi sono solo singole galassie o piccoli gruppi isolati di galassie, non vi sono solo “ammassi galattici” (clusters) composti da decine di galassie ma, come oggi sappiamo e come allora non poteva sapere Hubble, vi sono anche e soprattutto “superammassi galattici” (superclusters) composti da centinaia, migliaia e (secondo alcuni cosmologi) financo milioni di galassie che, piuttosto che sciogliere i reciproci legami allontanandosi fra loro, si presentano invece come insiemi che possiamo definire compatti e coerenti. Ora, come può essere ciò in un universo in espansione? Anche ammettendo che a livello “locale” la forza gravitazionale possa attrarre le galassie fra loro vicine superando l’opposta forza di espansione che le allontanerebbe, questo non sembra più poter valere per altri ammassi di galassie che – essendo posti a grande distanza reciproca – non dovrebbero orbitare fra loro né tantomeno avvicinarsi bensì allontanarsi. 445
Fig. 10 Collisione fra le galassie NGC 2207 e NGC 2163 In un universo in espansione centrifuga con allontanamento radiale dei punti, in cui tutto si allontana da tutto, diventa problematica la spiegazione del movimento contrario centripeto che conduce alle condensazioni, ai compattamenti e ai raggruppamenti che tengono insieme particelle, sistemi solari, enormi ammassi e superammassi di galassie, e in particolare diventa impossibile la spiegazione delle collisioni e fusioni di galassie: due galassie distanti con moto proprio di 500 Km/sec non potrebbero mai avvicinarsi fino a collidere in uno spazio la cui velocità di espansione, supposta crescente con la distanza per la legge di Hubble, le allontanerebbe con velocità ben superiore fino al limite della velocità della luce.
446
Qui non si tratta affatto di “piccole” e “locali” distanze insignificanti, anche ammettendo che milioni di anni luce (cioè milioni di anni impiegati dalla luce che pur viaggia a 300.000 Km/sec!) siano distanze insignificanti, bensì si tratta di distanze inimmaginabili. Partiamo dal caso più semplice che è il quintetto di Stephan, costituito da una minuscola associazione di quattro galassie (la quinta vi è probabilmente associata solo per effetto prospettico), e con generosità e magnanimità concediamo pure che per le “piccole distanze” le quattro galassie possano vincere la forza repulsiva dell’espansione. Però poi vi è la costellazione del Centauro e quella del Leone, ciascuna con 300 galassie, quindi vi è la costellazione di Perseo con 500 galassie e via via si sale fino ad enormi ammassi e superammassi come quello della Vergine o della Chioma di Berenice con migliaia di galassie, senza considerare le due Grandi Muraglie (Great Walls) scoperte negli anni ottanta che contengono un numero enorme di galassie estendendosi rispettivamente per 700 milioni e un miliardo di anni luce. Ora, in questi raggruppamenti galattici si possono facilmente rinvenire con le orbitazioni molteplici moti di avvicinamento. Ad esempio, e partendo da casa nostra: il Sole ruota in circa 250 milioni di anni attorno al centro della galassia di appartenenza, la Via Lattea; questa appartiene con una trentina di galassie (fra cui Andromeda e le piccole Nubi di Magellano) al cosiddetto “Gruppo Locale”, che a sua volta si muove (alla velocità di 400 Km/sec) attorno al centro (distante cinquanta milioni di anni luce) dell’Ammasso della Vergine che comprende circa 3000 galassie; a sua volta L’Ammasso della Vergine, con il Gruppo Locale e la Via Lattea, si muove per attrazione gravitazionale alla velocità di centinaia di chilometri al secondo verso l’enorme concentrazione di massa costituita dal “Grande Attrattore”. Tutte queste cose Hubble non poteva saperle: egli ha saputo vedere in ciascuna galassia un insieme coerente, ma con i mezzi di cui disponeva non poteva vedere come anche le galassie costituiscano fra loro, tramite “ammassi” e “superammassi”, degli insiemi spesso enormi e su enormi distanze ed in larga parte coerenti. Egli ha visto gli alberi ma non conosceva le foreste che di questi alberi si compongono, e per questo 447
la sua legge oggi appare ancor meno adeguata di allora. Nei primi modelli espansionistici di de Sitter questo problema non sussisteva perché per semplificazione si poneva come nulla la densità di materia, in un universo praticamente vuoto: ma non appena si passa all’universo reale che rivela masse gravitazionali multiple attrattive ad enormi distanze appare problematico spiegarne le connessioni e i compattamenti stellari e galattici in presenza di una concomitante espansione repulsiva. Il problema è particolarmente grave per i superammassi galattici, la cui scoperta nel 1958 da parte di G. Vaucouleurs scatenò una vera e propria crisi di rigetto dei cosmologi che proprio non volevano saperne addirittura accusandolo di aver costruito a tavolino i superammassi e la sua hierarchical cosmology raggruppando arbitrariamente galassie sconnesse. Oggi invero l’esistenza dei superammassi è pienamente riconosciuta, ma si capisce il motivo di quel rigetto: infatti con ogni evidenza strutture così enormemente estese non potrebbero essere tenute insieme dalla attrazione gravitazionale, che diminuendo con il quadrato della distanza è necessariamente molto debole a tali enormi distanze, certamente non “locali”, se oltretutto agisse anche una espansione repulsiva agente in senso contrario. Si potrebbe del resto obiettare: se le galassie si possono attrarre gravitazionalmente e se anche gli ammassi di galassie possono attrarsi gravitazionalmente, allora perché mai non potrebbero parimenti attrarsi gravitazionalmente i superammassi di galassie? Se si dice che galassie, ammassi di galassie e superammassi di galassie appaiono di volta in volta avvicinarsi e allontanarsi nell’universo, allora l’universo rivela una simmetria; se invece si pretende che a distanze “piccole” e “locali” galassie e ammassi di galassie possono avvicinarsi e financo scontrarsi, mentre invece a grandi distanze i superammassi di galassie possono soltanto allontanarsi, allora con ciò si introduce una discontinuità, una frattura inspiegabile nell’universo (paragonabile a quella antica fra Cielo e Terra). Consideriamo ora al riguardo la metafora e la sconcertante immagine-simbolo cara ai teorici del Big-Bang e dell’espansione: l’abusata e onnipresente immagine del palloncino gonfiato che, 448
moltiplicata con tutta serietà e serialmente nelle riviste più accreditate e financo nella pubblicistica più corrente e minuta, è ormai diventata la rappresentazione iconografica ufficiale dell’espansione dell’universo a partire da uno scoppio. Certamente questa immagine è più atta a richiamare alla memoria un ragazzo un po’ rozzo che mastica chewing-gum, ma così è: mentre nell’antichità il simbolo del cosmo poteva essere la Tartaruga indù, il Mandala cinese, la quadratura del cerchio greca, la Dea Nut egizia, oggi invece il nostro mondo, la nostra cultura scientifica di cui tanto andiamo fieri, quando ha cercato di rappresentare iconograficamente la sua percezione del cosmo non ha saputo trovare nulla di meglio di un pallone gonfiato. Consideriamo dunque questa immagine: ebbene, prendendo un palloncino su cui siano disegnati dei punti e gonfiandolo si vede benissimo che non soltanto i punti si allontanano fra loro bensì che gli stessi punti, che dovrebbero simboleggiare le galassie, si ingrandiscono e si espandono a macchia d’olio sciogliendosi e diluendosi sulla superficie del palloncino fin quasi a rendersi invisibili: come si dice nel Vangelo, chi ha orecchie per intendere intenda. Evidentemente i teorici dell’espansione non si sono mai presa la briga di gonfiare un palloncino, io sì. Avrebbero dovuto piuttosto, per mantenere fermi i “punti”, sostituire l’immagine del palloncino gonfiato con quella, quantomeno più gradevole, delle uvette e dei canditi in un panettone durante la lievitazione, ma anche in questo caso si sarebbe trattato di uno strano panettone in cui le uvette e i canditi formerebbero insiemi così legati fra loro che nemmeno la lievitazione del panettone riesce a separare. Così, alla fine, è forse più corretto dire: Hubble ha preteso generalizzare i dati che per varie galassie sembravano indicare una distanza crescente reciproca (lo spostamento verso il rosso peraltro univocamente interpretato come effetto Doppler) fino a farne una legge generale, quando invece troppe anomalie e diverse possibili letture vengono a smentire la pretesa universalità di quella legge. In realtà un universo in espansione risulta assai poco compatibile con la nucleosintesi e con i raggruppamenti stellari e galattici, vicini e lontani: esso potrebbe forse contenere energia e radiazione sparsa e 449
diffusa ma in esso mai potrebbero formarsi atomi, stelle, sistemi solari, galassie, ammassi e superammassi di galassie. In realtà l’universo non mostra affatto queste galassie in perenne fuga reciproca. Lungi dall’allontanarsi reciprocamente, le galassie mostrano piuttosto di interagire fra loro nei modi più vari: le galassie che per legge dovrebbero allontanarsi fra di loro mostrano invece non solo di essere reciprocamente collegate in sistemi multipli anche a distanze inimmaginabili ma anche mostrano spesso e volentieri di avvicinarsi fino a scontrarsi. Dunque il vario e complesso moto delle galassie non sembra poter essere univocamente interpretato come recessione galattica. I calcoli furono presto fatti e risultò che, per tenere gravitazionalmente uniti gli ammassi e i superammassi galattici e spiegarne le collisioni, occorrerebbero masse gravitazionali da dieci a cento volte maggiori di quante se ne osservino. Invero la stessa teoria standard riconosce che l’attrazione gravitazionale fra le galassie potrebbe un giorno frenare e addirittura invertire l’espansione dell’universo, ma il punto è che invece tale attrazione dovrebbe agire ben prima e impedire l’espansione e la formazione stessa dell’universo. Il problema è reale ed è riconosciuto dagli stessi teorici dell’espansione i quali calcolano addirittura che se, un secondo dopo il Big Bang, la densità di massa nell’universo fosse stata anche solo di una frazione infinitesima (un milionesimo di miliardesimo) maggiore oppure minore di quella critica (posta come W = 1), allora l’universo si sarebbe nel primo caso immediatamente ricompattato su se stesso mentre nel secondo caso si sarebbe espanso così velocemente da non dare il tempo al gas di condensare in galassie e ammassi. Dunque né nel primo né nel secondo caso l’universo con i suoi sistemi stellari si sarebbe mai formato. In un caso la massa avrebbe impedito l’avvio stesso dell’espansione e nell’altro l’espansione avrebbe impedito la formazione delle galassie che invece vediamo: solo per una singolarissima coincidenza statisticamente quasi impossibile, solo una massa esattamente uguale ad 1, ovvero solo un valore fra infiniti altri possibili al di sotto e al di sopra di quello determinato con precisione infinitesimale come esattamente uguale ad 450
1, solo questo valore consentirebbe i compattamenti. Questa, fra tutte, a noi sembra una delle obiezioni più decisive e quasi inappellabili contro l’idea dell’espansione. È stato giustamente detto (J. Halliwell) che ritrovare l’universo attuale con le sue stelle e le sue galassie in questo modello «è improbabile quanto trovare una penna in equilibrio sulla punta dopo un terremoto». L’invenzione dell’inflazione, le velocità fluttuanti e gli universi a tavolino Come parziale, parzialissima risposta a tutti i problemi e le anomalie che la teoria evidenziava, i difensori-correttori-revisori del modello standard hanno inventato, a partire dagli anni ottanta con A. Guth e poi con A. Linde, la “teoria dell’universo a bolle” o “inflazionario” o “gonfiato” (The Inflationary Universe)53, definito da R. Penrose «una moda che i fisici teorici hanno imposto alla cosmologia». Nella sua versione della teoria inflazionarla, Linde (non senza una certa convergenza con alcune idee dell’ultimo Hoyle) abolisce il “Primo Big Bang” assumendo un universo eterno che mai avrebbe avuto inizio ma al contempo, visto che evidentemente un solo Big Bang non bastava, moltiplica gli universi e i botti di primo dell’anno postulando infiniti universi “paralleli”, tutti nati da altrettanti Big Bang e sempre autoriproducentesi a “frattale” o a grappolo in altrettante espansioni “locali”, ciascuna diversa dall’altra (per i diversi valori delle costanti fisiche) e nessuna omogenea e uniforme. In ciascuno di questi universi una asimmetria inaugurale connessa a fluttuazioni quantistiche, complice la forza repulsiva ora denominata “quinta forza”, determinerebbe immediatamente dopo il Big Bang una quasi istantanea espansione-lampo iniziale vertiginosamente accelerata fino a superare la velocità della luce (idea, si
53
A.H. Guth, The Inflationary Universe, Massachusetts 1997, Perseus Books.
451
ricorderà, che fu già di de Sitter), con conseguente enorme dilatazione dell’universo (di 1043 volte) che, in tale microscopico intervallo (fra 10–36 e 10–34 sec), aumenterebbe addirittura dalle dimensioni di un protone a dimensioni maggiori dell’intero universo osservabile; poi vi sarebbe una decelerazione che porterebbe alla “normale” espansione del modello standard con un continuo rallentamento. Per più recenti modelli, invece, all’inizio dell’universo vi sarebbe stata non un’espansione superluminale dello spazio bensì (variando alcune speculazioni di Dirac e Dicke sull’iniziale variabilità della costante G) un’accelerazione della stessa luce a velocità superluminale poi ricondotta al normale parametro c54. Ancor più recentemente, poiché il valore della costante di Hubble non quadra bene con l’età presunta del cosmo, si è ipotizzato che il nostro universo – pur avendo cessato la fase di inflazione – sia ancora piuttosto vicino alle velocità iniziali dell’espansione e stia dunque procedendo a velocità piuttosto alta, seppur sufficiente alla formazione in senso opposto degli agglomerati, ciò per cui la sua età potrebbe tornare ad essere 20 miliardi di anni: come dire che un’automobile, che partita da Milano impiega due ore per andare a Venezia, procedendo più velocemente potrebbe anche impiegare lo stesso tempo partendo da Torino. È infine a rilevarsi che nella maggior parte dei modelli la teoria dell’inflazione presume che l’espansione produca alla fine uno spazio “piatto” o euclideo: poiché infatti la curvatura diminuisce col crescere del raggio allora in una sfera enormemente dilatata lo spazio risulterebbe euclideo alla rilevazione proprio come piatta appare a noi la superficie terrestre, ed inoltre se nell’universo la densità di massa è piuttosto scarsa (ben al di sotto di un atomo in media per metro cubo, e del resto già nel modello di de Sitter l’universo era assunto come mediamente quasi vuoto) allora per la stessa teoria della relatività lo spazio sarà euclideo in quanto non “curvato” dalle masse (donde la possibilità di quantificare co54 Cfr. J. Magueijo, Faster than the Speed of Light, 2003, tr. it. Più veloce della luce, Milano 2003, Rizzoli.
452
me nullo il grado di curvatura nelle equazioni di Einstein così riottenendo le equazioni di Newton o di Poisson). Il problema di queste teorie, evidentemente, è tarare e calibrare la velocità di espansione dell’universo in modo da renderla anzitutto compatibile con la formazione degli agglomerati. Al riguardo certo non potevano più bastare le consuete e contraddittorie valutazioni della velocità dell’espansione in base alla quantificazione della “costante di Hubble” in quanto con tale valore si presupponeva un moto recessivo dell’universo costantemente accelerato, secondo la rigida proporzione meccanica distanza doppia – velocità doppia, che non poteva rendere ragione né delle specifiche varietà né della formazione degli agglomerati. I “correttori” insomma si sono resi conto – non è mai troppo tardi, ed è meglio tardi che mai – che in realtà l’espansione dell’universo impedirebbe la formazione di atomi, stelle, sistemi planetari, galassie, e allora hanno pensato – mantenendo ferma una certa età stabilita dell’universo – di accelerare a tutto gas l’espansione quando ancora non si formano le particelle e di decelerarla subito dopo rallentandola sempre più, e in pari tempo differenziandola, al fine di consentire la formazione degli aggregati. L’idea è che alle aporie della cosmologia standard si possa cercare di ovviare all’interno di un modello evolutivo solo introducendo velocità iniziali superluminali e velocità differenziate successive: da un lato un’espansione iniziale superluminale, posta anzitutto per spiegare l’omogeneità e l’isotropia dell’universo poco comprensibili in base alla teoria classica del Big Bang, consentirebbe una successiva decelerazione tale da permettere a più basse velocità di espansione la condensazione altrimenti impossibile delle particelle e delle galassie; dall’altro lato una serie di espansioni mai omogenee e non uniformi genererebbe uno spazio più espanso là e meno espanso qua, cosicché le varietà locali dell’espansione potrebbero rendere ragione delle diverse fenomenologie in modo da consentire là la recessione e qua la formazione di atomi e galassie. Con questi escamotages si è cercato dunque di giustificare, nonostante l’espansione, la formazione degli agglomerati e l’isotropia dell’universo senonché, come ognun vede, la teoria dell’inflazione 453
appare altamente speculativa ed atta non a “salvare i fenomeni” bensì solo a salvare la teoria standard riscrivendola. Puramente speculativi sono i concetti base di queste teorie: la forza repulsiva, l’espansione inflazionaria superluminale, gli infiniti universi “paralleli”. Circa questi ultimi poi si può dire tutto quello che si vuole. Noi non conosciamo che in minima parte l’universo e ancor meno possiamo sapere di ipotetici universi “paralleli”: possiamo dire che v’è un universo, che ve ne sono tre o mille o infiniti, possiamo immaginare altri universi in cui la velocità della luce o la gravitazione abbiano valori diversi, o in cui Giulio Cesare non varca il Rubicone e si fa un bel bagno, possiamo immaginare tutto quello che vogliamo del tutto sicuri che quanto diciamo non sarà mai né verificato né smentito. Soprattutto colpisce qui il moltiplicarsi di argumenta ad hoc, ad esempio circa la produzione finale di un universo “piatto” e euclideo: infatti, anche ammesso che la massa abbia il potere di “curvare lo spazio”, allora mai l’universo potrà essere “curvo” per il semplice fatto che in esso non v’è massa sufficiente a causare tale mirabile effetto e questo, fuor di metafora, è il vero motivo per cui i cosmologi sono tornati a parlare di “spazio piatto”. Cosicché (a prescindere dalla reificazione implicita, in precedenza già rilevata, nel parlare impropriamente di “spazio curvo” come peraltro di “spazio piatto”) ci si può domandare se giungere a riconoscere il carattere euclideo e “piatto” dello spazio (per usare la scorretta terminologia) non sia infine un riconoscimento implicito dell’errore commesso decenni prima nell’ammettere l’incomprensibile ibrido chiamato “spazio curvo” per di più espanso: anziché dire che lo “spazio curvo” non appare nell’universo perché l’inflazione ha appiattito il cosmo portandone la curvatura prossima allo zero, non è più semplice dire che in realtà lo spazio è euclideo da sempre e non è mai stato curvo? Se lo spazio è euclideo oggi, come ormai si dice, con ciò non è detto che sia stato curvo e non euclideo ieri. Parimenti le teorie dell’inflazione, come presumono che lo spazio sia stato “curvo” miliardi di anni fa mentre oggi non lo è più, così postulano che la vera espansione riguardasse l’universo del passato mentre nell’universo attuale essa – a forza di decelerare e rallentare 454
– giungerebbe quasi ad arrestarsi: ma ammettere una velocità di espansione sempre più rallentata fin quasi a fermarsi non è un riconoscimento implicito dell’errore commesso decenni prima nell’ammettere quella velocità iniziale? Se si richiede un universo statico onde rendere possibili i legami diventa inutile la supposizione di una espansione ad altissima velocità iniziale poi rallentata. Come per spiegare i primi aggregati si richiede una bassa temperatura che rende inutile la supposizione di un’altissima temperatura a monte che poi si abbassa, così appare lecito e più semplice pensare che anche nell’universo più antico lo spazio non fosse espanso se non lo è quasi più oggi, né fosse in espansione se ora non lo è quasi più, e che dunque esso non solo non sia ora ma non sia mai stato né “curvo” né espanso. Del resto già nell’antichità Archita di Taranto e Lucrezio55 criticavano l’idea di una “sfera del cosmo”, ovvero l’idea (in realtà antichissima) di uno spazio curvo e finito, dicendo che altro spazio al di fuori dovesse pur esservi: in quanto se una ipotetica freccia scagliata o una ipotetica mano posta al di fuori delle “muraglie del cosmo” (moenia mundi) incontra una resistenza è perché vi è qualcosa al di là e se non la incontra è ancora perché vi è uno spazio al di là, cosicché noi non possiamo veramente concepire un limite allo spazio fuori del quale non vi sia più altro spazio. Né Archita né Lucrezio avrebbero accettato il truismo moderno per cui l’ipotetica freccia, ovunque scagliata, dopo qualche miliardo di anni tornerebbe infine circolarmente al punto di partenza. Ma, anche a prescindere da queste considerazioni generali, notiamo quanto di inverosimile vi sia nei presupposti delle teorie inflazionarie. Infatti i revisori del modello standard, dopo l’inflazione, possono decelerare e rallentare sempre più la loro espansione ma mai abbastanza: come si è visto infatti soltanto una velocità d’espansione minore dei moti propri (cioè veri) delle galassie, come ad esempio una velocità minore di circa 300-500-1000 Km/sec, po55 Per Archita vedi H. Diels, Die Fragmente der Vorsokratiker (tr. it. I Presocratici, Bari 19753, Laterza), 47 D24; per Lucrezio De rerum natura I 967-982.
455
trebbe consentire i ravvicinamenti e scontri galattici: mentre invece a grandi distanze la “legge di Hubble” prevede velocità recessive anche enormemente superiori. Né questo basta ancora perché nel tempo, in flagrante contraddizione con la “legge di Hubble”, sono risultate galassie vicine e più giovani con alto red shift e galassie vecchie e lontane con basso red shift, mentre dovrebbe essere il contrario. In particolare S. Perlmutter nel 1999 ha osservato delle galassie che (in base all’esame di supernove in esse contenute) si rivelano molto lontane, e che parimenti sono ritenute molto antiche per il lunghissimo tempo che la loro luce ha impiegato per giungere a noi che le vediamo ora come erano allora: siccome però esse evidenziano uno spostamento verso il rosso molto meno marcato di galassie più vicine allora questo significa che, se il loro red shift va interpretato come un Doppler, esse procedono a velocità più bassa delle galassie più vicine e ciò in contraddizione con la cosiddetta legge di Hubble per cui le galassie più distanti devono procedere sempre più velocemente in quanto sarebbero le più antiche risalenti all’epoca della grande accelerazione iniziale dell’universo. Senonché certo i teorici dell’espansione non si sono lasciati spaventare da questa quisquilia. Essi infatti, dopo aver posto dopo l’inflazione un’espansione decelerata per spiegare gli agglomerati, si sono inventati un’espansione nuovamente e improvvisamente accelerata e hanno detto: se la galassia lontana e antica ha un red shift e una velocità a valori troppo bassi allora ciò vuol dire che in quella lontana epoca l’espansione aveva rallentato dopo la fase inflazionaria; poi però, poiché la massa che dovrebbe frenare e arrestare l’espansione si è nel frattempo sempre più diluita, rarefatta e dilatata con l’allargarsi dello spazio espanso con conseguente allentamento della resistenza gravitazionale, allora l’universo, la cui espansione era sempre più rallentata da miliardi di anni fin quasi ad arrestarsi, all’improvviso in mancanza di attrito e di freni riprende in ultimo a nuovamente accelerare ed ecco perché le galassie più recenti e più vicine – il cui red shift appare spesso stranamente accentuato rispetto alle rilevazioni passate – procedono con velocità maggiore. Del resto già in Lemaître c’era quella strana espansione 456
che accelera, poi frena come un autobus (fase di coasting) perché incontra la resistenza di masse gravitazionali giusto in tempo per consentire agli elementi e alle stelle di formarsi, e quindi – una volta superata la resistenza gravitazionale – riprende a correre “come prima, più di prima”. Così secondo alcuni ultimi scenari l’universo rallentato non solo, per la scarsa densità della massa che si è diluita, non avrebbe la forza gravitazionale sufficiente a arrestare l’espansione volgendola in contrazione (secondo la vecchia idea del futuro Big Crunch, a cui veramente nessuno oggi sembra più credere), ma addirittura e al contrario spingerebbe l’universo non più “frenato” dalla materia dilatata ad accelerare sempre più cosicché infine questa espansione accelerata produrrebbe un Big Rip finale del cosmo, ovvero un taglio definitivo, un Final Cut dei legami atomici con allontanamento irreversibile di tutte le particelle del cosmo (ove è evidente la ripresa della vecchia idea di Eddington sullo scoppio finale, anziché iniziale, del “palloncino gonfiato”). Senonché se la “legge di Hubble” dice che le galassie più lontane viaggiano più velocemente di quelle più vicine, e poi si scoprono galassie molto lontane che al contrario in base al red shift letto come Doppler risultano muoversi più lentamente di quelle più vicine, allora siamo qui probabilmente in presenza di un’anomalia (l’ennesima) che inficia la “legge di Hubble”. Si dovrebbe allora dire che, poiché la relazione stabilita da Hubble fra velocità e distanza non è il risultato di alcuna misurazione diretta bensì discende da un postulato teorico che troppe volte appare smentito, in realtà fra distanza e velocità non c’è di per sé il minimo rapporto in quanto il movimento di una galassia può essere veloce o lento del tutto a prescindere dal fatto che questa galassia si trovi a noi vicina o da noi lontana. Ma questo non si può dire e allora subentra la variazione della velocità d’espansione. L’idea della decelerazione finale del moto d’espansione è stata formulata solo per salvare la “legge di Hubble” dalle evidenze osservative che (contrariamente a quella “legge”) rivelano galassie lontanissime a basso red shift e dunque – secondo l’interpretazione Doppler – procedenti con bassa velocità, mentre al contrario l’idea della successiva accelerazione dell’espan457
sione deve solo rendere ragione dei più alti red shift di varie galassie meno lontane e però più veloci: così, siccome per la teoria non sono le galassie ad allontanarsi bensì lo spazio che espandendosi le trasporta, allora si è stati costretti a postulare ora un rallentamento ora un’accelerazione dell’espansione. In realtà nulla verifica l’accelerazione o il rallentamento o comunque la variazione di velocità della pretesa espansione dell’universo: si sono semplicemente trovate galassie lontane o vicine il cui redshift, unilateralmente interpretato come un Doppler, indicherebbe velocità di allontanamento ora maggiori ora minori di quanto ci si attendeva in base alle previsioni della “legge di Hubble”. Si tratta qui di una nuova e inverosimile complicazione ad hoc atta a salvare con la legge di Hubble anche l’idea dell’espansione: trovando galassie i cui red shift non sono quelli che in base alla presunta distanza dovrebbero essere per la legge di Hubble, allora si rallenta o si accelera d’ufficio l’espansione per non dichiarare falsa quella legge. Certo si possono sempre inventare argumenta ad hoc, rallentando o accelerando a piacere l’espansione onde salvare al tempo stesso i dati osservativi e la teoria. In questo modo gli astrofisici possono giostrare a piacimento i parametri, variando le velocità in modo da rendere ragione di qualsiasi anomalia e così rendendo infalsificabile la legge di Hubble: senonché alla lunga questo modo di procedere, moltiplicato per mille casi, diventa un gioco troppo facile e financo intellettualmente disonesto. Si trova una galassia con z = 0,3 (con z quantificatore di red shift), mentre per la sua presunta distanza dovrebbe avere in base alla legge di Hubble una velocità maggiore, e allora si dice: la galassia avrebbe dovuto avere in effetti una velocità maggiore, ma qui l’universo ha rallentato; se ne trova un’altra con z = 1,2 mentre per la presunta distanza il valore dovrebbe essere minore, e allora si dice: effettivamente la galassia avrebbe dovuto avere una velocità minore, ma qui l’espansione ha dato una bella accelerata; se ne trova una terza con z = 1,95 e si dice: quello è Dio stesso che si è messo al volante. In questo modo, noi non avremmo semplicemente un’espansione che accelera superluminalmente e poi decresce costantemente (che naturalmente è già ipotesi ad hoc con458
testabilissima), bensì avremmo un’espansione che continuamente accelera e rallenta come un ubriaco. Sarebbe come se, rilevando la velocità delle auto in autostrada, dicessi: non è x che va a 200 km/h, y che va a 90 km/h, z che va a 130 km/h, bensì è l’autostrada che nel punto di x va a 200, nel punto di y va a 90 e nel punto di z va a 130 km/h: si torna ancora così al fatto che in realtà la rilevazione della velocità di una stella ci dice la velocità della stella e non la presunta velocità di espansione dello spazio. Cosicché, tralasciando di considerare se sia vero che le galassie più lontane siano sempre le più antiche e le più vicine sempre le più giovani, semplicemente domandiamo se non sia meglio rifiutare l’escamotage dell’espansione e accettare la conclusione che in realtà è erronea la pretesa di Hubble per la quale le galassie più lontane siano anche sempre le più veloci. Infine ciò che più colpisce nella cosmologia contemporanea è proprio l’estrema facilità e celerità con cui, mutando i parametri e i coefficienti matematici quasi da una settimana all’altra, si susseguono uno dopo l’altro i modelli del cosmo: quasi come in un gioco frenetico e impazzito la costante di Hubble ora ha un valore ora ne ha un altro, l’espansione è ora superluminale e ora no, ora accelera ora decresce, la densità di massa ora ha un valore e ora ne ha un altro. Ne risulta così – come giustamente scrive S. Bergia – «un modo di teorizzare frettoloso e approssimativo, in cui l’ultima trovata del sabato sera rende obsoleta agli occhi di altri frenetici esperti quella del giovedì mattina»; e infine saltano fuori gli “ingegni perversi”, gente «spesso totalmente priva di senso del limite, gente che ti può sfarinare un universo nuovo il venerdì sera e smontartelo, se ha cambiato umore, il lunedì mattina»56. Invece, con evidenza, l’au-
56 S. Bergia, Dialogo sul sistema dell’universo, Milano 2002, McGraw-Hill, p. 195. Pur seguendo le concezioni vigenti Bergia, attraverso la fiction di un dialogo a più voci che gli serve da paravento consentendogli di nascondersi dietro questo o quel personaggio, riesce comunque ad infilare nel testo osservazioni critiche non convenzionali (ad es. pp. 192-197).
459
tentico pensiero scientifico (quello di un Copernico, di un Darwin, di un Newton) esige calma, costanza, tempi lunghi e un po’ di solitudine. Al riguardo occorre dire che le equazioni di Einstein (originariamente ricavate dalla matematica di Riemann, di Ricci Curbastro e di Levi Civita) sembrano ormai ampiamente prestarsi a questo gioco. La celeberrima equazione di Einstein – l’equazione madre, il prototipo del sistema di equazioni che variamente modulate costituiscono le “equazioni del campo” che hanno sostituito (pur potendola derivare come caso specifico) la vecchia formula newtoniana – sembra diventata un ingombrante feticcio nella cosmologia moderna, tanto che essa in tutta serietà è stata recentemente definita «l’equazione di Dio»57. Non si tratta semplicemente di un’iperbole o di un titolo ad effetto: l’autore sostiene proprio nel suo libro che Einstein avrebbe direttamente ricavato o per così dire strappato dai “pensieri di Dio” questa equazione, esaltata come taumaturgicamente potentissima ed in grado di svelare gli arcani del cosmo. Dio insomma avrebbe costruito il cosmo in base all’equazione che Einstein gli ha sottratto e carpito: e qui che dire, se non che ormai siamo alle soglie del delirio di onnipotenza? In realtà le equazioni di Einstein sono ormai diventate buone a tutti gli usi in quanto fin dall’origine ammettono infinite soluzioni cosicché con esse si può dedurre tutto ciò che si vuole. È sufficiente porre W uguale o non uguale a 1, è sufficiente porre il raggio R di curvatura dell’universo con questo o quel valore, è sufficiente porre o non porre l o porla con questo o quel valore, per creare in gran quantità modelli di universo. Così Hoyle si è inventato una costante C di creazione, naturalmente posta sotto il limite dell’osservabile, onde quantificare il tasso di creazione di materia nell’universo; Dicke ha aggiunto al tensore metrico un campo scalare quantificato da un valore w variabile a piacere onde definire il tasso di va57 A. Aczel, God’s Equation, 1999, tr. it. L’equazione di Dio, Milano 2000, Il Saggiatore.
460
riazione e diminuzione nel tempo della costante gravitazionale G in funzione del diluimento di massa con la pretesa espansione; Gödel nel 1949 ha dimostrato che le equazioni del campo potevano essere compatibili con soluzioni i cui valori definiscono un universo non in espansione bensì in rotazione, con annessa possibilità logica (a velocità prossima a quella della luce) di viaggi nel tempo, mentre in un secondo lavoro presentò un modello di universo espansivo e rotante senza inversioni temporali; e più recentemente M. Turner (un astrofisico dell’Università di Chicago) ha cercato di spiegare la pretesa “espansione accelerata” dell’universo modificando una delle equazioni del campo di Einstein (la cosiddetta “azione EinsteinHilbert”) attraverso la sostituzione del raggio di curvatura R con Rn: ove naturalmente appare ancora una volta un artificio di calcolo con cui si cerca di quantificare in qualche modo quella curvatura e quell’espansione che sono semplicemente presupposte e per nulla affatto verificate. Così con un tratto di penna a tavolino ne vengono tutti i modelli di universo che si vogliono, a piacere: un universo finito o infinito, eterno o generato, in espansione o statico almeno per un po’, irreversibile o reversibile, unico o ciclico, curvo o piatto, ellittico o iperbolico, ad alta densità o a densità nulla, con tasso di creazione nullo od elevato, rotante o non rotante, con o senza inversioni temporali, con campo gravitazionale costante o variabile, con o senza inflazione galoppante. Venghino signori venghino: sul tavolo imbandito c’è di tutto, non c’è che l’imbarazzo della scelta, ciascuno prenda quel che gli pare, nessuno chiederà la verifica del conto. Einstein, de Sitter, Friedmann, Lemaître, Hoyle, Dicke, Gödel, Turner e quant’altri: tutti hanno utilizzato le equazioni del campo per trarne i più diversi ed anche opposti modelli di universo. Einstein è passato da un’iniziale impostazione fenomenistica sostanzialmente machiana, ancora ravvisabile nella teoria ristretta, a una nuova impostazione in cui sempre più crescente è apparsa l’importanza prioritaria del modello matematico: senonché in essa infine appare chiaramente quello che Duhem definiva «l’impérialisme algébrique arbitraire et insensé» della teoria della relatività generale, 461
che pretende di dedurre matematicamente l’universo un po’ come quel famoso metafisico pretendeva dedurre teoricamente la penna con cui scriveva. Il problema è che purtroppo l’universo non si lascia dedurre a priori da una equazione matematica: non lo sa, che avrebbe dovuto obbedire a W o a l o a K o a C per essere così o cosà; è venuto fuori come gli pareva a lui e non come pareva alle equazioni. Certo con ciò ci guardiamo bene dal negare l’“irragionevole efficacia della matematica nel descrivere il mondo”, la unreasonable effectiveness of mathematics in the natural sciences di cui parlava E. Wigner in un noto saggio del 1960 dicendo che se la matematica è soltanto uno strumento convenzionale allora appunto irragionevole ne appaia quell’efficacia descrittiva: diremmo anzi che se la matematica ha indubbiamente quell’efficacia (ad esempio nel descrivere le orbite dei pianeti con le coniche di Apollonio o le loro curvature con i tensori e la teoria delle superfici curve) allora ciò dimostra che in realtà essa, pur in un senso a definirsi, non è totalmente convenzionale e che sussista un’omologia strutturale, un isomorfismo fra matematica e realtà. Ma questo naturalmente non toglie che nessuna matematica possa pretendere di imporre all’universo come deve essere e cosa debba fare. Semplicemente, vi sono teorie matematiche che descrivono bene una data realtà e altre che (magari anche per il numero infinito di soluzioni contemplate) non sempre sembrano fare altrettanto. Per questo le equazioni relativistiche del campo andrebbero ricondotte alla loro funzione specifica e circoscritte ed utilizzate in ambiti più delimitati: d’altronde abbiamo già ricordato il naufragio del tentativo einsteiniano di estendere le equazioni relativistiche in una “teoria del tutto” o del campo unificato, e abbiamo già rilevato come esse anche nel loro campo specifico – pur svolgendo una utile funzione – non presuppongono affatto né tantomeno descrivono (come si ritiene comunemente) uno “spazio curvo” ipostatizzato e reificato, e nemmeno – nonostante le soluzioni di Friedmann – esse indicano necessariamente un universo dinamico. In realtà le equazioni relativistiche del campo gravitazionale hanno rivelato la loro utilità nella soluzione di problemi specifici riguardanti corpi celesti particolari (come le soluzioni 462
di Schwarzschild e di Kerr applicate ai buchi neri), ma non sembrano funzionare se non con estremo arbitrio per la comprensione dell’universo nel suo insieme. Per questo vi sono stati e vi sono cosmologi che hanno rifiutato e altri che tuttora rifiutano l’uso delle equazioni del campo, comunque rigirate, in cosmologia: così E. Milne nel 1934 sostituì in cosmologia la teoria della relatività generale con la fisica newtoniana e le equazioni del campo con quelle di Poisson, interpretando l’espansione dell’universo come un semplice moto ad infinitum e caotico delle galassie (e proponendo come Dicke di considerare come variabile il coefficiente gravitazionale)58; H. Bondi, rifiutando l’uso delle equazioni del campo e vagliando criticamente nella sua Cosmology del 195059 la cosmologia relativistica, premette60 che la cosmologia non può essere considerata «un ramo minore della relatività generale»; più recentemente Ghosh, già ricordato, nell’elaborazione della sua cosmologia sostanzialmente classica usa le equazioni newtoniane (pur con opportune correzioni) e non quelle relativistiche; e più in generale riserve di carattere epistemologico sull’uso delle equazioni relativistiche in cosmologia si trovano anche nell’esposizione storico-critica di J. Merleau-Ponty61. Con ciò non si dirà che si debbano respingere le equazioni relativistiche del campo, ma occorre comprendere che esse sono solo uno strumento per fini delimitati e certamente non possono assolvere quella funzione taumaturgica loro affidata di disvelamento degli arcana mundi.
58 Cfr. E. Milne, Kinematic Relativity, Oxford 1948, Clarendon Press e La gravitazione senza relatività generale, in AA.VV., Albert Einstein, scienziato e filosofo, cit. pp. 357-384. 59 H. Bondi, Cosmology, 1950, tr. it. Cosmologia, Milano 1970, Lampugnani Nigri, pp. 95-145. 60 Ivi p. 1. 61 J. Merleau-Ponty, Cosmologie du XXe siècle, 1965 (tr. it. Cosmologia del XX secolo, Milano 1974, Saggiatore).
463
L’invenzione della Dark Matter, l’Antimatter e la pesca miracolosa delle particelle Come si è visto il tentativo di salvare la teoria dell’espansione dalle anomalie sempre più insorgenti, e in particolare il tentativo di spiegare le condensazioni e le interazioni di particelle e corpi celesti nonostante l’espansione che tutto allontanerebbe, ha portato negli ultimi decenni alla teoria dell’inflazione e poi ad una proliferazione sempre più incontrollata di modelli matematici ad hoc. Uno degli ultimi tentativi volti a salvare la teoria dell’espansione ha chiamato in causa la “materia oscura”. Poiché la difficoltà teorica riguardava soprattutto i superammassi galattici, che veramente non si capisce come possano tenersi gravitazionalmente insieme a distanze non “locali” ma veramente enormi se parimenti agisse una contraria forza repulsiva dovuta all’espansione, allora i teorici del modello standard, appellandosi ai calcoli per i quali solo una massa gravitazionale dieci o cento volte maggiore di quella osservata potrebbe giustificare questi elevatissimi red shift e tenere insieme gli ammassi e i superammassi nonostante l’espansione, hanno inventato un autentico coup de théâtre. Essi infatti avrebbero dovuto dire: poiché la massa gravitazionale effettivamente rilevata nell’universo con una certa densità media per metro cubo (0,015 atomi per metro cubo) è veramente bassa, poiché l’universo è in media quasi vuoto, poiché è sottopeso mentre la teoria dell’espansione sta in piedi solo se esso è bello pienotto, poiché in esso la densità media di massa rilevata è dieci o addirittura cento volte minore di quanta ne occorrerebbe per tenere uniti a enormi distanze ammassi e superammassi in presenza di un’espansione dell’universo, allora evidentemente non esiste nessuna espansione dell’universo. Invece hanno detto: no, c’è veramente nell’universo una massa gravitazionale che è dieci o addirittura cento volte maggiore di quella che si rileva. Alla domanda: e dov’è questa “massa mancante”, questa missing mass, se non solo non si vede ma nemmeno si rileva in nessun modo?, la risposta è stata: è una invisible mass, una Dark Matter, una fantomatica e misteriosa Mate464
ria Oscura. Così la materia oscura, ipotizzata originariamente negli anni trenta da Zwicky come massa suppletiva atta a spiegare un problema concreto come l’assorbimento interstellare e il conseguente fenomeno della “luce stanca”, nonché le eccessive velocità delle stelle periferiche nelle galassie, è diventata in seguito la stampella principe della teoria dell’espansione e del Big Bang. Ora, lungi da noi il credere che la sola materia esistente sia quella effettivamente visibile e rilevabile. Certamente esiste nell’universo una materia “oscura” e invisibile: basti pensare alle “nane brune”, ai sistemi planetari di altre stelle, alle comete e agli asteroidi lontani, ai “buchi neri”, alla radiazione non visibile, alle particelle come i neutrini, ai gas e alle polveri non rilevate. Chi ci crede aggiunga pure tutto quell’“alone oscuro” di materia nascosta alla periferia delle galassie che secondo molti autori ne accelera i sistemi stellari periferici, così spiegandone le eccessive velocità incompatibili con la legge newtoniana per cui esse dovrebbero decrescere con la distanza dal centro gravitazionale galattico (sebbene a noi sembri molto più interessante al riguardo la citata spiegazione di Ghosh). In ogni modo il problema rimane: e il problema è che, anche considerando tutta questa materia suppletiva, ben difficilmente tutto ciò può far aumentare di dieci o addirittura cento volte la materia rilevabile nell’universo per il semplice fatto che in realtà l’universo – al di fuori delle condensazioni – sembra piuttosto vuoto. Soffermiamoci ad esempio brevemente sui neutrini, perché la storia merita di essere raccontata fin dall’inizio. Poiché nel decadimento b (o decadimento radioattivo con emissione di raggi beta) un neutrone, che è una particella instabile, dopo vita brevissima (mediamente dopo 920 secondi ovvero all’incirca in un quarto d’ora ma in alcuni casi anche dopo oltre un’ora) decade e cioè si dissolve e si disintegra scindendosi in due nuove particelle ovvero in un protone e in un elettrone, e poiché alla fine di questo processo l’energia emessa appare inferiore all’energia iniziale in quanto non risulta nel protone e soprattutto nel più leggero elettrone la quantità energetica e la massa iniziali del neutrone, allora nel 1932 W. Pauli (lo scienziato che a vent’anni scrisse un libro tecnico sulla relatività lodato 465
dallo stesso Einstein, che formulò in seguito il “principio di esclusione” in meccanica quantistica e che collaborò a lungo con lo psicologo C.G. Jung) si inventò una particella ovvero ipotizzò che nel decadimento b assieme al protone e all’elettrone venisse emessa anche una nuova e sconosciuta particella infinitesimale che fornisse l’energia mancante, onde riottenere l’equivalenza energetica e così salvare i princìpi di conservazione (che Bohr sembrava disposto ad abbandonare o a considerare validi solo statisticamente)62. Questa particella, sfuggente ai limiti dell’evanescente, da Pauli denominata “neutrone” e da Fermi (dopo la scoperta del neutrone da parte di Chadwick) denominata “neutrino”, venne supposta leggera e priva di carica elettrica e dunque neutra, e in seguito fu addirittura supposta priva di massa a riposo (come se un corpo potesse non avere massa): in questo modo, supponendo una particella infinitesimale ed elettricamente neutra, si poteva giustificare la sua mancata localizzazione e la sua mancata interazione con la materia di cui non sembra risentire. Dunque Pauli disse che nel decadimento b in realtà il neutrone si disintegrava in un protone, un elettrone e un neutrino (tralasciamo qui di parlare dell’interpretazione elettromagnetica di Fermi per cui nel decadimento b avremmo un neutrone e un elettrone che si trasformano rispettivamente in un protone e in un neutrino grazie all’azione della postulata forza detta “interazione debole”). Poi nel 1956 il neutrino che si cercava venne trovato, o meglio essendosi trovata in laboratorio una particella che sembrava rispondere a quei requisiti la si denominò “neutrino” e si disse che questa era la particella mancante prodotta nel decadimento b. Si noti che non si trovò affatto il neutrino nel decadimento b (in cui alla fine del processo risulta solo un protone e un elettrone), proprio in quanto la sua supposta massa nulla e la sua mancanza di carica elettrica lo rendono poco interattivo e difficilmente rilevabile. Si disse però che un neutrino poteva pur esservi in quel processo e che an62 Per quanto riguarda il decadimento b e i princìpi di conservazione si rimanda all’Appendice.
466
zi doveva esservi cosicché, trovato un neutrino che se ne andava per i fatti suoi, lo si appioppò d’ufficio al decadimento b in cui pur non risultava affatto, mostrandone i valori numerici compatibili con le quantità mancanti nel decadimento. Tutta questa operazione venne chiamata «conferma sperimentale della predizione teorica di Pauli». Ora, non si contesta qui che la “predizione di Pauli” possa infine essersi rivelata corretta e che veramente da risultanze teoriche e sperimentali non risulti incompatibile nel decadimento b la produzione del neutrino pur inosservabile. Sta di fatto che indubbiamente venne rinvenuta una nuova particella chiamata “neutrino”, che fece il suo ingresso ufficiale nel mondo della scienza. Conosciamo così ormai i neutrini: essi sono stati prodotti artificialmente negli acceleratori e nei reattori nucleari, si è constatato che vengono spontaneamente emessi da certe sostanze radioattive come il radio, si ipotizza che nelle radiazioni nucleari solari e stellari – ove avviene il decadimento dei protoni in neutroni – si producano neutrini, in quantità enormi nelle esplosioni nelle fasi finali da supernova. Così si distinguono ormai tre tipi di neutrini. Ma il punto non è negare l’esistenza dei neutrini, bensì contestarne l’utilizzazione illegittima nel quadro delle teorie scientifiche dominanti. Infatti, assumendo che nelle reazioni nucleari stellari, e in particolare nelle fasi finali da supernova, si producano enormi e inimmaginabili quantità di neutrini, si finì col dire che una autentica “pioggia di neutrini” cada continuamente dal Sole sulla Terra, e siccome la supposta origine dell’universo è stata intesa come una sorta di gigantesca esplosione di supernova, allora infine si è detto: se i neutrini sono particolarmente prodotti nelle supernove in esplosione, se una stella esplosa produce un “mare di neutrini”, allora figuriamoci quale oceano di neutrini produrrà la colossale esplosione primordiale del Big Bang, e così si è giunti ad ipotizzare che vi sarebbe perfino un milione di neutrini per centimetro cubo o addirittura un miliardo per atomo, cosicché ogni secondo migliaia di neutrini attraversino la Terra e il nostro corpo senza lasciare traccia proprio in quanto evanescenti, sfuggenti, elusivi e privi di interazione elettrica e gravitazionale con la materia. In tal modo i neutrini costituirebbero 467
nell’universo una “materia oscura” superiore a quella di tutte le stelle messe insieme tale da immergere completamente l’universo in un “oceano neutrinico”. A questo punto appare evidente che i neutrini, oltre che un espediente per salvare i princìpi di conservazione, diventano nella fisica attuale anche il candidato principe per la costituzione della Dark Matter di cui si parlava: essi forniscono la quadratura del circolo perché per definizione compaiono non soltanto nel decadimento b o in certe reazioni nucleari bensì «possono riempire tutto l’universo – come si legge nei testi correnti – senza che noi abbiamo alcun indizio della loro presenza». C’è bisogno di molta massa per salvare la teoria dell’espansione, ed eccola qui servita su un invisibile piatto d’argento. Basta rinunciare all’incomprensibile e assurda massa nulla neutrinica, basta assegnare d’ufficio a ogni neutrino una massa minima variamente valutata (e di volta in volta stimata da diecimila a trentamila fino a dieci milioni di volte inferiore alla massa dell’elettrone, oppure quale un centomilionesimo della massa del protone: grande è l’incertezza a proposito), basta supporre un numero abnorme di neutrini – sebbene ne vengano in realtà rilevati pochissimi – fino a un milione per centimetro cubo o addirittura un miliardo per atomo, per ricavarne che i neutrini costituirebbero nell’universo una massa o “materia oscura” superiore a quella di tutte le stelle messe insieme. Senonché solo con zoppicante logica si è ottenuta siffatta quadratura. In primo luogo, supporre tale enorme numero di neutrini, supporre che l’universo sia immerso in un “oceano neutrinico” prodotto dal Big Bang, appare problematico: proprio perché i neutrini interagiscono molto debolmente con la materia che attraversano lasciando tracce minime o nulle del loro passaggio, proprio perché sono difficilmente rilevabili e se ne rilevano pochi, diventa gratuito e inverificabile supporre che tutto l’universo intero ne sia riempito fino a traboccarne a partire dalla sua supposta origine. I neutrini hanno dato molto lavoro ai loro cacciatori rintanati in laboratori sotterranei del pianeta (anche nel laboratorio del Gran Sasso in Italia): ma in molti anni di ricerca essi sono riusciti a rile468
varne, come si suol dire, solo «in modica quantità» (si dice uno ogni cento miliardi piovuti sulla Terra: ad esempio una ventina nel 1987 in occasione della scoperta di una supernova). Leggiamo in un testo: «se ad un neutrino facciamo attraversare un mezzo della densità della Terra, prima di avere un’interazione gli occorrerà attraversare uno spessore di un anno luce (diecimila miliardi di chilometri)!»63. Al che si obietta: se questo è vero allora proprio per questo, proprio perché i neutrini sono rilevabili solo attraverso un’interazione che è in realtà rarissima, è gratuito supporre l’universo pieno di neutrini la cui rilevazione è riconosciuta estremamente difficile. L’ossimoro qui diventa palese, come quando leggiamo in un testo peraltro accreditato: «si tratta di un problema veramente stimolante: per ogni particella nucleare ci sono circa un miliardo di neutrini e antineutrini, eppure nessuno sa come evidenziarli»64. Senonché forse più del problema è qui stimolante una domanda, che suona così: come può lo scienziato assicurare che ci sono un miliardo di neutrini (ed antineutrini) per ogni particella nucleare se poi ammette che «nessuno sa come evidenziarli»? A questo punto io posso anche dire: in questa stanza ci sono cento miliardi di persone, ma esse sono invisibili ed io non so come evidenziarle, dunque dovete credermi sulla parola. Eppure tutti i testi correnti ripetono questa storia sui neutrini che non si possono rilevare ma che sicuramente ci sono in strabiliante quantità. Eccone un altro: «sfortunatamente la tecnologia attuale è ancora del tutto inadeguata a rilevare il mare di neutrini esistente fin dall’origine dell’espansione: allorché si potrà finalmente rilevarli essi costituiranno una preziosa informazione diretta circa il primo secondo di vita dell’universo»65. Al che noi, lasciando da parte la sicumera nel dire che i neutrini saranno rilevati, soltanto diciamo: caro signore, se la tecnologia attuale è «del tut-
G. Preparata, L’architettura dell’universo, Napoli 2001, Bibliopolis, p. 71. S. Weinberg, I primi tre minuti dell’universo, cit. p. 134. 65 G. Cavalleri, L’origine e l’evoluzione dell’universo, Milano 1987, Tecniche Nuove, p. 125. 63 64
469
to inadeguata a rilevare il mare di neutrini esistente fin dall’origine dell’espansione», come può dire con tanta certezza che veramente ci sia questo «mare di neutrini esistente fin dall’origine dell’espansione»? Il fatto che essi siano stati quantificati ad libitum in un calcolo matematico non ne dimostra ancora la sussistenza in quella misura: in realtà supporre l’universo pieno di neutrini, quando noi ne rileviamo pochissimi, e oltretutto supporli prodotti dal Big Bang, significa fare un’illazione inverificabile che fra l’altro presuppone proprio quel Big Bang che si dovrebbe cercare di dimostrare. Certo sappiamo – riguardo la previsione del neutrino – che nella scienza esistono le previsioni teoriche: ad esempio nel XIX secolo fu prevista l’esistenza di Nettuno poi effettivamente scoperto, e nel XIX secolo fu prevista l’esistenza di Plutone poi parimenti scoperto. Ma attenzione: anche se si trattava di salvare la forza di gravitazione, comunque l’esistenza di Nettuno e poi di Plutone fu correttamente dedotta in base all’osservazione delle perturbazioni dell’orbita di Urano. Parimenti i buchi neri sono stati ipotizzati in base alle rilevazione di perturbazioni gravitazionali. Ma la fantastica “previsione” dell’“oceano neutrinico” non sembra affatto un trionfo della scienza predittiva come la previsione di Nettuno e Plutone: mentre infatti Nettuno e Plutone si rivelano perturbando l’orbita di Urano, invece i neutrini attraversano la materia lasciando tracce minime o nulle del loro passaggio e dunque in base a quali elementi se ne suppone una quantità così strabiliante? Ma certo, come ognun vede qui subentra l’argumentum ad hoc: l’universo non poteva essere riempito con l’immaginazione di particelle più consistenti, perché allora esse si sarebbero dovute rilevare, mentre invece supponendo un numero enorme di particelle di massa infinitesimale e di carica nulla e in quanto tali difficilmente rilevabili si poteva cercare di giustificare la loro mancata rilevazione. Ma in ogni modo ben difficilmente i neutrini possono essere in numero così enorme, perché se per quanto elusivi sono rilevabili e di fatto sono stati rilevati (come nel 1987 in occasione della supernova) allora si deve pensare che se ne sarebbero rilevati molti di più, enormemente di più, se veramente l’universo tutto fosse interamente immerso in un 470
oceano di neutrini. In effetti noi sappiamo che i neutrini ci sono e sono prodotti dalle stelle, ma appare gratuito supporne quantità abnormi. Infine, anche ammettendo con molta generosità che nell’universo i neutrini siano veramente in quantità così incredibili, il problema che assilla i teorici del modello cosmologico tradizionale non è comunque risolto: infatti, per quanto supposti in strabiliante quantità, come possono delle particelle infinitesimali e prive di carica elettrica quali i neutrini contribuire in maniera significativa a fornire il surplus di massa gravitazionale necessario a formare gli aggregati stellari e galattici contrastando il fiume impetuoso dell’espansione, e come possono essi costituire la famosa “massa oscura” dell’universo? Poiché la massa del leggerissimo neutrino, capace di varcare la materia senza interferenze, non può superare un certo valore minimo e alquanto basso (altrimenti le interazioni sarebbero ben di più), poiché la massa stimata del neutrino dovrebbe essere fra 7 e 30 eV (elettronvolt) per fornire la “massa mancante” mentre invece essa sembra mille volte meno o almeno cento volte meno nella migliore delle ipotesi, allora, anche moltiplicando tale massa infinitesima per tutti i neutrini del mondo che pur si vogliano immaginare anche in quantità strabilianti, il valore totale ottenuto sarà sempre troppo basso e con esso – come hanno detto sconsolati alcuni direttori dei laboratori di ricerca dei neutrini – «on ne peut expliquer ainsi qu’une partie infime de la masse manquante de l’universe», appunto solo un millesimo o nella migliore delle ipotesi un centesimo di essa. Questa dunque è la storia del neutrino, che andava raccontata per coglierne tutta la paradossalità: i neutrini appaiono veramente le stampelle della scienza contemporanea; queste particelle se ne andavano per i fatti loro ma sono state acchiappate, e ad esse è stato affibbiato l’ingrato compito di salvare i princìpi di conservazione e soprattutto la teoria dell’espansione dell’universo. Ma cose non troppo dissimili potrebbero dirsi per altre particelle dapprima escogitate per salvare i princìpi di conservazione e poi candidate al ruolo di “materia oscura” per salvare il modello espansionistico dell’universo. Seguiamo al riguardo, dopo i neutrini, la storia delle an471
tiparticelle e dell’antimateria. La storia questa volta non parte dal decadimento b bensì da una interazione fra particelle. Dunque, due fotoni in collisione in un acceleratore ad alta energia si annichilano producendo un elettrone: due particelle, due fotoni, sembrano scomparire nel nulla e al loro posto troviamo solo un elettrone. È troppo poco: per i princìpi conservativi nulla dovrebbe andare perso, in quanto la grande energia che i due fotoni sviluppano nella collisione (per quanto assurdamente ritenuti privi di massa) non può risolversi tutta in un leggero elettrone cosicché – ancora una volta – qualcosa dell’energia iniziale sembra persa. A questo punto intervenne P. Dirac, il grande fisico che si riprometteva di “far fuori gli infiniti” da più parti risultanti in modo imbarazzante nella fisica. Nell’arduo tentativo di unificazione fra teoria della relatività e meccanica quantistica Dirac aveva fornito (in The Quantum Theory of the Electron, 1928) una famosa equazione quanto-relativistica dell’elettrone66. L’equazione di Dirac, accanto alla soluzione con valori positivi, prevedeva anche una soluzione con valori negativi. Naturalmente la cosa era solo una semplice possibilità matematica di per sé priva di qualsiasi riscontro fisico, ma Dirac pensò di risolvere la violazione dei princìpi di conservazione nella collisione fra i due fotoni immaginando che, come la sua equazione descriveva il moto dell’elettrone, così la stessa equazione a valori negativi potesse descrivere il comportamento di un’“antiparticella” intesa come una sorta di gemello speculare in tutto identico all’elettrone (stessa massa, stesso spin, stessa vita media) ma dotata di carica elettrica opposta e dunque positiva: così, come Pauli si era inventato il neutrino, Dirac si inventò l’“antielettrone”. Dapprima egli identificò l’antielettrone che cercava con l’unica particella di carica positiva allora conosciuta, il protone (che però aveva massa ben superiore), ma poi nel 1932 C. Anderson scoprì il “positrone” o elettrone positivo (e+) che, emesso da alcune sostanze radioattive e prodotto dalla collisione dei raggi cosmici con gli atomi dell’atmosfera, ave-
66
472
Vedi D. Monti, Equazione di Dirac, Torino 1996, Bollati Boringhieri.
va tutte le caratteristiche richieste, in particolare stessa massa dell’elettrone ma carica positiva. Dirac disse così che, sebbene alla rilevazione la collisione fotone-fotone produca un elettrone, in realtà in tale collisione sussisterebbe invece una perfetta corrispondenza biunivoca 2-2 in quanto nell’annichilimento di una coppia di fotoni si produrrebbe non solo un elettrone bensì una coppia particella-antiparticella ovvero una coppia elettrone-positrone (a sua volta suscettibile di annichilazione in caso di collisione). In questo modo i princìpi di conservazione verrebbero salvati: tante particelle abbiamo prima della reazione tante ne abbiamo dopo, tante ne vengono distrutte tante ne vengono create e di ugual massa. Certo, noi in realtà dopo la collisione dei due fotoni non vediamo mai un elettrone con la sua antiparticella: si dice però che essa, in linea di principio, potrebbe esserci perché una particella simile all’elettrone ma di carica opposta esiste ed è stata trovata. A questo punto Dirac disse: se si è trovato l’antielettrone, si deve trovare anche l’antiprotone ovvero un protone con carica negativa. Si voleva trovare a tutti i costi l’antiprotone, e siccome proprio non lo si trovava allora negli anni ’50 si costruì appositamente un acceleratore a Berkeley per produrlo e fabbricarlo artificialmente. Si provocarono tutte le collisioni possibili finché nel 1956 da un urto non saltò fuori un tipo di particella con carica negativa che sembrava adattarsi abbastanza bene ad essere l’antiprotone: la si battezzò dunque antiprotone e venne dato al mondo l’annuncio della scoperta. Allora si disse: perché fermarsi qui? E così, siccome Dirac amava molto le simmetrie, egli – in base alle sue risultanze matematiche prima ancora che fisiche (i valori negativi speculari ai positivi) e dunque in base a considerazioni puramente teoriche prive di supporto osservativo – suppose che per ogni particella potesse o dovesse esistere un’antiparticella speculare, cosicché ad esempio nell’universo il numero dei positroni potesse essere considerato pari a quello degli elettroni. Da lì in poi la vicenda ebbe un’impennata e si annunciò via via la scoperta di nuove particelle o antiparticelle in tutto simili a particelle note ma con le cariche (in particolare la carica elettrica) opposte. Venne l’antineutrino, supposto prodotto nel de473
cadimento b insieme a un protone e a un elettrone, la cui proprietà con segno opposto (non potendo avere carica opposta al neutrino che ha carica nulla) sarebbe il momento magnetico, poi fu la volta dell’antineutrone (poiché due neutroni solitamente non si annichilano, allora quando ciò avviene una delle due particelle viene definita antineutrone). Infine, poiché il nucleo atomico è composto di protoni e neutroni (ovvero di barioni) allora nel 1965 saltarono fuori in laboratorio gli antinuclei (ovvero antibarioni con antiprotoni e antineutroni). Quindi si disse: poiché un positrone non potrà mai essere abbinato a un nucleo in quanto le due cariche positive si respingerebbero, e poiché l’atomo è composto di nucleo e elettroni, allora evidentemente esisterà l’antiatomo (con antiprotoni e positroni). Si annunciò così l’“antimateria” con antifotoni, antimuoni, antileptoni, antiquark etc. a cui infine – complici i suggerimenti di Dirac – seguirono tutti i più fantascientifici correlati: antistelle e antigalassie costituite di antinuclei e di antiatomi, anticosmi, antiuniversi etc. Dirac immaginò un mare originario (susseguente al supposto Big Bang) senza vuoti e pieno di particelle, ciascuna in una sua propria nicchia: nel momento in cui una particella assorbendo un fotone passava ad uno stato positivo, liberandosi ed emergendo dal mare magnum originario, essa lasciando la sua nicchia creava al suo posto un buco vuoto e questo buco sarebbe stato il contrario speculare della particella emersa, ovvero l’antiparticella: la particella non sarebbe altro che il lato emergente e visibile di un’antiparticella speculare antecedente, come il negativo di una fotografia. Ora le particelle e le antiparticelle, la Matter e l’Antimatter, attraendosi per le opposte cariche collidono e si annichilano e in tal modo, dopo il subitaneo lampo luminoso all’atto della collisione, si genererebbe una “materia oscura” ovunque diffusa consistente in radiazione non ottica ed energia diffusa. A questo punto emerge una difficoltà: se tutta la materia e l’antimateria esistenti in pari quantità si annichilano, allora perché l’universo non è fatto solo di radiazione ed energia diffusa bensì anche di materia visibile senza tracce significative di antimateria? Insomma, dopo aver cercato per decenni le 474
simmetrie, ci si è resi conto che una perfetta simmetria genererebbe una totale annichilazione che garantirebbe sì molta Dark Matter ma al contempo renderebbe impossibili le condensazioni e l’universo stesso quale lo conosciamo. A questa difficoltà si potrebbe rispondere dicendo che probabilmente dunque l’antimateria non esiste, visto che esistendo impedirebbe la formazione della materia visibile, ma ecco la risposta ad hoc: dopo aver fatto collidere negli acceleratori elettroni e positroni dando a bella posta un’accelerazione di energia ai primi in modo che la rottura di simmetria fra materia e antimateria causata dalla collisione sbilanciata producesse mesoni in eccesso sugli antimesoni, si è estrapolata la forzata risultanza nella supposizione che già ab initio et illo tempore non vi sarebbe stata nell’universo simmetria perfetta cosicché in esso la materia visibile sarebbe stata causata da lieve eccesso (una particella in più su un miliardo di particelle e relative antiparticelle) della materia sull’antimateria progressivamente depauperata, cosicché attualmente si parla non tanto di simmetria quanto piuttosto di asimmetria fra materia e antimateria – con eccedenza di protoni sugli antiprotoni, di elettroni sui positroni e insomma di materia su antimateria – quale condicio sine qua non dell’esistenza delle galassie. Non sarà inutile rilevare il carattere speculativo e forzato di questa teoria dell’antimateria. Certamente sono state rilevate – o più spesso prodotte artificialmente – delle particelle simili ad altre ma con carica opposta poi chiamate antiparticelle, come nel caso del positrone che ha avuto un utilizzo nella diagnostica medica con la tomografia assiale computerizzata (Tac), ed è ormai appurato che i raggi cosmici in collisione con l’atmosfera producono varie antiparticelle: tuttavia, come ammise lo stesso Dirac, «l’esistenza delle antiparticelle non dimostra ancora l’esistenza dell’antimateria». Colpisce infatti la supposizione di un oceano originario privo di vacuum, fino all’inverosimile plenum et repletum di antimateria e della relativa materia annichilata e trasformata in energia invisibile. In realtà infatti, proprio come nel caso dell’“oceano di neutrini”, è del tutto gratuito supporre l’universo pieno di materia annichilita ed antimateria perché, esattamente come con i neutrini, l’antimate475
ria (e la sua corrispettiva materia resa energia invisibile) è assai scarsa e rarissima e quasi totalmente assente nell’universo, essenzialmente prodotta nei processi astrofisici più energetici quali quelli costituiti dai raggi gamma generatori di antiparticelle: nessuno ha mai rilevato nell’universo gli antiatomi, per non dire le antigalassie e gli antiuniversi. Anche l’antimateria prodotta, con enorme dispendio energetico, negli acceleratori è minima. Si producono sì antiparticelle con una certa facilità (si possono ad esempio produrre in un secondo molti miliardi di positroni e milioni di antiprotoni, anche opportunamente decelerati), ma la produzione di antiatomi è invece rarissima poiché occorre prima produrre positroni e antiprotoni e poi sperare che almeno due di essi finiscano casualmente per orbitare l’uno intorno all’altro così generando l’antiatomo di idrogeno (che è l’antiatomo più semplice in quanto contiene un solo antiprotone e un solo positrone senza alcun neutrone), mentre risulta quasi impossibile produrre le collisioni atte a generare antiatomi complessi con più antiprotoni, più positroni e più neutroni: cosi si sono prodotti in laboratorio solo poche decine di antiatomi di idrogeno (l’antiatomo più semplice), pochi nuclei di antideuterio e nulla più. A ben vedere, la stessa definizione di “antiparticella” appare impropria: in realtà non si tratta di “antiparticelle”, proprio come la zampa sinistra di un animale non è l’“antizampa” della destra, né l’emisfero sinistro del cervello l’“antiemisfero” del destro. Sembra trattarsi piuttosto di coppie interrelate di particelle simmetriche ma speculari per l’opposta carica: dotate di semirotazione assiale (spin), esse possono disporsi in orbite reciproche agli opposti ma correlati poli magnetici nei fenomeni di polarizzazione verticale su/giù (up/down) e secondo propagazioni orarie o antiorarie (destrogire/levogire), cosicché rilevata una data polarizzazione e rotazione per una delle due particelle si deduce immediatamente la disposizione polare o equatoriale e la rotazione necessariamente opposta dell’altra. Un esempio classico ne è la celebre e bellissima fotografia (scattata da Anderson nel 1936) della traccia lasciata dal positrone in una camera a bolle: una particella 476
di un raggio cosmico interagendo con la parete della camera a nebbia produce tre elettroni e tre altre misteriose particelle: sotto l’influsso del campo magnetico della camera i tre elettroni devíano la loro traiettoria curvando verso sinistra (dell’osservatore) mentre le altre tre particelle devíano curvando verso destra, così rivelandosi come positroni di carica positiva proprio in quanto respinti in senso opposto (ma perfettamente speculare) rispetto agli elettroni. Queste particelle, reciprocamente correlate al punto da sembrare due configurazioni speculari della stessa particella che abbia mutato carica, quando non collidono annichilandosi in nuove particelle per l’attrazione fra le opposte cariche (e quando non sono portate ad alta velocità a disintegrarsi negli acceleratori come fossero aerei in collisione per vedere l’effetto che fa), risultano fattori dinamici generanti le simmetrie speculari presenti nella natura. Del resto il “principio di esclusione” di Pauli stabilisce che in una data orbita non vi possono essere più di due elettroni e questi non possono mai essere nello stesso stato ovvero non possono mai avere la stessa direzione di spin, ciò per cui dato lo spin di una particella si ricava immediatamente la rotazione su se stessa in senso opposto dell’altra: le particelle tendono dunque a mantenere una certa distanza senza ammassarsi e per questo gli atomi con il maggior numero di protoni e elettroni non sono piccolissimi a causa delle forze attrattive. Così la previsione di una simmetria nel mondo delle particelle, sulla base di una particolare teoria dei gruppi, ha portato a prevedere e infine a scoprire la decima particella mancante (detta omega meno) in un gruppo di nove. Questi fenomeni di simmetria nel mondo delle particelle sono dimostrati anche dalla “reversibilità commutativa” rivelata dai fenomeni di decadimento nonché di interaction e “annichilimento” (ma la corrente terminologia è impropria perché le particelle non si riducono ad nihilum nella collisione): un elettrone e un positrone in collisione a bassa velocità si disintegrano producendo due fotoni (mentre ad alta velocità semplicemente si annichilano) e viceversa, almeno nell’ipotesi di Dirac, due fotoni collidendo producono un elettrone e un positrone; nel decadimento b un neutro477
ne si disintegra emettendo un protone e un elettrone e viceversa in una stella di neutroni in contrazione parossistica protoni ed elettroni si fondono nei neutroni. Peraltro questi fenomeni di simmetria e di specularità sono ovunque visibili: nelle strutture chimiche dette “isomeri”, in cui lo stesso tipo e lo stesso numero di atomi (definito dalla stessa formula) ne sottintende una diversa disposizione spaziale, può apparire che le due strutture appaiano fra loro rovesciate e speculari come le due mani dell’uomo; nel mondo che ci circonda a partire dai frattali naturali in cui (come nei fiocchi di neve) la parte riproduce autosimilarmente il tutto fino all’apparire multiplo della spirale logaritmica dalle conchiglie ai cicloni alle galassie; nel mondo del vivente a partire dalla complementarità fra i nucleotidi disposti in perfetta corrispondenza biunivoca nella doppia elica del Dna, fino alla simmetria sia bilaterale sia raggiata universalmente presenti negli organismi. Come se i corpi fossero modellati dal riverbero delle propagazioni e pulsazioni delle onde originarie, ovunque si rinviene quella simmetria che gli antichi cercavano di cogliere attraverso la sezione aurea e la serie di Fibonacci. Ma se spesso il mondo subatomico (e il mondo del vivente tutto) rivela fenomeni di simmetria e specularità, di inversione e di reversibilità, la situazione non appare sempre generalizzabile come vorrebbe la corrente idea delle “antiparticelle”. Infatti se è vero che sono state rilevate – o più spesso prodotte artificialmente – delle particelle simili ad altre ma con carica opposta poi chiamate antiparticelle, come nel caso del positrone, occorre però vedere se sempre si tratta di “antiparticelle” rispetto a quelle particelle o non più semplicemente di altre particelle. Ad esempio quando nel 1932 si è trovata una particella ritenuta simile ad un elettrone e che però aveva carica opposta, si è detto: sì sì, è proprio quella che cercavamo, ecco finalmente l’antielettrone. Ma la particella rilevata nel 1932, ritenuta simile all’elettrone ma di carica opposta, è veramente un “antielettrone” o più semplicemente è un’altra particella poi denominata antielettrone per ragioni teoriche e di simmetria? Insomma sarebbe un po’ come prendere due persone che 478
si somigliano, di cui l’una buona e l’altra cattiva, e dire che una è l’antigemello dell’altra: sembra qui introdursi nella fisica delle particelle una strana idea del sosia, del doppio, di commedia dell’arte, di saga degli equivoci. Si possono trovare o produrre in laboratorio molte particelle, ma occorre vedere se veramente esse siano le “antiparticelle” di particelle note o più semplicemente nuove particelle prima sconosciute. Si potrebbe anche dire che in molti casi vi sono in natura certe particelle che sembrano simili fra loro ma che differiscono per la carica opposta e questo è tutto, mentre invece denominarle “antiparticelle” rispetto ad altre particelle risponde essenzialmente a preoccupazioni teoriche, e non a una reale similitudo e ressemblence chiaramente rintracciata, con il rischio che ad una particella si impongano i panni di “antiparticella” senza che sia veramente tale. Non si negano certamente i fenomeni di simmetria, ma si dubita della loro totale universalità. Infatti, anche ammettendo che in qualche caso noi veramente abbiamo trovato l’antiparticella di una data particella, da questo non se ne ricava affatto che dunque ogni particella debba necessariamente avere nelle vicinanze o da qualche parte nell’universo il suo doppio, il suo opposto speculare, il suo angelo custode di segno opposto, la sua anima gemella a cui essere virtualmente legata, secondo una rigida corrispondenza biunivoca che più che rintracciare una ferrea simmetria nel mondo pretende imporla. Sarebbe come pretendere che nel mondo non solo qualcuno ma tutti, assolutamente tutti, abbiano un gemello. Nell’universo v’è una quantità inverosimile di particelle di vario tipo, ma pretendere che tutte siano ben disposte in serie binarie (tante di un tipo altrettante di tipo opposto, tante con segno + altrettante con segno –) appare veramente incongruo e forzato. Possiamo anche dire che ci sono i positroni e magari gli antiprotoni, ma da questo non se ne ricava che dunque ogni positrone abbia il suo contrario in un elettrone e che ad ogni protone corrisponda un antiprotone, né possiamo dire che ogni positrone viaggi in tandem con un elettrone. Dire ad esempio, come il fisico delle particelle Weinberg, che «oggi c’è precisamente un elettrone di carica negativa per ogni proto479
ne di carica positiva»67 significa fare un’affermazione gratuita: chi li ha mai contati? Parimenti, del tutto inverificabile appare la certezza di Weinberg che, pochi minuti dopo il mitico Big Bang in cui la temperatura dell’universo sarebbe stata molto più alta, nell’universo «per ogni protone c’è un elettrone» e insomma «c’erano press’a poco altrettanti elettroni e positoni quanti erano i fotoni»68. Negli atomi il numero dei protoni può equivalere a quello degli elettroni, ma in realtà gli elettroni come i protoni sussistono anche allo stato libero e non legati per cui è difficile rintracciare ovunque simmetrie siffatte. In realtà è impossibile rintracciare sempre e ovunque corrispondenze biunivoche e simmetrie perfette: ad esempio il numero di antiprotoni presenti nella radiazione cosmica è circa un millesimo del numero dei protoni; inoltre le interazioni fra due particelle a basse energie non producono simmetria; ma anche nelle collisioni ad alte energie la simmetria appare essenzialmente un postulato teorico, visto che già nella prima teoria di Dirac solo per convenzione teorica la collisione fra due fotoni produce una speculare coppia elettrone-positrone. Che nella collisione fra due particelle si crei una nuova coppia di particelle è in realtà per lo più solo una supposizione introdotta ad hoc per ragioni teoriche.69
S. Weinberg, I primi tre minuti dell’universo, cit. p. 33. Ivi, p. 127 e 114. 69 Così rimangono non una lecita conclusione bensì un paradosso della meccanica quantistica (il paradosso Einstein-Podolski-Rosen) i fenomeni presunti di entanglement o correlazione quantistica: Einstein intendeva aggirare i principi di indeterminazione di Heisenberg (che vietano la conoscenza simultanea della posizione e della velocità di una particella) osservando che, date due particelle emesse dalla stessa sorgente e rilevata la posizione dell’una, è possibile inferirne anche la velocità rilevando la velocità uguale dell’altra particella senza osservare direttamente la prima perturbandola. L’omogeneità fra le due particelle è dovuta alla loro origine comune e al loro conseguente destino comune (che il rilevatore ben conosce) e non certo al fatto che le due particelle dopo la separazione dalla comune sorgente rimarrebbero misteriosamente entangled anche ad anni luce di distanza in assenza di visibili connessioni co67 68
480
Infine ci si chiede: perché tutte queste antiparticelle? Perché è stata immaginata l’antimateria? Infatti se qualcuno ha visto il positrone, certamente nessuno ha mai visto né rilevato in nessun modo l’antimateria. E qui naturalmente bisogna rispondere: tutto questo gigantesco lavoro di scoperta, di produzione e financo di invenzione di particelle fino alla supposizione puramente teorica dell’antimateria che raddoppia ed anzi moltiplica la materia conosciuta dell’universo risponde a un’esigenza ben precisa. In realtà sembra debba dirsi che queste “antiparticelle” siano semplicemente delle particelle a cui, dapprima per salvare i princìpi di conservazione, si è semplicemente aggiunto il prefisso “anti”. Sembra proprio che si prendano delle particelle al volo e le si ponga idealmente là dove occorre per far tornare il bilancio energetico: così, se una particella si annichila e sembra sparire dall’universo, si dirà che ciò è solo per pochissimi istanti in quanto ovunque e da un momento all’altro potrebbe riapparire da qualche parte la sua antiparticella, ovvero la stessa particella di prima soltanto cambiata di segno. Il che sarebbe come dire che in una città il numero degli abitanti è sempre lo stesso, perché quando un abitante muore certamente da qualche parte ne nasce un altro per compensare quella perdita. In particolare l’antimateria è stata posta per garantire che, là dove non appare materia, non si pensi al vuoto: si pensi piuttosto all’antimateria affinché ne fieret vacuum onde poter dire che tutto è pieno. Ove il perché di questa fretta quasi compulsiva nel rilevare e nel supporre tutti i tipi possibili di antiparticelle fino all’antimateria è presto detta: ormai non era più questione di salvare i princìpi di conservazione, bensì c’era bisogno di aggiungere massa all’universo perché soltansicché una variazione dell’una influenzerebbe istantaneamente l’altra: pensare questo è per Einstein precisamente il paradosso assurdo a cui conduce la meccanica quantistica (proprio come il celebre gatto di Schrödinger è vivo o morto nella sua scatola chiusa ed è solo un paradosso della meccanica quantistica - pari al paradosso per cui la particella esisterebbe simultaneamente in due stati diversi - la supposizione che egli sia al contempo vivo e morto in uno stato indeterminato cosicché sarebbe l’osservatore che aprendo la scatola lo costringe ad essere vivo o morto).
481
to una massa molto maggiore poteva consentire le condensazioni galattiche in un universo in espansione. Dunque ogni particella doveva avere la sua particella contraria, la sua antiparticella, perché così è possibile supporre una sorta di bellum omnium contra omnes in cui tutte le particelle fra loro opposte ma speculari scontrandosi si annichilano reciprocamente, cosicché infine tutto l’universo possa essere concepito come ripieno di “antimateria” e di “materia oscura” e annichilata che sola potrebbe tenere insieme le galassie in presenza di un’espansione. Ove si noti che il discorso fatto per i neutrini e le antiparticelle vale praticamente per tutte le altre particelle candidate al ruolo di costituenti della Dark Matter. Attualmente la “materia oscura” – posta come non barionica e cioè non costituita né di protoni né di neutroni, altrimenti insorgerebbero problemi per la teoria che si vuole salvare – viene distinta in calda (hot dark matter, con particelle leggere ad alta velocità) e fredda (cold dark matter, con particelle massive più lente), e in ciascuno dei due tipi vengono ampiamente supposti esistenti vari tipi di «particelle massive debolmente interagenti» (weakly interacting massive particles, da cui l’acronimo wimp): oltre ai neutrini, dovrebbero così esserci anche i “fotini”, i “gravitini”, i “neutralini”, gli “assoni” e altre particelle ancora e tutti noi ci chiediamo quando, dopo le wimp, compariranno le particelle wamp che stiamo ansiosamente aspettando. Ma naturalmente nessuno finora ha mai rilevato (tranne una manciata di neutrini) tutte queste particelle-fantasma: ad esempio la materia oscura fredda non è stata non dico rilevata ma nemmeno prodotta in laboratorio perché, stante la sua massa supposta elevata (pari a circa quaranta volte la massa del protone), la sua produzione richiede energie enormi non ancora disponibili negli attuali acceleratori di particelle. Dunque queste particelle, mai rilevate, sono state ipotizzate solo per “riempire l’universo”: esse godono per ora di un certificato di esistenza puramente teorico, grazie al quale vengono presupposte (senza tema di smentita alcuna) in quantità enorme come un autentico e nuovo tessuto riempitivo dell’universo, atto ad aumentarne la massa altrimenti così desolatamente piuttosto scarna. La situazione è da 482
tempo diventata veramente paradossale, e un astrofisico dubbioso come Narlikar pone la questione distinguendo al riguardo fra ottimisti da un lato e scettici e cinici dall’altro: «The optimist think that they are bound to succeed one day and that we will soon understand how the large-scale structure came about. The sceptics and cynics may wonder whether this is the correct way to proceed and whether the solution lies in an entirely different direction»70. Orbene: piuttosto che con gli “ottimisti”, che sperano per queste vie di avere successo e di giungere a conoscere come funziona l’universo, noi senz’altro ci collochiamo fra gli “scettici” e i “cinici” (per quanto poi la definizione ci sembri un po’ sbrigativa) che dubitano alquanto del carattere scientifico di siffatta metodologia, e si domandano stupiti se questo sia nella scienza un corretto modo di procedere e se la soluzione non vada cercata altrove, visto che finora nulla di tutto quanto postulato «has been observed in a laboratory».71 Inoltre va anche detto al riguardo che i cosmologi dovrebbero mettersi d’accordo, perché attribuiscono alla fantomatica “materia oscura” proprietà contraddittorie: da un lato cioè essa accelererebbe nelle galassie le stelle periferiche, e dall’altro rallenterebbe o addirittura arresterebbe l’espansione dell’universo; cosicché bisognerebbe pur sapere infine una buona volta se questa materia oscura ha il potere di accelerare o frenare le velocità. Per parte nostra, come abbiamo visto, preferiamo la tesi di Ghosh che spiega le velocità delle stelle periferiche in base al principio di Mach senza introdurre nessuna misteriosa “materia oscura”. Ma, anche ammettendo che le galassie siano circondate da un grande “alone oscuro” di materia invisibile, questo significa ben poco perché in realtà le stelle componenti le ga70 J.V. Narlikar, The lighter side of gravity, 1982, University Press, p. 195 (sec. ed. 1996). 71 Ivi p. 200. È desolante constatare come sulla “materia oscura” si possano scrivere centinaia di pagine con titoli ad effetto senza mai essere sfiorati dal dubbio sulla sua effettiva esistenza: v. ad es. L. Krauss, Quintessenze. The Mistery of missing Mass in the Universe, 2000, tr. it. Il mistero della massa mancante nell’universo, Milano 2000, Cortina.
483
lassie e le periferie delle galassie con i loro “aloni oscuri” costituiscono una massa del tutto trascurabile dell’universo: e se può esservi molta materia “oscura” nell’alone che circonda le galassie, è invece probabile che nel resto immenso dell’universo ve ne sia assai poca. Basti pensare alle distanze enormi fra le stelle all’interno di una galassia: se il Sole fosse una biglia la stella più vicina si troverebbe a duecento chilometri, e dunque una galassia media di cento miliardi di stelle con un diametro di centomila anni luce è quasi ovunque vuota (infatti gli scontri fra stelle, tranne nel caso di sistemi binari, sono statisticamente quasi impossibili). E pur essendo vero che, in proporzione, le galassie sono più vicine fra loro di quanto non lo siano le stelle al loro interno (ciò per cui invece gli scontri galattici sono abbastanza usuali), si tratta pur sempre di milioni e milioni di anni luce e comunque in molti casi si rilevano distanze galattiche inimmaginabili con “vuoti intergalattici” spesso di trenta milioni di anni luce (o anche molto più) caratterizzati da una densità assolutamente minima valutabile in poche particelle in decine o centinaia di metri cubi (si pensi al gigantesco vuoto nella costellazione di Boote, scoperto nel 1981, che si estende per 250 milioni di anni luce). Chiaramente in questi spazi interstellari e intergalattici, per quanto sporadicamente solcati da nubi di polveri e gas, ove stelle e galassie sono soltanto puntini e pulviscoli trascurabili, appare del tutto gratuito e inverosimile supporre alti coefficienti di materia oscura: non a torto de Sitter, semplificando ma non troppo, poneva come nulla o tendente a zero la densità media di massa sussistente nell’universo. Si noti infatti che, quando si dice che la densità media dell’universo non arriva a un atomo per metro cubo, non si intende la densità media al di fuori delle condensazioni stellari e galattiche bensì si considerano nel computo anche queste zone a più alta densità: eppure, anche considerando le zone ad altissima densità, l’universo in media risulta avere assai meno di un atomo per metro cubo. Dunque resta difficile contestare che in generale nell’universo la densità media di masse gravitazionali sia molto bassa, anche se non altrettanto all’interno e alla periferia delle galassie, e dunque tale da non favorire in presenza di un’espansione il movimento opposto 484
generante gli agglomerati di ammassi e superammassi che pur indubitabilmente vi sono: se esiste ben poca densità media di materia nell’universo, allora la pretesa espansione conseguente all’esplosione – praticamente da nulla frenata – avrà una velocità tale da rendere impossibile le condensazioni. Ma i teorici del modello espansionista hanno ritenuto di risolvere il problema enfatizzando oltre ogni limite la materia “oscura”, inventandosi particelle mai riscontrate o fabbricandole attraverso le collisioni nei laboratori, veramente oltre ogni limite fino addirittura a fare della “materia oscura” oltre il 99% di tutta la materia esistente pari a 10–30 atomi per centimetro cubo, e questo non certo in base a dati osservativi e argomentativi bensì semplicemente per cercare di mantenere a tutti i costi in piedi il modello espansionistico. Stiracchiando a fisarmonica i calcoli, essi hanno detto: Wb (densità di materia visibile) = 0,005 (o 0,15 o 0,1, quien sabe?); Wm (materia oscura) = 0,35; Wl (energia del vuoto) = 0,65. Quindi hanno fatto la somma e hanno detto: quasi 1! E così hanno estratto dal cilindro quel valore (un atomo per metro cubo) che essi ritengono necessario per mantenere in piedi capra e cavoli, ovvero espansione e materia. C’era bisogno di molta massa per salvare la teoria dell’espansione, ed eccola bella pronta: in primis et ante omnia, un oceano di neutrini, di antiparticelle e di antimateria, e poi un mare di altre particelle ancora, tutte «debolmente interagenti» e candidate al ruolo di costituenti della Dark Matter. Tutte queste particelle, poiché presupposte in quantità enorme, diventano un tessuto riempitivo atto ad aumentare la massa dell’universo altrimenti così desolatamente scarna. L’universo ne traboccherebbe al punto che quasi tutta la materia esistente sarebbe “oscura” e sembra qui rispuntare nella scienza moderna, che assolutamente vuole tutto l’universo pieno di materia oscura, l’antichissimo horror vacui, l’antico veto ne fieret vacuum. Naturalmente nessuno finora ha mai rilevato (tranne una manciata di neutrini e poco altro) tutte queste particelle-fantasma che non emettono nulla, né luce né raggi x né onde radio, che sono prive di risonanza elettromagnetica e che non interagiscono con la ma485
teria e non lasciano tracce: solo ipotizzate e mai rilevate, esse godono per ora di un certificato di esistenza puramente teorico e virtuale. Ma proprio qui subentra l’argumentum ad hoc: infatti solo supponendo un numero enorme di particelle evanescenti, di massa infinitesimale e non interattive e dunque difficilmente rilevabili, si poteva giustificarne la mancata rilevazione. In realtà questa fantomatica materia è detta “oscura” in quanto l’importante è proprio che sia oscura e non si veda e non si rilevi e non si possa rilevare in nessun modo. L’importante insomma è proprio che queste particelle siano weakly interacting, «debolmente interagenti», l’importante è che non si vedano e non si possano vedere per poterne ipotizzare senza tema di smentita strabilianti quantità in modo che essa possa assolvere l’improbo compito di salvare la teoria dell’espansione dell’universo: ma in tal modo l’affermata esistenza della “materia oscura” non risulta più una predizione scientifica, perché sembra che nulla possa mai verificarla né smentirla. E la difficoltà permane comunque perché, anche ammettendo tutta questa materia suppletiva, ben difficilmente essa potrà far aumentare di cento volte la materia rilevabile nell’universo che, al di fuori delle condensazioni, continua ad apparire piuttosto vuoto. È chiaro dunque quanto si evince da questa analisi dei candidati al ruolo di Dark Matter: in vari decenni si sono rilevate effettivamente poche decine di neutrini, ma si è supposto un “oceano di neutrini” procedente dal Big Bang e dalle stelle che riempirebbe l’universo; parimenti si sono scoperte (o più spesso prodotte negli acceleratori) alcune particelle simili a certe altre ma di carica opposta, e allora si è supposto che ogni particella dell’universo abbia la sua antiparticella e – nuovamente – che tutto l’universo ne sia ripieno. Tutto questo non in base ad effettive rilevazioni bensì solo per tenere in piedi il modello espansionistico che richiede una grande massa nell’universo. Ma naturalmente il trucco si vede, e se gratti la pellicola argentata lo vedi bene il brutto piombo che c’è sotto, perché non è vero che per spiegare l’universo occorra presupporre dieci o cento volte più materia di quanta se ne osservi: è semplicemente per tenere in piedi la teoria dell’espansione che occorre inventar486
si di sana pianta tutta questa materia. Se si trattasse solamente di spiegare le eccessive velocità galattiche periferiche (che era il problema originario di Zwicky) potrebbe essere sufficiente una modificazione della legge newtoniana dell’inverso del quadrato e dei coefficienti gravitazionali relativistici per le grandi distanze interstellari e intergalattiche o potrebbe essere sufficiente il principio di Mach (vedi Ghosh e Milgrom): ma il punto è che ormai si tratta non più semplicemente di spiegare un fenomeno specifico (le eccessive velocità galattiche periferiche), bensì di salvare a tutti i costi un pluridecennale modello cosmologico che continuamente rischia di affondare. Ma veramente invano gli astrofisici hanno cercato di far risalire la densità critica al valore cercato e di raggiungere il quorum di massa gravitazionale necessario a mantenere uniti gli ammassi nonostante l’espansione, inserendo d’ufficio nell’universo a mo’ di prezzemolo ed anzi a palate una quantità esorbitante di massa gravitazionale supplementare assolutamente non richiesta se non da una preliminare e insostenibile ipotesi cosmologica. In realtà non occorre aggiungere massa inventata per tenere gravitazionalmente insieme le galassie: basta togliere l’espansione. La storia che abbiamo raccontato ricorda un po’ la favola di Andersen sul Re nudo a cui si vuole a tutti i costi far credere di indossare un vestito invisibile che tutti decantano: allo stesso modo, l’universo appare poco vestito, quasi nudo, e invece tutti lo vogliono vestito di materia. Allora gli si confeziona un Vestito invisibile: in fondo l’importante, per poter supporre tutta questa materia oscura senza tema di smentita, è proprio che non si veda. E così i migliori scienziati, come si suol dire, van cercando ma non trovan la Titina. Per quanto si cerchi non si trova l’inafferrabile e sfuggente Dark Lady della Scienza, la Signora in nero degli astrofisici: si trovano elementi di materia oscura, si trovano neutrini e positroni e quant’altro ma non la Dark Matter che riempie l’universo. Ma forse, se non la si trova nonostante tutte le ricerche, potrebbe anche essere che non esista. Lo diceva il saggio Confucio: «è molto difficile trovare un gatto nero in una stanza buia. Soprattutto quando non c’è il Gatto». 487
IX Quale immagine dell’universo?
In ogni secolo gli esseri umani hanno pensato di aver capito definitivamente l’universo e, in ogni secolo, si è capito che avevano sbagliato. Da ciò segue che l’unica cosa certa che possiamo dire oggi sulle nostre attuali conoscenze è che sono sbagliate. (I. Asimov, Saggi sulla scienza)
Credo sia inutile continuare nella disamina: in realtà la teoria del Big Bang appare non tanto un modello scientifico quanto piuttosto una fantastica mitologia, rispetto alla quale allora preferiamo Esiodo. Questa teoria lascia irrisolti mille problemi e, puntellata alla bell’e meglio con appositi epicicli, sembra ormai più un dogma indiscusso e un articolo di fede che non una teoria scientifica. Molto probabilmente la strana idea che l’universo venga dall’esplosione di una capocchia di spillo, generante uno spazio misteriosamente curvo ed in espansione, verrà ricordata dai nostri posteri come un colossale abbaglio della scienza novecentesca. La metamorfosi dell’ipotesi in dogma Eppure la teoria del Big Bang, e il suo correlato espansionista, nelle sue varianti multiple gode oggi di un consenso quasi universale (eccezion fatta per la condanna, peraltro ampiamente ideologica, da parte della cosmologia sovietica dell’età staliniana che – di contro i sovietici Friedmann prima e Gamow poi – opponeva l’eternità e l’infinità dell’universo ad ogni idea di generazione). Probabilmente tale consenso è anche dovuto al fatto che, pur essendo l’“atomo primordiale” di Lemaître o la “Singolarità iniziale” strutture che di per 488
489
sé non richiedono una divinità a monte, la teoria del Big Bang è comunque infine facilmente apparsa quale trascrizione laica del creazionismo religioso che pone un principio del mondo: infatti Lemaître era un religioso, e Pio XII (in un discorso del 22 novembre 1951 alla Accademia Pontificia delle Scienze di cui Lemaître divenne presidente) avallò decisamente la teoria «testimone del Fiat Lux iniziale» suscitando le apprensioni e infine le rimostranze dello stesso Lemaître (Congresso Solvay 1958) che temeva che la Chiesa potesse nuovamente rischiare la propria credibilità, sancendo come indubitabile con la propria autorità una teoria che poi potesse rivelarsi errata come già era avvenuto con il caso Galileo. In ogni modo la fortuna della teoria del Big Bang venne assicurata, e nel 1982 un cosmologo sovietico dichiarò che il Big Bang era un fatto certo come è certo che la Terra giri intorno al Sole. Si è costituito così un inattaccabile paradigma normativo in senso kunhiano, al punto che in Occidente le pochissime voci critiche dei dissenzienti sono ormai da decenni isolate e messe a tacere: Arp (lo si è detto), per aver dato una diversa spiegazione del redshift dei quasar, si è visto negare l’uso dei migliori telescopi per il timore che ciò potesse turbare i sonni dogmatici della comunità scientifica; Hoyle, il noto oppositore della teoria del Big Bang, pur avendo compiuto insieme a W. Fowler e più di lui scoperte di fondamentale importanza circa le reazioni nucleari che nelle stelle producono gli elementi pesanti, si vide negare il premio Nobel che fu dato nel 1983 al solo Fowler, e ben si capisce visto che Hoyle (contrariamente a Fowler) traeva da questa scoperta la conseguenza che non occorreva alcun Big Bang per spiegare la formazione degli elementi pesanti. Vi sono in effetti enormi finanziamenti in gioco, che evidentemente si teme possano essere drasticamente decurtati se mai il dubbio serpeggiasse72. Vi so72 Ad esempio l’ESA (l’Agenzia Spaziale Europea) ha investito nel 1992 l’equivalente di 700 miliardi delle vecchie lire per la missione Planck volta a inviare nello spazio nel 2007 un satellite, in grado di rilevare fluttuazioni nella radiazione di fondo più precisamente del satellite Cobe, con lo scopo di studiare le condizioni dell’universo all’epoca del preteso Big Bang. In realtà nulla dimo-
490
no troppe carriere scientifiche costruite sulla favola del Big Bang, vi sono troppi astronomi di fama che da decenni ripetono salmodiando la litanía sull’esplosione e l’espansione e che, incapaci di autocritica, non accettano discussione su questo tema. In pratica nessun giovane astronomo oggi ha speranza alcuna di farsi conoscere se non accetta il dogma, il tributo da pagare per la “carriera”. L’americano E. Lerner, uno dei pochissimi critici del Big Bang (cui oppone una “cosmologia del plasma”, supposto infinito ed eterno, che si richiama a H. Alfven mantenendo l’espansione), pubblicando nel ‘91 The Big Bang Never Happened, scrive: «entro la fine degli anni settanta [ma le cose non sono molto cambiate nemmeno in seguito] praticamente non un solo scritto suscettibile di costituire una sfida al Big Bang veniva accettato per essere presentato ai congressi principali o pubblicato dai principali periodici scientifici. Diventò semplicemen-
stra che il fantomatico Big Bang sia la causa di quelle fluttuazioni, che comunque possono essere proficuamente analizzate in base ai dati rilevati dal satellite quali possibili fattori generatori delle formazioni galattiche, ma la missione è stata concepita e propagandata con il nebuloso scopo di studiare proprio le condizioni dell’universo dopo il Big Bang: certamente al momento della richiesta dei fondi necessari fa ben altra impressione dire ai politici che la missione serve per studiare la creazione dell’universo che non dire più modestamente che essa potrà forse fornire qualche lume sulla genesi delle galassie. In tal modo, poiché la missione è presentata come imprescindibile per la comprensione del Big Bang e della creazione del mondo ancor più che per la più concreta e specifica analisi delle fluttuazioni e della genesi delle galassie, ne consegue che naturalmente nessun ricercatore interessato a quelle fluttuazioni ma dubbioso sul Big Bang (ammesso che ve ne siano) potrà mai parteciparvi. Così l’adesione a una determinata teoria cosmologica diventa la condizione preliminare per occupare posizioni di grande prestigio e non a caso uno dei dirigenti del progetto (M. Bersanelli) nella sua veste di “consigliere scientifico” della rivista Emmeciquadro ha bloccato la recensione (poi pubblicata in Il Protagora, n. 3, Lecce 2004, Manni) di un qualificato studioso (il già ricordato V. Banfi) al mio primo lavoro (pubblicato da Noctua) che contestava radicalmente l’ipotesi del Big Bang. Un conflitto di interessi? 491
te inconcepibile l’idea che il Big Bang potesse essere errato: era una questione di fede».73 Il punto è che, in una critica alla teoria cosmologica dominante, in fondo non è mai in questione la fondatezza scientifica: semplicemente, troppo chiaro appare in questi casi l’imbarazzo e la reticenza (a suo tempo anche da noi sperimentata) nel pubblicare una critica al modello cosmologico dominante. Senonché: non dovrebbe la scienza essere un costante e continuo esercizio di critica e di discussione? E dove va a finire la libertà e l’indipendenza intellettuale, se la critica è ostacolata? Stando così le cose, l’impresa scientifica rischia di diventare un’ortodossia dogmatica imposta attraverso i pulpiti universitari e la distribuzione delle cattedre accademiche, nonché attraverso le riviste specializzate e i gruppi editoriali. Sem-
E. Lerner, The Big Bang Never Happened, 1991, tr. it. Il Big Bang non c’è mai stato, Bari 1994, Dedalo, p. 183. Va detto che comunque all’estero il dibattito va intensificandosi negli ultimi anni, e su varie riviste scientifiche si stanno moltiplicando le prese di posizione contro la cosmologia tradizionale (cfr. W.C. Mitchell, The Cult of the Big Bang, was there a Bang?, Carson City 1995, Cosmic Sense Books). Anche alcune riviste estere di divulgazione scientifica hanno dato un certo spazio a chi contesta la cosmologia tradizionale, come ad esempio la rivista belga Ciel et Espace (ottobre 1993: Big bang: ces astronomes qui n’y croient pas). Sconfortante rimane invece il quadro in Italia ove (nonostante il valore di molti ricercatori e i notevoli contributi alla tecnologia spaziale) la cultura scientifica appare attestata su posizioni di arretratezza e conformismo intellettuale per quanto riguarda la discussione sui modelli cosmologici. Basti ricordare la litanía sonnacchiosa, favorita dal buio della sala in cui il conferenziere espone durante le proiezioni, con cui allo storico Planetario Hoepli di Milano (che pure lo scrivente ha frequentato per anni quasi ogni sera) grigi impiegati dell’astronomia arrotondano lo stipendio ripetendo da decenni a giorni alterni la sempiterna storiella sull’esplosione e l’espansione: utili per il loro lavoro di informazione e divulgazione in campo astronomico, essi diventano addirittura perniciosi quando si addentrano in campo cosmologico veicolando come indubbie acquisizioni teorie quanto mai incerte. Un’eccezione nel panorama scientifico italiano è costituita dal fisico F. Selleri che (nelle pagine conclusive del suo Lezioni di relatività, cit.) accenna una posizione, se non contro la teoria dell’espansione, certamente contro il Big Bang. 73
492
bra che dunque a ragione T. Kuhn74 dica che la “scienza normale” sia costituita da “paradigmi” non semplicemente teorici ma in ampia misura condizionati da determinati orientamenti sociologici, politici, economici, psicologici che, imposti dalla gerarchia scientifico-accademica, costituiscono e delimitano con atto d’autorità e di potere l’ambito delle ricerche lecite, legittime, accettate, di fatto costituendo in dogma inattaccabile, rigido e chiuso, una determinata prospettiva di ricerca difesa ad oltranza anche censurando e riducendo al silenzio le critiche e le alternative. Ma allora, se le cose stanno così, pur non credendo noi all’incommensurabilità totale dei paradigmi tutti e pur difendendo una visione sostanzialmente continuista della scienza, diciamo che indubbiamente in certi frangenti occorre valutare positivamente le rivoluzioni scientifiche di cui parla Kuhn in quanto esse, prendendo finalmente sul serio le molteplici anomalie emergenti all’interno di un dato paradigma scientifico, hanno la capacità di imporre un nuovo paradigma rovesciando quello precedente in cui l’atteggiamento dogmatico (per quanto per Kuhn psicologicamente comprensibile e giustificabile nelle vicende della “scienza normale”) diventa sempre più inaccettabile. Fenomenologia del dato e interpretazione: una critica humeana Quali sono – ci si domanda infine – le pretese verifiche dell’espansione dell’universo a partire da un Big Bang? Lo spostamento verso il rosso e la radiazione di fondo, come abbiamo visto, di per sé presi sono solo dati che di per sé non parlano, non depongono a favore di un’interpretazione univoca e certa. Lo spostamento delle righe verso il rosso di per sé ci dice soltanto che lo spettrometro è stato colpito da un’onda a bassa frequenza e ad alta lunghez-
74 T. Kuhn, The Structure of Scientific Revolution, Chicago 1962, University Press (tr. it. La struttura delle rivoluzioni scientifiche, Torino 1969, Einaudi).
493
za, mentre la radiazione di fondo ci dice soltanto che attraverso la radioastronomia viene captato nell’universo un suono che rivela una materia radioattiva con una certa temperatura. Stop, punto e basta. A questo punto subentra l’interpretazione dei dati di rilevazione, ma l’interpretazione – per l’appunto – non è univoca e certa. La situazione ricorda molto la favola di Esopo dei sette ciechi che incontrano un elefante. Uno di essi brancolando ne tasta la proboscide e dice: «questa, senz’altro, è una corda». Un secondo cieco tasta la zampa e dice: «ma no, cosa dici, questo è un albero», e così via nella saga degli equivoci. Cosicché sovviene qui la frase di Einstein: che ne sa il pesce del mare in cui passa tutta la vita? Se l’elefante almeno avesse fatto qualcosa, avesse barrito o si fosse mosso, forse i ciechi avrebbero capito: ma invece l’elefante rimane fermo, muto, immobile, indifferente come il motore immobile di Aristotele o la natura di cui parlava Galileo o forse sorridente dei vani sforzi degli uomini come la verità di cui parlava Voltaire. Il punto è questo: occorre distinguere fra il dato e l’interpretazione del dato. Troppe volte ci è stato detto (a partire da Duhem) che il dato è sempre teorie-laden, impregnato e carico di teoria, che la teoria seleziona anche inconsciamente i dati rilevati fra molti altri, che l’osservazione pura pretetica non esiste e che è molto ingenuo presupporla, che non esiste da una parte una “immacolata percezione”, una osservazione pura, e dall’altra e successivamente ex post la teoria che la spieghi etc. Eppure, una qualche distinzione fra il dato e l’interpretazione del dato andrà recuperata, almeno nel senso che possa sussistere un dato osservazionale solo minimamente gravato da assunzioni teoriche. Non è vero che, come diceva Nietzsche, «non ci sono fatti, ma solo interpretazioni» (Frammenti postumi 1885-1887, framm. 7 –60–). Almeno in campo scientifico, ciò non è del tutto vero: se nella scienza dicessimo così, la via sarebbe libera al più totale arbitrio. Non si dirà come il filosofo positivista Ardigò che il fatto è divino, in quanto anzi esso è in sé piuttosto insignificante: ma un fatto, o meglio un dato, resta almeno in linea di principio distinguibile da un’interpretazione. Dunque, lo spettrometro è stato colpito da un’onda lunga di 494
bassa frequenza: ecco un dato. Anzi, già questa invero è un’interpretazione. Allora diciamo meglio: noi non vediamo le onde, non sappiamo nemmeno se si tratti realmente e fisicamente di onde. Vediamo soltanto che i nostri strumenti registrano delle righe impresse sulla superficie piana dello spettroscopio, e sappiamo semplicemente che descriviamo matematicamente la radiazione elettromagnetica in termini di propagazione di onde. Dunque: lo spettrometro reca impressa la traccia di un qualcosa a bassa frequenza, ecco il dato. Si dice allora: questo “qualcosa”, questa riga impressa è un fronte d’onda e segnala un’onda lunga di bassa frequenza e questa onda è causata dal fatto che lo spazio si espande allontanando le galassie, e questa espansione è a sua volta causata da un’esplosione avvenuta 15 miliardi di anni fa: ecco un’interpretazione. Oppure: l’onda lunga di bassa frequenza è causata dalla dispersione di radiazione nello spazio: ecco un’altra interpretazione. Oppure: l’onda lunga di bassa frequenza è causata dal rallentamento operato dall’intensità gravitazionale della sorgente: ecco un’altra interpretazione ancora. E si potrebbe continuare, certo non all’infinito ma insomma per un poco, senonché sovviene la massima di Goethe: «le teorie sono precipitazioni di un intelletto impaziente che vorrebbe liberarsi dei fenomeni e perciò mettere al loro posto immagini, concetti, addirittura parole».75 In particolare si intende dire che, dal punto di vista epistemologico e soprattutto dopo Hume, non possiamo più indulgere ad una concezione ingenua della causalità: sempre con Goethe, diremmo che «l’uomo pensante sbaglia specialmente quando ricerca la causa e l’effetto» e che «il concetto di causa ed effetto è motivo di innumerevoli errori che si ripetono sempre»76. O ancora potremmo ricordare Wittgenstein, che con radicalità financo eccessiva e senza mezzi termini affermava che «la credenza nel nes-
75 W. Goethe, Maximen und Reflexionen, tr. it. Teoria della natura, Torino 1958, Boringhieri, aforisma 242. 76 Ivi, rispettivamente aforismi 100 e 102.
495
so causale è la superstizione»77. Nel suo scetticismo anche Hume (e prima di lui il filosofo medievale Nicole d’Autrecourt e il filosofo arabo al-Gazali) ha sicuramente portato troppo in là la sua critica al nesso causale, fino a dissolverlo, ma al contempo egli ha messo in guardia da una sua acritica assunzione. In realtà Hume non vuole invitare gli uomini a non credere più nel nesso causale: dice anzi che la mente umana è portata da una credenza naturale, da un istinto insopprimibile ad istituire relazioni di causa ed effetto. Però esige la consapevolezza che il nesso causale poggia più su abitudini, credenze e aspettative della mente che non su una rigorosa fondazione logica. Egli ha mostrato come fra la pretesa causa e il preteso effetto non v’è sempre una connessione necessaria diretta e univoca. Dal fatto che una cosa è, non siamo autorizzati a concludere con evidenza e certezza l’esistenza di un’altra cosa distinta che ne sarebbe la causa. La connessione che noi poniamo fra un elemento A e un elemento B, tale per cui noi diciamo che A è causa di B, può essere fallace: infatti solitamente l’esperienza ci mostra A e B mentre la connessione causale che da A conduce a B è dedotta e, in quanto tale, suscettibile di errore. A e B potrebbero essere due eventi completamente distinti e indipendenti senza nessun legame causale, oppure B potrebbe essere causato da C ma non da A oppure ancora da A e da C insieme. La connessione causale non è un’evidenza e una certezza, ma più facilmente una probabilità. Il fatto che un B sia sempre visto manifestarsi dopo un A fa naturalmente sorgere in noi l’aspettativa psicologica di una connessione che si ripeterà in futuro ma questo di per sé non dimostra che A sia la causa di B: noi non possiamo immediatamente traformare il post hoc in propter hoc, la mera successione in causalità, assumendo disinvoltamente che ciò che appare “dopo questo” appaia “a causa di questo”. Certo il limite di Hume consiste nel suo empirismo: se il criterio di va77 L. Wittgenstein, Tractatus Logico-Philosophicus, 1922, § 5.1361 (tr. it. Torino 1964, Einaudi).
496
lutazione è soltanto ciò che attestano i sensi e non ciò che pone la ragione, allora evidentemente una volta che i sensi abbiano attestato l’esistenza di un evento A e di un evento B non si potrà più andare oltre ad A e B isolatamente presi, e qualsiasi connessione causale rinvenuta fra A e B diventa un’operazione concettualmente illecita (seppur giustificabile praticamente) per il semplice fatto che nessuno vede o tocca questa connessione; e se i nessi causali non sussistessero nel mondo e fossero soltanto fondati su un’abitudine psichica dovuta alla constatazione di una regolare e costante associazione fra A e B, allora il mondo sarebbe totalmente assurdo e fantastico mentre invece esso è in realtà composto non tanto di eventi isolati quanto piuttosto di eventi reciprocamente interrelati. Ma, quali che siano i limiti dell’analisi humiana, essa certamente insinua il sospetto su mere pregiudiziali e attese indebitamente spacciate per il rinvenimento di oggettivi e reali nessi causali. Certo quando da un dato A segue sempre e immediatamente B, quando fra A e B vi è una contiguità temporale e spaziale, quando l’associazione fra l’antecedente A e il conseguente B è costante, continua e ripetuta, allora può anche sembrare logico (sebbene ancora non lo sia per Hume) dedurne che A è la causa di B. Ma non è così quando fra A e B si apre un baratro temporale e spaziale e l’associazione fra A e B – lungi dall’essere costante e ripetuta – non è mai stata rilevata nemmeno una volta. Ora, nel nostro caso la connessione causale incautamente stabilita appare alquanto problematica in quanto l’esperienza ci mostra soltanto un dato B (red shift o radiazione di fondo) mentre il dato A che dovrebbe esserne la causa (Big Bang) è un evento ipotetico addirittura risalente a miliardi di anni fa: e ci sembra indubbiamente un bel salto pretendere che da semplici red shift si risalga dritto e filato a una esplosione con espansione dell’universo avvenuta 15 miliardi di anni fa. La connessione fra due eventi distinti e separati da miliardi di anni (il preteso Big Bang da una parte, il red shift e la radiazione di fondo dall’altra) appare in realtà altamente arbitraria e illusoria: essa non appare nemmeno fondata su un’abitudine associativa bensì 497
proprio su una mera credenza, un’aspettativa psicologica, un belief nel senso humiano.78 Giustamente Epicuro (Epistola a Pitocle ad es. § 92 e 95) aveva elaborato il principio metodologico delle spiegazioni multiple di contro alla spiegazione univoca, invitando a vagliare più interpretazioni anziché accettarne dogmaticamente una sola: nel suo intendimento i fenomeni dovevano essere spiegati non aplÒj (in modo unico) bensì pollakÒj (in molti modi). È vero che egli diceva questo in una sorta di indifferenza epistemologica, perché per lui una spiegazione qualsiasi andava bene purché si liberasse l’animo dal timore, ma noi possiamo accettare l’idea non solo che un certo dato possa essere interpretato in più modi ma anche che in certi casi lo debba. Un medico lo sa che un dolore alla spalla può essere dovuto a un reumatismo come a un tumore, e così un red shift in un caso può indicare un Doppler ma in un altro caso può indicare qualcos’altro. Certamente chi scrive non pretende di essere il solo vedente in terra coecorum, cioè il solo che nella favola di Esopo vede e capisce che quello è un elefante e non una corda o un albero. Nondimeno si tratta evidentemente di vagliare le interpretazioni possibili e indicare come plausibile quella che sembra più aderente al dato, meno speculativa e arbitraria. Questo abbiamo cercato di fare: nella fattispecie, in molti casi sembra proprio impossibile e contraddittorio interpretare il red shift come un Doppler e, come abbiamo visto, sia lo spostamento delle righe spettrali verso il ros-
78 Per la celebre critica humiana al concetto di causalità v. D. Hume, Treatise on Human Nature, 1739-1740, Libro I Parte Terza e An Enquiry concerning the Principles of Morals, 1751, Sezione III-IX (tr. it. Trattato sulla natura umana, Bari 1975, Laterza pp. 82-190 e Ricerche sull’intelletto umano, Bari 1978 pp. 38137). V. anche B. Russell, Sul concetto di causa, 1912, in Mysticism and Logic, London 1917 (tr. it. Misticismo e logica, Milano 1970, Longanesi, pp. 170-196) e B. Russell, Sulla nozione di causa, con applicazioni al problema del libero arbitrio, in Our Knowledge of the External World, London 1914 (tr. it. La conoscenza del mondo esterno, Roma 1971, Newton Compton, pp. 197-223).
498
so sia la radiazione di fondo possono più plausibilmente essere diversamente interpretati. Ma poi, come prendere sul serio le stampelle ad hoc fatte apposte per tenere in piedi il Big Bang? La Forza repulsiva, l’Inflazione decelerata, la Materia oscura enfatizzata: sono tutti postulati puramente speculativi per i quali non esistono fondamenti osservativi, senza i quali tuttavia la teoria dell’esplosione-espansione ormai non potrebbe più reggere. Parimenti nei grandi acceleratori come al Cern di Ginevra si può sparare e accelerare le particelle fin quasi alla velocità della luce e con ciò si può farle collidere ad alta energia e temperatura, così annichilandone e financo creando artificialmente nuove particelle che non esistono in natura: ma in nessun modo con siffatti esperimenti di annichilazione e creazione di particelle si riproduce in laboratorio, come si vuol credere e far credere, la situazione originaria dei cosiddetti “primi istanti” dell’universo in espansione; in nessun modo nei sotterranei di Ginevra si ricostruisce e si replica in laboratorio la creazione. Così il satellite Cobe può rilevare la radiazione più lontana nello spazio e più antica a noi nota nel tempo, e può fornire indicazioni su come quelle fluttuazioni abbiano potuto portare alla formazione delle galassie, ma in nessun modo (se non per una preliminare adesione alla teoria) ci fa “toccare con mano” la radiazione originaria appena uscita dal Big Bang. Anche il recente clamore sul cosiddetto “suono primordiale”, pretesa eco del Big Bang, appare improprio: infatti nulla tranne un pio desiderio prova che quelle “onde”, impropriamente chiamate suoni e ottenute per simulazione alzandone le frequenze di 100.000 miliardi di miliardi di volte, siano l’eco – “fotografata” e sbattuta in prima pagina – del Big Bang. Certo negli ultimi decenni è stata molto valutata l’ipotesi Brans-Dicke (ripresa da Hoyle e Narlikar) per la quale il valore del “quanto” gravitazionale G non sia una costante universale fissa e inalterabile, bensì una variabile che nel tempo diminuirebbe con l’espansione dell’universo e il conseguente diluimento di materia, e si è cercato di verificare tale ipotesi spiegando con essa (e non con le maree) il rallentamento della rotazione terrestre e l’allargamento del499
l’orbita lunare79: ma anche se così fosse, e stando alle verifiche non sembra, nulla comunque vieterebbe che l’eventuale (e inosservata) variazione di G sia non un fenomeno universale dovuto all’espansione dell’universo bensì un naturale decadimento di intensità riguardante ogni singola massa locale. In realtà l’immagine dell’esplosione-espansione, più che un modello scientifico, sembra essere il condensato di suggestioni psichiche. Oltre al buco nero (prima immagine di singolarità), oltre alla supernova e al fungo nucleare (che sembrano aver lasciato l’imprinting per l’immagine dell’esplosione), oltre al mito futurista e tutto moderno della velocità (le galassie superveloci come missili nel cielo), potremmo ricordare la teoria della deriva dei continenti di Wegener, inizialmente rifiutata dalla maggior parte dei geologi ma non ignorata ed anzi vivacemente discussa proprio nei primi decenni del XX secolo quando si formavano i primi modelli di cosmologia evolutiva, e poi definitivamente accettata negli anni sessanta (proprio l’epoca in cui la teoria del Big Bang e dell’espansione trionfava sulla teoria rivale dello stato stazionario) quando la deriva dei continenti poté essere spiegata attraverso il meccanismo della tettonica a placche e quando le misurazioni laser confermarono l’espansione dei fondali oceanici con conseguente deriva dei continenti nella stima di un paio di centimetri all’anno. Secondo la teoria di Wegener e il suo successivo sviluppo i continenti (come le galassie) sono attualmente lontani e separati, in quanto portati alla deriva da millenari spostamenti tettonici sotterranei (proprio come le galassie trasportate lontano dall’espansione); essi però facevano parte illo tempore di un’unica massa iniziale (una specie di singolarità) chiamata Pangea80. Il punto è che questo
modello di “deriva” funziona benissimo in geologia per spiegare i movimenti dei continenti, ma non funziona affatto in cosmologia per spiegare i movimenti delle galassie, non fosse altro che perché i continenti sono portati alla deriva da un sotterraneo movimento molto concreto dei fondali oceanici e non, come si pretende per le galassie, dal misterioso spazio in espansione.
Cfr. C. Will, Was Einstein Right? Putting General Relativity to the Test, 1986, tr. it. Einstein aveva ragione? Le prove sperimentali della relatività generale, Torino 1989, Bollati Boringhieri, pp. 133-165. 80 A. Wegener, Die Entstehung der Kontinente und Ozeane, 1915, tr. inglese The Origin of Continents and Oceans, 1922 (tr. it. La formazione dei continenti e degli oceani, Torino 1942, Einaudi).
F. Hoyle, Astronomy, 1962, tr. it. L’astronomia, Firenze 1963, Sansoni, pp. 297-305; The Intelligent Universe, 1983, tr. it. L’universo intelligente, Milano 1984, Mondadori, pp. 168-187; The Nature of the Universe, 1952, tr. it. La natura dell’universo, Milano 1953, Bompiani, pp. 122-140. 82 F. Hoyle, The Origin of the Universe and the Origin of Religion, 1993, tr. it. L’origine dell’universo e l’origine della religione, Milano 1998, Mondadori, p. 16.
79
500
Il dilemma fra creazione e eternità Al riguardo, anche se assolutamente non persuade la sua vecchia teoria dello “stato stazionario”, la sua difesa del modello espansionistico, la sua incredibile teoria sui batteri quale causa della radiazione di fondo, appare però convincente la critica al Big Bang di Fred Hoyle, che ricordo bene letteralmente scatenato in un Convegno di Cosmologia alla Ca’ Dolfin di Venezia nel 198781. Così diceva, con tono irriverente, il grande astrofisico in una conferenza del ’92: «Ogni qualvolta viene pronunciata la parola “origine” evitate accuratamente di credere a quello che vi raccontano, anche se sono io a raccontarlo. L’universo è il tema a proposito del quale si tenta più spudoratamente di spacciare lucciole per lanterne. In questo caso tutta la trama si concentrerebbe in un evanescente attimo iniziale, i giochi sarebbero fatti fin dai primi 10–43 secondi. [...] Oltre i 10–23 secondi la vicenda si sposta in territorio noto e, trascorsi alcuni secondi, le sorprese e i colpi di scena si esauriscono»82. In effetti qui la debolezza della teoria del Big Bang e parimenti – aggiungiamo contro Hoyle – la debolezza della correlata teoria del-
81
501
l’espansione, diviene palese: in quanto ciò che anzitutto colpisce in questa cosmologia è proprio l’immagine incomprensibile che essa fornisce dell’universo. Per la teoria dell’Esplosione-espansione infatti la creazione è avvenuta una volta sola, e per sempre, cronometrata in tre minuti e qualche secondo. Le galassie si sono formate tutte entro i primi miliardi di anni, e da allora più niente di nuovo: scagliate nello spazio, esse non fanno altro che allontanarsi e morire. Anche le galassie che sembrano formarsi non sarebbero altro che l’immagine sbiadita e ritardata di un processo che in realtà poteva solo avvenire vari miliardi di anni fa. Così per la teoria del Big Bang, l’universo va lentamente ma inesorabilmente invecchiando. Esso è vecchio, decrepito. È una vecchia signora che ha generato una sola volta nella vita, 15 o 20 miliardi di anni fa, e poi è diventata sterile. Così Lemaître, che rappresentava l’universo come «uno spettacolo di fuochi d’artificio appena terminato», scriveva: «seduti su ceneri ormai fredde, osserviamo i soli che si spengono e cerchiamo di richiamare lo svanito splendore dell’origine dei mondi». Invece Weinberg scrive nel suo libro83 che «quanto più l’universo ci appare comprensibile, tanto più ci appare inutile (pointless)»: con il crescere dell’espansione che diluisce e allontana sempre più gli ammassi galattici e parimenti causa la continua diminuzione progressiva della temperatura sotto 2,7 °K, l’universo diventa «sempre più freddo, più vuoto, più morto». Senonché, che l’universo possa essere inutile può anche essere in certo modo vero (la rosa cresce ohne Warum, senza un perché, diceva il mistico Angelus Silesius ricordato da Heidegger). Ma che esso debba diventare «sempre più freddo, più vuoto, più morto», questa è soltanto la previsione di una discutibile teoria scientifica. Più precisamente, sembra qui di risentire l’eco delle vecchie speculazioni estrapolate dal secondo principio della termodinamica, in cui il concetto di entropia o del disordine crescente con passaggio da stati organizzati più improbabili a stati disorganizzati finali più 83
502
S. Weinberg, I primi tre minuti dell’universo, cit. p. 170.
probabili fece pensare alla finale “morte termica” dell’universo per l’appunto «sempre più freddo, sempre più vuoto, sempre più morto»: quando invece il crescere dell’entropia riguarda soltanto un cosiddetto “sistema chiuso”, quale difficilmente può essere considerato l’universo. Circa invece l’altra previsione alternativa, oggi peraltro negletta, per la quale l’espansione potrebbe rovesciarsi nel suo opposto ed esatto speculare e divenire una contrazione in cui il film già visto si riavvolge all’indietro, che dire se non che qui sembra tornare il vecchio e infondato timore settecentesco di un collasso gravitazionale di tutte le stelle e galassie dell’universo in un punto unico, mentre veramente nulla sembra rivelare la conoscenza dell’idea di “irreversibilità” quale è stata elaborata da Boltzmann a Poincaré a Prigogine? Nell’uno come nell’altro caso la teoria del Big Bang appare costruita sull’immagine meccanica estremamente rozza e semplificata di un universo gettato nello spazio come un missile o una palla di cannone scagliata in alto che o si allontana sempre più fuggendo dal campo gravitazionale o, trattenuta dalla forza gravitazionale, ricade su se stessa al punto di partenza. Certamente non lo si può definire un modello cosmologico particolarmente elaborato e sofisticato. Proviamo a pensare invece che nell’universo avvengano continuamente processi di formazione e distruzione e che in esso continuamente vi siano galassie e stelle che nascono e muoiono. Per la cosiddetta legge di Hubble si vuole che le galassie più lontane da noi siano anche le più veloci, e per la teoria dell’espansione si vuole che esse siano anche le più antiche in quanto più vicine all’accelerazione iniziale e per questo veloci. Senonché, quali sarebbero le galassie più distanti (e più veloci, e più antiche)? In realtà, quasi tutte: poiché infatti, non potendosi pensare che noi siamo il centro dell’universo da cui tutte le galassie si allontanano, si vuole che ogni galassia in allontanamento da noi si allontani anche da tutte le altre, tranne le immediatamente prossime, e ne sia quindi distante, allora ne consegue che per la cosmologia dinamista quasi tutte le galassie sarebbero antiche, in quanto formate molto tempo fa, dopo l’esplo503
sione. Il truismo è evidente quando ad esempio in un testo si dice: l’età dell’universo è «actuellement estimé à 15 milliards d’années environ [...]. Or, les estimations d’âges de planètes, étoiles, galaxies, donnent à peu près toutes les valeurs possibles entre 0 et 15 milliards d’années», donde la conclusione trionfale: «Un succès pour le Big Bang!»84. Ma quale successo? In realtà è solo un circolo vizioso: perché non è che prima si è calcolata l’età dell’universo in 15 miliardi di anni e poi si è scoperto che l’età delle stelle rientra in quel parametro quale conferma bensì, esattamente al contrario, prima si è calcolata l’età delle stelle e poi su quell’età si è calcolata in modo compatibile la supposta età dell’universo. In realtà, che l’universo reale sia equivalente o poco più grande dell’universo osservabile è cosa ogni volta detta e ogni volta puntualmente smentita dal perfezionamento degli strumenti di osservazione, cosicché di continuo nei decenni l’ultima e più lontana galassia avvistata costringe a retrodatare l’universo. E che poi la galassia più lontana sia anche necessariamente la più antica, è falso: si vuole infatti che una galassia distante dieci miliardi di anni luce sia antica, perché essa esisteva già dieci miliardi di anni fa quando la sua luce cominciò il viaggio per raggiungerci, senonché vista da una galassia lontana pochi milioni di anni luce questa stessa galassia non apparirà affatto antica, donde la possibilità che una galassia a noi vicina e ritenuta giovane appaia antica ad un osservatore lontano raggiunto dalla sua luce miliardi di anni dopo. L’idea di un cosmo che da quell’evento mitico non produce più nulla di nuovo non è supportata da nulla. In realtà non vi è alcun motivo per pensare che le stelle e le galassie si siano formate tutte più o meno insieme 15 miliardi di anni fa e che da allora siano state scagliate nello spazio a morirvi. Alla fin fine, si dice che l’universo abbia 15 miliardi di anni solo perché l’ultima e più lontana galassia scoperta (1998) dista 13 miliardi di anni luce, cosicché l’universo (dandogli un paio di miliardi di anni per formare le
84 M. Lachièze-Rey, Le Big Bang, in AA.VV., Qu’est-ce que l’Univers?, Paris 2001, Odile Jacob, p. 252.
504
galassie dopo il Botto) avrebbe appunto 15 miliardi di anni. Ma evidentemente il fatto che nell’universo non siano mai state trovate stelle la cui antichità con certezza superi i 15 miliardi di anni, non significa che dunque l’età dell’universo sia 15 miliardi di anni, proprio come il fatto che sulla Terra pochi uomini superino l’età di cent’anni non significa che la specie umana esista da poco più di cent’anni: che non si trovino stelle più vecchie di 15 miliardi di anni significa semplicemente anzitutto che l’età di una stella difficilmente supera i 15 miliardi di anni, proprio come l’età dell’uomo difficilmente supera i 100 anni, e comunque le galassie necessariamente avranno una vita ben maggiore delle stelle di varia età che contengono. È dunque un errore credere che l’età di stelle e galassie sia un indizio da cui ricavare una pretesa età dell’universo. Piuttosto si può dire che nell’universo continuamente le stelle esplodono, collassano, si dissolvono ma anche nascono, si formano, si sviluppano. Le strutture dinamiche entropiche e dissipative, come afferma Prigogine85, non sono semplicemente entropiche e catastrofiche in quanto con la loro instabilità e fluttuazione e con il loro disordine caotico e asimmetrico introducono anche le irregolarità e lo squilibrio necessario a produrre determinati “punti di biforcazione”, ove il sistema supera una data soglia critica con sviluppi impredicibili perché soggetti a molte variabili, così innescando nuovi processi creativi e configurazioni d’ordine fino alla formazione dei sistemi stellari (invece, come si sa, lo stato di massimo equilibrio termodinamico è anche lo stato di massimo disordine entropico). La sala parto dell’universo è sempre funzionante ed è errato, in questo duplice e continuo processo di vita e di morte, accentuare solo la morte Di I. Prigogine cfr. Étude thermodynamique des phénomènes irréversibles, Liège 1947, Desoer; Structure, stabilité et fluctuations, Paris 1971, Masson (con P. Glansdorff); Self-Organisation in Non-Equilibrium System, 1977 (con G. Nicolis), tr. it. Le strutture dissipative. Auto-organizzazione dei sistemi termodinamici in non-equilibrio, Firenze 1982, Sansoni; Entre le temps et l’éternité, 1988 (con I. Stengers), tr. it., Torino 1989, Bollati Boringhieri. 85
505
vedendo la vita solo e unicamente all’inizio. La nebulosa di Orione, la nebulosa del Granchio: sono colme di sistemi stellari in formazione (le nebulose sono, appunto, miscugli di gas e polveri in cui molte stelle si sono sciolte cosicché altre possono formarsi). Le Pleiadi: sono centinaia di stelle giovani nate non 15 miliardi di anni fa bensì in tempi molto più recenti. Inoltre le supernove di recente esplosione e da noi non troppo lontane rinvenute nell’universo sono necessariamente stelle giovani, in quanto le sappiamo di breve vita. E certamente anche nell’universo più lontano esistono stelle giovani: sicuramente noi non possiamo ancora vedere la luce di stelle lontane nascenti o appena nate per il semplice fatto che questa luce impiegherà milioni o miliardi di anni per giungere a noi: ma noi, come dice la canzone, noi non ci saremo. Del resto, come si può dire con certezza che l’universo si sia formato in un’epoca determinata, oggi posta all’incirca in quindici miliardi di anni fa? Come sappiamo, sostanzialmente in tre modi si sono fatti questi calcoli: a) calcolando una certa velocità per la pretesa espansione dell’universo, e dunque assegnando un certo valore alla costante di Hubble, l’inverso di questa velocità e dunque di questa costante darebbe l’età dell’universo. In soldoni, un’espansione veloce corrisponderebbe a un universo giovane (per il poco tempo impiegato per giungere allo stato attuale, con le galassie alle attuali distanze) e un’espansione lenta a un universo più antico; b) credendo di ripercorrere a ritroso l’espansione, che si assume raddoppiata ogni 1300 milioni di anni, si dimezza l’universo assunto come sferico ogni 1300 milioni di anni al contempo raddoppiandone la temperatura così giungendo ad una certa epoca ad un punto nullo con temperatura infinita o altissima; c) assumendo le galassie più lontane ai confini dell’universo osservabile come le più antiche, si assume l’età dell’universo come precedente di un paio di miliardi di anni la galassia più antica (giusto il tempo affinché la galassia si formi dopo la presunta nascita dell’universo). Senonché, e come si è visto, questi tre metodi di datazione – che 506
oltretutto forniscono risultanze fra loro contraddittorie, donde la continua incertezza sulla presunta età dell’universo – sono tutti contestabilissimi per le viziate assunzioni implicite di fondo. A parte naturalmente il fatto che i primi due metodi assumono come indici di rilevazione dell’età dell’universo la costante di Hubble e l’espansione dell’universo, di cui crediamo di aver sufficientemente mostrato la falsità, si deve dire che in questi metodi sono evidenti altre assunzioni indimostrabili: infatti che l’universo raddoppi di volume ogni 1300 milioni di anni, che l’universo reale sia una sfera e una sfera equivalente all’universo osservabile, che la galassia più lontana sia anche la più antica e la più vicina alla supposta origine, tutti questi sono assunti ad hoc quando non puri e semplici errori. Dunque, pretendere di dedurre in base alle teorie cosmologiche attuali l’età dell’universo, pretendere di dedurre insomma l’epoca della fantasmatica esplosione, appare alquanto improprio. A ciò vorremmo aggiungere che il voler dare praticamente per certo che l’universo abbia avuto un inizio (un inizio quale che sia, anche senza Big Bang) appare illegittimo. Parimenti l’idea che con la creazione dell’universo vi sarebbe stata anche la creazione dello spazio e del tempo, per quanto la si ritrovi anche in Agostino, è tutt’altro che una certezza ed ha anzi in sé qualcosa di incomprensibile. In realtà potrebbe anche essere che l’universo non abbia mai avuto inizio così come potrebbe non avere mai fine: la vecchia tesi parmenidea e aristotelica dell’aeternitas mundi (per quanto Aristotele la contaminasse con l’errata idea dell’eternità degli stessi corpi celesti contenuti nell’universo) potrebbe oggi riacquistare senso. Così ancora risuonano, dopo 2600 anni, le parole del venerando Parmenide (fr. 8): Essendo ingenerato è anche imperituro, tutt’intero, unico, immobile e senza fine nel tempo. Non mai era né sarà perché è ora […]. Quale origine gli vuoi cercare? Come e donde il suo nascere? 507
Dal non essere non ti permetterò né di dirlo né di pensarlo. Infatti non si può né dire né pensare ciò che non è. Quale necessità potrebbe mai aver spinto a nascere dopo o prima ciò che comincerebbe dal nulla? […] Né nascere né perire gli ha permesso la Giustizia (Dike) […]. Immobile permane nel limite di possenti legami senza conoscere né principio né fine poiché nascere e perire sono stati risospinti ben lungi scacciati dalla convinzione verace.
Parmenide proclamava impossibile la nascita dell’universo, impossibile la sua morte, e dunque ne diceva l’eternità temporale. Lo pensava anche invero come una sfera spazialmente finita, ma in seguito Melisso, Democrito e Anassagora dissero infinito l’universo. Parimenti Parmenide diceva l’immobilità dell’universo, immobilità che naturalmente noi oggi possiamo intendere soltanto come un’immobilità dell’universo e non certo delle sue singole stelle. Soprattutto colpisce nel pensatore di Elea l’obiezione decisiva contro l’idea di una nascita dell’universo: questa nascita infatti – pensata a fondo – sembra condurre a un’idea di creazione dal nulla, ma è contraddittorio che l’essere venga dal nulla. Infatti abbiamo visto che nella teoria del Big Bang la Singolarità non può esistere da un’eternità, in quanto imploderebbe istantaneamente, e dunque ne verrebbe l’ibrido concettuale di una creazione dell’universo dal nulla con un’esplosione. In modo notevole poi Parmenide rileva l’incongruità di un inizio dal nulla dell’universo: perché mai un inizio proprio in quel momento e non in un altro? In termini moderni: perché l’universo se ne sarebbe stato quieto nel suo nulla per un’eternità per poi improvvisamente esplodere come singolarità o “vuoto quantico” proprio 18 miliardi di anni fa e non 18.000 o 180.000 miliardi di anni fa? In ogni modo non intendiamo entrare in una discussione speculativa sull’eternità e la creazione, il finito e l’infinito. Siamo memori delle antinomie kantiane e dei limiti costitutivi della mente umana al riguardo. Non saremo così ingenui da criticare il dogmatismo di una teoria pseudoscientifica che pretende di stabilire 508
la data del primo centesimo di secondo dell’universo, per poi opporre ad essa una posizione altrettanto dogmatica in favore dell’idea della aeternitas mundi. In questo senso dichiariamo di non avere un’alternativa propriamente detta alla cosmologia corrente, per quanto riguarda gli enigmi della creazione e dell’eterno e dell’infinito. Noi vorremmo infatti che la critica alla falsa teoria del Big Bang possa essere condivisa sia da chi ritiene che l’universo abbia avuto un inizio (ma non quell’inizio!) sia da chi lo pensa eterno. Tuttavia se è lecito, come credo sia, formulare un’ipotesi o definire un’opzione (beninteso un’opzione motivata e ragionata e non mera espressione di una preferenza soggettiva), allora ci sia consentita ancora qualche parola. Per parte nostra pensiamo a un silente scenario costituito da uno spazio e un tempo assoluti, nel quale da sempre e per sempre si generano mari di particelle costituenti nubi di gas e polveri in cui le particelle appaiono e scompaiono, si generano e decadono, si mescolano e si scindono in un gioco eterno. Inutile domandare se queste particelle vengano dal nulla, o da una sorta di virtuali monadi leibniziane destinate a prendere sostanza, o se tutte vengano da altre particelle precedenti in un regressus ad infinitum: sebbene noi si inclini per la seconda soluzione, nulla possiamo dirne. Però, una volta assunto (non come inizio, ma come sfondo continuo) questo mare di particelle, tutto il resto è abbastanza noto e ne viene di conseguenza: la formazione, stante le fluttuazioni e le asimmetrie nel mare di fondo di nubi di gas e polveri, di condensazioni con moti circolari a vortice e produzione al centro (per l’alta densità e temperatura e per l’attrazione gravitazionale) di nuclei protostellari e protogalattici e con essi dei sistemi stellari. Già Tommaso d’Aquino diceva del resto che si potrebbe intendere la creazione non come un atto unico e singolo avvenuto una sola volta in un determinato tempo passato, bensì come creazione che continuamente avviene dall’eternità: in tal modo scompare una falsa alternativa, e la creazione e l’eternità dell’universo appaiono quali pensieri complementari e non incompatibili. Parimenti, come la creazione, così anche il movimento delle ga509
lassie può non essere affatto qualcosa di univocamente determinato: le galassie si muovono certamente, ma non sembra proprio nel modo indicato da Hubble; non vi è alcun motivo per pensare che stelle e galassie si muovano di un unico movimento meccanico di fuga in avanti a partire da un punto iniziale. L’ordine imposto da Hubble con la sua univoca e forzata recessione galattica e rigida processione cosmologica è un ordine coatto e artificioso, una camicia di forza che pretende imbrigliare il reale e che non rende affatto conto della reale dinamica dei moti delle galassie. Ma anche la teoria dello stato stazionario, in cui la creazione di materia ne compenserebbe esattamente e miracolosamente la diluizione e per la quale il posto lasciato vuoto da una galassia allontanata “deve” essere rimpiazzato da una nuova galassia che vi si forma affinché ne fieret vacuum, perché così vuole il “principio cosmologico perfetto” che comanda all’universo di essere “stazionario” e dunque perfettamente omogeneo-uniforme, è parimenti una camicia di forza che pretende imbrigliare il movimento reale (tutt’altro che perfetto) delle galassie. Viceversa le galassie, che pur rivelano disposizioni ordinate, ricordano in certo modo il movimento – quasi febbrile e convulso – di un gas termodinamico in cui le molecole (= galassie) si muovono senza mai tornare esattamente al punto di partenza in una libera dinamica soltanto governata dalle attrazioni reciproche con i conseguenti scontri, deviazioni, allontanamenti, vicinanze orbitali etc.: il centro di una galassia, così denso con i suoi miliardi di stelle, non sembra così lontano da un moto browniano di particelle. Così se una galassia si muove con tutte le variazioni di velocità e deviazioni del caso, questo non sarà per lo spazio che la allontana bensì in quanto evidentemente attratta gravitazionalmente da un’altra galassia o da altra sorgente: una galassia che si allontana da noi non si potrà al tempo stesso allontanare da tutte le altre bensì necessariamente si avvicinerà a qualche altra sorgente gravitazionale. Certamente va detto che l’idea che presiede alla teoria del Big Bang non è priva di una sua nobile origine. L’idea che la Monade, 510
il Minimum contenga in sé il Maximum, l’idea che il punto si dilati a raggiera nello spazio irraggiando e generando dinamicamente la sfera, l’idea dell’espansione sferica a partire da un centro e della contrazione con ritorno al centro, l’idea dell’unità dispiegata e poi contratta ovvero la reciproca implicazione fra explicatio e complicatio, è un’idea che si ritrova ovunque nelle tradizioni più antiche: la si ritrova nei più antichi testi sacri indiani, i Rgveda (X.149), la si ritrova nel pitagorismo antico, in Cusano, in Bruno. Così per Eraclito «dall’Uno tutte le cose e tutte le cose all’Uno» (frammento 10); Dante (Paradiso XXVIII.16-18) equipara la divinità al Punto; nel Corpus Hermeticum si dice che Deus est sphaera intelligibilis cuius centrum ubique atque circumferentia nusquam; per Roberto Grossatesta la creazione ha origine quale Fiat Lux dalla emanazione istantanea e in tutte le direzioni da un punto di divina Lux – Fulgor e Splendor – che poi diventa lumen fisico e forma corporeitatis; Riccardo di Middleton (XIII sec.) disse che Dio, poiché può tutto, potrebbe certamente produrre una grandezza che cresca in una dimensione senza fine; e l’umanista Charles de Bovelles, nel Liber de nihilo (1511), rappresentò Dio come un soffiatore di vetro che soffia nel globo dell’universo il suo spirito o soffio divino così gonfiando la sfera del mondo e respingendone il nulla all’esterno. Ma quasi ovunque in questi casi si tratta in realtà di un’idea religiosa, teologica e metafisica essenzialmente figurativa e simbolica, quando non indice di una pura possibilità non attuale, che cercando di immaginare in qualche modo la creazione faceva riferimento a una matematica e a una cosmologia sapienziale non direttamente traducibile sul piano fisico e cosmologico e che certo non intendeva ridurre il divino a un soffiatore di Murano. Viceversa invece nella teoria del Big Bang: in essa, nell’oblio dei simboli dell’antica sapienza, si materializzano il punto e la sfera in una rappresentazione meccanica in cui la mente ubiqua pretende di essere ovunque e di descrivere un evento storico, temporale, spaziale che ritiene avvenuto 15 miliardi di anni or sono. Per questo paradossi e antinomie dovevano necessariamente insorgere ad indicare il limite costitutivo di siffatta rappresentazione. 511
APPENDICE FRA CREAZIONE ED ETERNITÀ
I princìpi di conservazione: analisi storico-critica e posizione del problema Faire l’histoire d’un principe physique c’est, en même temps, en faire l’analyse logique. (P. Duhem, La théorie physique)
512
513
I princìpi di conservazione nell’antichità e la loro radice esistenziale Essendo ingenerato è anche imperituro, tutt’intero, unico, immobile e senza fine nel tempo. Non mai era né sarà perché è ora […]. Quale origine gli vuoi cercare? Come e donde il suo nascere? Dal non essere non ti permetterò né di dirlo né di pensarlo. Infatti non si può né dire né pensare ciò che non è. Quale necessità potrebbe mai aver spinto a nascere dopo o prima ciò che comincerebbe dal nulla? […] Né nascere né perire gli ha permesso la Giustizia (D…kh) […]. Immobile permane nel limite di possenti legami senza conoscere né principio né fine poiché nascere e perire sono stati risospinti ben lungi scacciati da una dimostrazione veritiera.
Così il «venerando e terribile» Parmenide di Elea, come lo definiva Platone, nel suo grandioso poema Sulla Natura (Peri fÚsewj), frammento 8), in un brano straordinario che abbiamo già ricordato. Parmenide ammoniva: l’essere è ed è eterno, senza nascita né morte, perché non è possibile che l’essere nasca dal nulla né che finisca in nulla. Anche Empedocle, pur in un diverso contesto di pensiero, diceva che l’essere materiale (nel suo intendimento costituito dalle quattro “radici” solitamente tradotte in terra, acqua, aria, fuoco) permane eternamente nei cicli delle sue trasformazioni senza conoscere né nascita né morte. Così egli dice nei frammenti 8, 11 e 12 del suo poema Peri… fÚsewj: Un’altra cosa ti dirò: non vi è nascita di nessuna delle cose mortali né fine alcuna di morte funesta 514
515
ma solo mescolanza e separazione di cose mescolate ma il nome di nascita, per queste cose, è usato dagli uomini. Fanciulli: non certo solleciti sono i loro pensieri, essi che credono che possa nascere ciò che prima non era essi che credono che qualcosa muoia e si distrugga del tutto. Da ciò che non è, è impossibile che nasca ed è cosa irrealizzabile e inaudita che l’ente si distrugga.
Anassagora ribadì un concetto analogo nel frammento 17: Del nascere e perire i Greci non hanno una giusta concezione, perché nessuna cosa nasce né perisce ma ogni cosa si compone e si separa da cose esistenti. Si dovrebbe chiamare il nascere comporsi e il perire separarsi.
In seguito Lucrezio, nel De rerum natura (I, 149-150; 215-216; 248-249; 262-263), motiverà lo stesso principio: Fissiamo esordendo il principio che mai nulla nasce dal nulla per dono divino mai. […] Di nuovo le cose inoltre nei propri elementi Natura dissolve e mai le disperde nel niente mai. […] Nessuna cosa del mondo dunque finisce nel niente: ma tutto, pur deformato, ritorna agli elementi della materia eterna. […] Non finiscono dunque in niente i corpi visibili perché una cosa dall’altra Natura ricrea […].
516
Intende Lucrezio (I, 180 sgg.): se le cose nascessero dal nulla le si vedrebbe nascere improvvisamente a caso qua e là da un’ombra insondabile, ed altrettanto improvvisamente, in modo magico, esse svanirebbero in quel nulla da cui sarebbero apparse; gli uomini salterebbero fuori all’improvviso già adulti, gli uccelli comparirebbero all’improvviso in cielo, le piante balzerebbero fuori dalla terra già grandi. Invece non è così, proseguiva il poeta-filosofo: poiché la materia è eterna, nulla viene dal nulla e nulla finisce in nulla; tutto ciò che è nel mondo non è altro, come le diverse figure fatte con la sabbia, che una diversa configurazione di questa materia eterna; le cose e gli esseri nascono non dal nulla ma dal moto degli atomi, e crescono lentamente e a poco a poco. Gli atomi sono eterni, indistruttibili, indivisibili, impossibili da spezzare, semplici e non composti (I, 545 sgg., 570 sgg., 615 sgg.). È come se Lucrezio, di fronte allo spettacolo effimero e transeunte degli aggregati atomici, volesse salvare qualcosa: nella perenne mutazione deve, assolutamente deve esserci qualcosa di immutabile, altrimenti tutto infine si distruggerebbe nel nulla, e questo qualcosa di immutabile sono gli atomi; gli atomi, almeno loro, devono essere eterni, affinché il mutevole mondo abbia una qualche consistenza: «bisogna che avanzi dei corpi qualcosa di incolume se vuoi che del tutto il mondo non cada nel nulla e dal nulla riviva» (I, 672-674). È un po’ come nel gioco della staffetta, in cui i corridori si passano la staffetta che non deve mai cadere anche se essi possono nel passarla fermarsi esausti: nei giochi olimpici dell’antica Grecia questa staffetta era la fiaccola che non doveva mai spegnersi, simbolo della vita eterna. C’è dunque qualcosa di eterno, che si conserva eternamente, e le cose non cadono nel nulla: la morte non intacca gli atomi ma solo li disperde, e poi per altra via li ricongiunge. L’anima – poiché composta essa stessa di atomi – è mortale, come Lucrezio cerca di dimostrare per pagine e pagine nel III Libro, ma gli atomi no. Appariva così, per la prima volta in occidente, un fondamentale principio filosofico e metafisico: il principio di conservazione della materia per cui ex nihilo nihil fit e nihil ad nihilum fit e per il quale «nulla si crea e nulla si distrugge ma solo si trasforma». Una effi517
cace descrizione di questo bronzeo mondo dominato da una eterna materia, perennemente immutabile nelle sue interne ridistribuzioni, appare in un frammento di Nietzsche: «E volete sapere che cos’è per me ‘il mondo’? Ve lo devo mostrare nel mio specchio? Questo mondo: un mostro di forza, senza principio e senza fine, una salda, bronzea massa di forza, che non diviene né più grande né più piccola, che non si consuma ma soltanto si trasforma, un complesso di grandezza immutabile, un’amministrazione senza spese né perdite, ma del pari senza accrescimento, senza entrate»1. Non a caso Nietzsche, che era un grande conoscitore del pensiero greco, veicolando questa immagine di un mondo immutabile finì per riprendere la tesi stoica dell’eterno ritorno di tutte le cose. Il principio di conservazione della materia è legato a indubbie motivazioni logiche stante l’esigenza della mente umana di rinvenire nel flusso molteplice e cangiante del divenire qualcosa di costante, di immutabile, di invariante; ma soprattutto le motivazioni logiche che inducono a porre il principio di conservazione, per cui nulla viene dal nulla né finisce nel nulla, sono nell’incomprensibilità dell’idea che il nulla diventi qualcosa e il qualcosa scompaia in nulla2. Esso però non risponde soltanto a un’esigenza puramente logica della mente, bensì affonda le sue radici psichiche nel terrore della morte ed è legato ad un insopprimibile bisogno dello spirito di rintracciare qualcosa di stabile nel flusso fenomenico. La psicologia evolutiva, del resto, ha ben mostrato l’angoscia del neonato di pochi mesi di fronte all’apparire e allo scomparire degli oggetti. Proprio dall’angosciosa percezione dell’apparire e dello scomparire delle cose, connessa al timore del divenire e al terrore della morte, viene, per l’uomo, il bisogno assoluto di affermare che nel muta1 F. Nietzsche, Frammento postumo 38, giugno-luglio 1885 (in Frammenti postumi, Milano 1975, Adelphi). 2 V. al riguardo la posizione neoeleatica e megarica di E. Severino che (come si è visto) sostiene l’impossibilità del passaggio fra essere e nulla pervenendo alla tesi dell’eternità degli enti tutti e respingendo il nichilismo come credenza falsa e folle (E. Severino, La struttura originaria, cit., e Essenza del nichilismo, cit.).
518
mento qualcosa permane costante e invariabile: questa è l’imprescindibile radice metafisica e religiosa e infine psichica del principio di conservazione, qui si trovano le radici “umane, troppo umane” anche dei più astratti concetti filosofici e scientifici. In questo senso la radice del principio di conservazione appare in ultima analisi esistenziale. I princìpi di conservazione nella fisica classica Il principio filosofico e metafisico di conservazione – principio al tempo stesso logico e psicologico – fu l’assunto cardine che guidò per oltre due millenni la scienza occidentale. Dall’assunto metafisico della conservazione della materia eterna, con il corollario per cui nulla si crea e nulla si distrugge, vennero infatti, variamente declinati, tutti i princìpi di conservazione propri della scienza occidentale: principio di conservazione della forza, del moto, della massa, dell’energia, del momento angolare, della carica etc. Consideriamo il principio classico di inerzia che (in particolar modo nella formulazione cartesiana) è un principio di conservazione in quanto per esso un corpo non perturbato da forze esterne conserva indefinitamente il proprio stato e resta sempre come sta, ovvero se è in quiete resta in quiete e se è in moto resta in moto. Il suddetto principio, chiaramente, ha un valore essenzialmente ideale. Non si tratta semplicemente del fatto che noi non possiamo osservare direttamente cosa faccia un corpo in un tempo infinito onde verificare il principio, né del fatto che in realtà una condizione di attrito e di perturbazione altera sempre la condizione ideale descritta dal principio. Si tratta proprio del fatto che una massa qualsiasi – anche apparentemente statica e immobile – è in realtà composta di atomi e di particelle in perenne moto, cosicché questa febbrile agitazione delle particelle non potrà infine, del tutto indipendentemente da perturbazioni esterne e per propria dinamica interna, non alterare e dissolvere il composto stesso impedendo quella eterna stasi di quiete o moto rettilineo sancita dal principio: il prin519
cipio di inerzia, che suppone la conservazione di una quiete o di un moto eterni dei corpi non perturbati, ignora che tale conservazione di una stasi eterna è insussistente al livello delle particelle componenti i corpi. Proprio qui è ravvisabile la metafisica implicita nel principio di inerzia: esso infatti sembra implicitamente presupporre che la condizione naturale di un corpo sia la quiete, e che un corpo debba preliminarmente essere posto in moto da un intervento esterno (secondo l’antico adagio per cui omne quod movetur ab alio movetur) per poi mantenere ad infinitum il moto rettilineo uniforme: in virtù di questa concezione tutta la materia è di per sé inerte e posta in moto solo dall’esterno, ed anche il moto (rettilineo uniforme) è inerzia, è uno “stare” nel moto. Questo conduce a pensare, ed esplicitamente in Lagrange3, che un atomo sia di per sé immobile e che venga posto in moto soltanto perché preso nella rete interattiva e attrattiva delle altre particelle: tutte le particelle sarebbero di per sé ferme, immobili, e soltanto il gioco delle reciproche attrazioni gravitazionali le porrebbe in moto; una particella in moto sarebbe in moto soltanto perché attratta da altre. Applicando questo discorso al mondo macroscopico ne viene, ad esempio, che una stella possa ruotare su se stessa non per azione propria ma solo per l’azione gravitazionale di altre stelle (principio di Mach). Viceversa questa idea di sempiterna conservazione inerziale della quiete potrebbe essere falsa se invece il moto degli atomi fosse non semplicemente e soltanto indotto e derivato dall’esterno, non soltanto estrinseco ed adveniens extra bensì, stante l’inesauribile energia interna della particella, fosse anzitutto un moto proprio, intrinseco e costitutivo come riteneva l’antico atomismo: la particella sembra muoversi di per sé in un perenne moto perpetuo come se non potesse stare ferma. Essa sembra avere un moto proprio mentre invece il clinamen, la deviazione da questo moto, non appare autogeno come riteneva
Epicuro bensì causato dalle interazioni e dagli urti che deviando i moti delle particelle ne generano la folle e disordinata danza. Al riguardo verrebbe da ripensare alla formulazione aristotelica, per la quale il movimento è qualcosa di intrinseco e non estrinseco al corpo, actus entis in potentia. In questo senso, almeno se esaminato a livello del mondo microscopico, il principio di inerzia, ovvero il principio di conservazione della quiete o del moto rettilineo, sembra non applicabile e ci può perfino apparire come rispondente in ultima analisi ad un desiderio di eternità, a un desiderio di bloccare e immobilizzare eternamente il dinamismo del reale affinché nulla muti, quasi una risposta alla paura della morte che peraltro non vede come (secondo una bella espressione di Galileo) proprio questa sempiterna immobilità sia una immagine stessa della morte. Dopo il principio di inerzia il principio di conservazione scientificamente meglio definito fu, nella teorizzazione di Cartesio, quello della conservazione del movimento o della quantitas motus, che peraltro deriva dal primo o ne è connesso. In questa impostazione l’aspetto rilevante non è il singolo corpo in moto quanto piuttosto il movimento, o meglio la quantità complessiva di movimento che Dio ha posto nell’universo all’atto della creazione e che sempre conserva: nella XXVI proposizione della seconda parte dei Principia philosophiae Cartesio stabilisce che «Dio è la prima causa del movimento e nell’universo si conserva sempre la stessa quantità di movimento» («Deum esse primariam motus causam, et eandem semper motus quantitatem in universo conservare»)4. Prosegue Cartesio: «Dio […], al principio, ha creato la materia insieme al movimento e alla quiete, e ora […] conserva tanto di movimento e di quiete in tutta la materia quanto allora ve ne ha posto. Infatti, sebbene quel movimento nella materia mossa non sia altro che un moto di essa, ha tuttavia una quantità certa e determinata che […]
3 J.L. Lagrange, De l’origine et de l’établissement des mouvements astronomiques, 1878, in Mèmoires des savants, Bruxelles 1879, Académie Royale, vol. 42, pp. 1-70.
4 R. Descartes, Principia philosophiae, 1644, II, prop. XXVI (tr. it. R. Cartesio, I princìpi di filosofia, in Opere filosofiche, Torino 1969, Utet, p. 657).
520
521
può esser sempre la stessa […], anche se cambia nelle sue singole parti. Per esempio […] quanto più lento diventa il movimento di una parte tanto più veloce diventa il movimento di un’altra parte […]. Onde segue che è necessariamente conforme alla ragione ritenere, dal fatto che Dio […] conservi interamente tutta questa materia nello stesso modo e con lo stesso ordine nel quale dapprima la creò, che conservi anche in essa sempre uguale la quantità di movimento». Secondo Cartesio Dio conserva incessantemente nella materia e nel mondo un’eguale quantitas motus, la stessa immessavi all’atto della creazione: si tratta di una quantità assoluta di movimento che, stabilita illo tempore una volta per tutte e per sempre da Dio, è indifferente ai corpi che realmente si muovono e di volta in volta si ridistribuisce in essi e attraverso essi conservandosi nella sua quantità complessiva. La quantità complessiva di movimento secondo Cartesio non aumenta e non diminuisce mai: essa è «sempre la stessa» e tuttavia «cambia nelle sue singole parti», cosicché ogni qual volta il movimento di una parte diminuisce quello di qualche altra parte aumenta in proporzione in modo tale che sia conservata la quantità di movimento iniziale. In particolar modo nelle collisioni la quantità totale di moto coinvolta rimarrà costante. Scrive infatti Cartesio: «quando un corpo muovendosi ne incontra un altro, se ha minor forza a proseguire in linea retta di quello che gli fa resistenza devía verso un’altra parte e, mantenendo il suo movimento, perde solo la direzione del moto; ma se ha una forza maggiore, porta con sé l’altro corpo e gli dà tanto del suo movimento quanto ne perde». Nel primo caso, Cartesio specifica: «nell’urto contro un corpo duro appare la causa che impedisce che il movimento dell’altro corpo, nel quale urta, mantenga la stessa direzione, ma essa non fa perdere o diminuire movimento, perché il movimento non è contrario al movimento: ne segue che il movimento non deve per questo diminuire»5. Cartesio
esemplifica con il caso del rimbalzo enucleando la prima delle sue sette regole sulle modalità di urto fra i corpi (de corporum concursu). In virtù di questa regola due corpi solidi uguali (oggi diremmo: due sfere omogenee di ugual massa) che si scontrano su una stessa linea retta con identica velocità ma in direzione contraria, dunque l’uno verso l’altro, dopo essersi urtati rimbalzano entrambi con la medesima velocità in direzione opposta6. Invece l’altro caso contemplato da Cartesio (di cui i successivi non sono che varianti) è quello di un corpo che urtandone un altro (meno “forte”) vi trasmette e trasferisce il suo movimento in parte (così rallentando) o totalmente (arrestandosi), in ogni modo perdendo tanto movimento quanto ne trasferisce all’altro. In questi casi, pur non essendo mantenuta la quantità parziale di movimento (vale a dire il movimento del singolo corpo), è però sempre mantenuta la quantità totale. Dice Cartesio: «Dio in principio, creando il mondo, non ha mosso solamente le sue diverse parti, ma ha fatto anche in modo che le une urtassero le altre e che i loro movimenti si trasferissero fra loro; cosicché ora egli, conservando il movimento con la medesima azione e con le medesime leggi con le quali lo creò, conserva la quantità di movimento non sempre legata alle stesse parti della materia, ma che passa dalle une alle altre, a seconda di come si urtano»7. Un corpo può dunque, urtandone un altro, conservare la propria quantità di movimento semplicemente invertendo la direzione ma, se avviene trasmissione di movimento da un corpo all’altro, allora un corpo comunica a un altro una quantità di movimento né maggiore né minore di quella che perde. Un corpo non può comunicare movimento senza perderne altrettanto: se impartisce ad un altro una certa velocità, la sua diminuirà di altrettanto. In tal modo, nel passaggio da un corpo all’altro, la quantità totale di movimento sarà sempre conservata. Abbiamo dunque un quantum complessivo di movimento disponibile, dato una volta per tutte da
6 5
522
Ivi, II, prop. XLI (tr. it. p. 662).
7
Ivi, II, prop. XLVI (tr. it. p. 664). Ivi, II, prop. XLII (tr. it. p. 662).
523
Dio all’atto della creazione, ed esso passa, circola, si trasmette da un corpo all’altro: la quantità di movimento, «non sempre legata alle stesse parti della materia», sempre uguale, sempre identica e inalterabile, viene di volta in volta ‘caricata’ sui corpi che ne sono i temporanei portatori e quindi ridistribuita in una dialettica di urti, rimbalzi, variazioni di velocità e di direzione, scambi reciproci di movimento, in un complesso ma misurabile gioco di ripartizioni in cui la quantitas motus si ridistribuisce negli urti ma si conserva nella sua globalità. Senonché Huygens, riesaminando i fenomeni analizzati da Cartesio, dimostrò false le sue sette leggi sull’urto dei corpi, tranne in parte la prima. Distinguendo fra corpi elastici e anelastici, e introducendo il principio di conservazione dell’energia cinetica, egli confermò la prima regola cartesiana ma limitatamente al caso di urto fra corpi perfettamente elastici: l’energia cinetica si conserva in caso di urto fra due corpi elastici ma non in caso di urto fra corpi anelastici.8 Quanto ormai appariva nella scienza occidentale è che i princìpi di conservazione, fin dall’antichità cardini della scienza occidentale, dovevano essere ripensati e riformulati per potersi riaffermare contro le falsificazioni. Newton mantenne i princìpi di conservazione aggiungendo la freccia vettoriale al rapporto massa-velocità (mv) indicante la quantità di moto: secondo Newton cioè la quantità di moto persa è utilizzata nel cambio della direzione del moto e del vettore velocità. Ma in ogni modo egli, già polemico nei confronti della teoria dei vortici, si rese conto dell’impossibilità di ritenere invariabilmente conservata – come voleva Cartesio – la quantitas motus (Optice, III Quaestio 30 e seguenti). Del resto lo stesso principio di reversibilità della meccanica classica, emblematizzato nel terzo principio newtoniano come principio di azione e di reazione, è anch’esso di tipo conserva-
tivo e tuttavia in esso la conservazione è per l’appunto un principio e non certo una risultanza manifesta: certamente infatti la palla sparata da un cannone acquista una certa quantità di moto in una direzione cosicché di conseguenza il cannone evidenzia un moto di rinculo nella direzione opposta ma, se la palla è scagliata per 600 metri ed il cannone rincula di mezzo metro (o per assurdo di dieci metri o di un centimetro), è un postulato e non un’evidenza osservativa dire che il rinculo del cannone è una reazione esattamente «uguale e contraria» al lancio del proiettile. Ma fu particolarmente in sede cosmologica che Newton ammise chiaramente contro ogni principio di conservazione che nell’universo vi è una costante e incessante diminuzione della quantitas motus, cosicché l’orologio dell’universo va scaricandosi sempre più per fermarsi infine: in particolare i pianeti perdono nei millenni velocità e dunque quantità di moto con la conseguenza che, non potendo più a un certo punto controbilanciare con le loro velocità di fuga le attrazioni gravitazionali del Sole, essi vi precipiteranno infine in un collasso gravitazionale. Newton salvava i princìpi di conservazione solo attraverso il ricorso ad un Deus ex machina: di tanto in tanto il Dio che ha creato l’orologio del mondo lo ricarica reimmettendovi nuovi incrementi di velocità e in tal modo riportando il mondo allo status quo ante, soltanto procrastinando però il disastro finale dell’universo nel giorno apocalittico della fine dei tempi. Come si vede, nella visione di Newton i princìpi di conservazione sono di fatto annullati, in quanto salvati solo pro tempore attraverso un intervento esterno e trascendente. Leibniz, su questo come su tanti altri punti, contestava Newton difendendo la conservazione del moto sancita dai princìpi conservativi: l’orologio del mondo, per Leibniz, non si scarica e non deve essere di tanto in tanto ricaricato perché Dio non è un cattivo orologiaio9.
8 Sulla teoria del moto in Cartesio v. W.R. Shea, The Magic of Numbers and Motion. The Scientific Career of René Descartes, Massachussets 1991, Watson Publishing (tr. it. La magia dei numeri e del moto. René Descartes e la scienza del Seicento, Torino 1994, Bollati Boringhieri).
Sulla polemica Leibniz-Newton v. A.R. Hall, Philosophers at war. The quarrel between Newton and Leibniz, Cambridge 1980, University Press (tr. it. Filosofi in guerra. La polemica tra Newton e Leibniz, Bologna 1982, Il Mulino); v. anche A.P. Laborda, Leibniz y Newton, 1981, tr. it. Leibniz e Newton, Milano 1986, Jaca Book.
524
9
525
In ambito più prettamente scientifico, rendendosi conto come già Huygens dell’impossibilità che il movimento si conservi anche in caso di urti anelastici in cui due corpi in moto urtandosi si arrestano, egli elaborò il principio di conservazione della forza viva (vis viva) dicendo che il movimento del corpo arrestato a livello macroscopico si è in realtà tradotto e polverizzato in un numero illimitato di minuscoli, impercettibili e più veloci movimenti delle sue particelle, cosicché il moto di un corpo si trasmette alle sue particelle mantenendosi come si mantiene il valore di una banconota di grande taglio cambiandola con tante banconote di piccolo taglio la cui somma dia un valore equivalente. Diventava così possibile dire che, se in un urto elastico l’energia cinetica iniziale è equivalente a quella finale, anche in un urto anelastico l’energia si conserva in quanto trasformata in energia interna dei corpi urtati. Apparivano ormai necessarie opportune precisazioni per mantenere la validità dei princìpi di conservazione che non si manifestava con evidenza e così, proprio fra il XVII e il XVIII secolo, onde giustificare la permanenza e dunque la validità dei suddetti princìpi, nasce con il primario contributo di Leibniz la prima formulazione del concetto di “energia potenziale”: accanto alla forza “attuale” ed effettiva, che non sempre appare mantenersi costante, si inizia ad ammettere l’esistenza di una forza “potenziale” o latente in cui la forza attuale apparentemente scomparsa e non conservata si sia come nascosta e immagazzinata come “potenza di agire”10. In tal modo diventava possibile dire che quanto più diminuisce l’energia cinetica tanto più aumenta quella potenziale: ad esempio il sasso lanciato in aria, quando si ferma per un istante prima di ricadere a terra, avrà in quell’istante energia cinetica nulla ma energia potenziale massima. In se-
10 Vedi G.W. Leibniz, Essay de dynamique, 1692, poi parzialmente confluito in Specimen Dynamicum, 1695 (in Matematischen Schriften, vol. VI, in Leibniz Sämtliche Schriften und Briefe, Berlin 1923, Akademie Verlag). Cfr. M. Guéroult, Dynamique et métaphisique leibnitienne, Paris 1934, Belles Lettres. Rinvio a M. de Paoli, La lingua nuova di Leibniz. Alle origini della scienza moderna, in Theoria Motus. Studi di epistemologia e storia della scienza, cit. pp. 68-82.
526
guito i teorici della termodinamica diranno che l’arresto del moto di un corpo si traduce in energia termica, sebbene insorga la difficoltà di verificare se veramente un corpo arrestato aumenti di temperatura. I dubbi sulla assoluta validità dei princìpi di conservazione cominciano così dopo Newton a moltiplicarsi, nonostante i tentativi di Leibniz per salvarli, cosicché con un certo scetticismo Berkeley scriveva: «tra i moderni molti sono dell’opinione che il movimento non è né distrutto né generato di nuovo, ma che la quantità del movimento rimanga per sempre costante. [...] Che il movimento sensibile perisca è chiaro ai sensi, ma essi invece sembrano volere che l’impeto e lo sforzo e la somma delle forze permangano medesime»11. Il punto era ben enucleato da Berkeley: la conservazione non appariva con evidenza, ma ciononostante si voleva che vi fosse. Da parte sua P.L. de Maupertuis, nel suo Essai de Cosmologie (Lyon, 1768) scrisse senza remore che «la conservazione della quantità del movimento non è vera che in certi casi. La conservazione della forza viva non ha luogo che per certi corpi. Nè l’uno né l’altro possono dunque passare per un principio universale, e nemmeno per un risultato generale della legge del movimento». Laplace invece, in questo di contro a Newton, tornava a Cartesio nel difendere la conservazione della quantitas motus. Affrontando il problema delle pérturbations e inégalités séculaires egli nel Système du monde difendeva la stabilità nei lunghi periodi del sistema solare, di contro alle perturbazioni gravitazionali, sostenendo che nel sistema solare si mantiene comunque la medesima quantitas motus pur variamente ridistribuita12. Così nella sua analisi delle reciproche perturbazioni gravitazionali fra Giove e Saturno, egli constatava che Saturno perde velocità a causa dell’azione gravita-
11 G. Berkeley, De motu, 1721, § 19 e cfr. § 48 (tr. it. De motu, Abano Terme 1989, Piovan). 12 P.S. Laplace, Esposizione del sistema del mondo, IV.2 e Trattato di meccanica celeste, II.6 in Oeuvres (Gauthier-Villars, Paris 1878-1912), tr. it. parziale in Opere, Torino 1967, Utet.
527
zionale di Giove ma reintegrava i princìpi di conservazione dicendo che la velocità persa da Saturno per 900 anni è guadagnata da Giove e che poi per altri 900 anni Giove decelera e Saturno accelera cosicché la complessiva quantitas motus rimane invariante. Dice Laplace: per 900 anni abbiamo un + per Giove e un – per Saturno e poi per altri 900 anni un – per Giove e un + per Saturno, con perfetta compensazione. Nei millenni, ogni quantum di velocità guadagnato da Giove viene perso da Saturno e viceversa: l’un pianeta cede all’altro (in prestito e non per sempre) una parte del suo movimento, un quantum di velocità, e poi se lo riprende, in un perfetto sistema di debiti e di crediti. Se la velocità di una parte diminuisce, l’altra aumenta in proporzione e viceversa. In una perfetta compensazione reciproca alla fine i conti tornano, gli errori si compensano, le perturbazioni si annullano e tutto torna come prima. Con ogni evidenza riappare qui il paradigma meccanicistico di pensiero, legato alle secentesche leggi dell’urto dei corpi nel quadro dei princìpi di conservazione: la somma totale di quantitas motus disponibile all’interno del sistema solare passa, circola, si trasmette da un corpo all’altro ma rimane costante; essa non muta affatto bensì semplicemente cambia di segno; si ridistribuisce fra le parti del sistema rimanendo inalterata. Altrove invece, nel Saggio filosofico delle probabilità, Laplace, analizzando le perturbazioni dei primi tre satelliti di Giove, afferma che «questi tre corpi si bilanceranno eternamente nello spazio [...] a meno che delle cause esterne, come le comete, non cambino bruscamente i loro movimenti attorno a Giove»13. Ove, ancora e sempre, abbiamo un ragionamento rigorosamente improntato alla meccanica: precisamente, Laplace applica il principio di conservazione della quantitas motus in una riesposizione del principio di inerzia. Se il principio di inerzia dice che un corpo persevera nel proprio stato di quiete o di moto rettilineo uniforme a meno che una qualche forza esterna non giunga ad interP.S. Laplace, Saggio filosofico sulle probabilità, tr. it. in Opere, cit. p. 310. Sulle perturbazioni dei satelliti di Giove v. Système du monde IV.6. 13
528
rompere tale stato, così dice ora Laplace: il sistema solare di per sé permane nel proprio stato (nei propri moti ellittici) a meno che una qualche forza esterna (asteroidi, comete, etc.) non giunga ad interrompere tale stato. Così, per Laplace, il sistema solare è una sorta di meccanismo omeostatico autoregolatore, in cui gli scarti, le deviazioni, le perturbazioni, sono automaticamente annullati e reintegrati dal sistema che tende inerzialmente alla propria perpetua conservazione mantenendosi costante.14 La difficoltà di stabilire in modo certo la validità dei princìpi di conservazione appare anche in altri luoghi della fisica classica. Consideriamo il principio di conservazione nella chimica. La linea maestra che ha portato alla fondazione della chimica moderna è stata la grande tradizione atomistica per la quale nel composto, nell’aggregato, si può avere soltanto una ridistribuzione e una combinazione puramente quantitativa in cui gli elementi, essendo atomi eterni e indivisibili, non cessano di esistere, non si fondono in altro ma rimangono inalterati mantenendo la loro specificità, senza che nel nuovo composto vi sia una autentica fusione. Secondo questa prospettiva nel misto, nel miktÒj, ciascuno degli elementi mantiene la propria natura originaria: gli ingredienti rimangono tali e quali nell’aggregato e in effetti, mescolando l’olio con l’acqua, noi potremmo dire esattamente dove sono le molecole dell’olio e quelle dell’acqua. La natura sembra in questi casi amare le divisioni: in questi casi le diverse sostanze che entrano nel composto non si fondono mai in una nuova sostanza e piuttosto si giustappongono. Il principio di conservazione nella chimica ha trovato la sua più chiara formulazione in A. Lavoisier, il cui assunto primario presupponeva che qualcosa di fondamentale persistesse attraverso tutte le variazioni e le modificazioni: nelle reazioni chimiche, dopo tutte le combinazioni degli elementi, la massa e il peso del corpo prima e
14 Sulle perturbazioni gravitazionali del sistema solare e il problema della conservazione della quantitas motus vedi M. de Paoli, Le orbite imperfette e il problema dei tre corpi, in Theoria Motus, cit. (in particolare pp. 86-95).
529
dopo la reazione dovevano essere esattamente gli stessi; doveva esservi una stessa e identica quantità complessiva di materia prima e dopo l’operazione, senza accrescimento né diminuzione pur attraverso tutte le modificazioni e i passaggi. In particolare nelle reazioni chimiche abbiamo sostanzialmente un rimescolamento degli stessi atomi, il cui numero si conserva: ad esempio nella reazione di fotosintesi in cui sei molecole di anidride carbonica reagiscono con sei molecole d’acqua si ottiene una molecola di glucosio e sei di ossigeno, ove il numero complessivo degli atomi prima e dopo la reazione è lo stesso: 6CO2 + 6H2O → C6H12O6 + 6O2 per un complessivo di 6 atomi di carbonio, 12 di idrogeno e 18 di ossigeno sia prima che dopo la reazione. Certo il principio appariva valido solo per approssimazione, perché raramente questa equivalenza veniva esattamente riscontrata, ma in questi casi i princìpi di conservazione potevano essere salvati attraverso plausibili motivazioni atte a spiegare perché la materia in realtà non apparisse conservata: un pezzo di legno bruciando perde peso, ma il principio di conservazione veniva ristabilito dapprima dicendo che il pezzo di legno ha perso nella combustione il suo flogisto e poi – nella scienza successiva – rilevando piuttosto che il legno si è dissolto in luce, calore, fumo; viceversa un pezzo di ferro nella combustione aumenta lievemente di peso, caldo pesa più di quando è freddo, ma anche in questo caso il principio di conservazione veniva ristabilito (dopo l’eliminazione del flogisto) spiegando l’aumento di peso con l’aggiunta dell’ossigeno coinvolto nella combustione. In tutti i casi l’ambiente apportava o detraeva sostanze nella reazione, ma tenendo conto di questa perturbazione la conservazione nella reazione poteva ritenersi mantenuta. I princìpi di conservazione nella fisica delle particelle Nella fisica e nella chimica classica dunque i princìpi di conservazione svolgevano un ruolo fondamentale, e tuttavia dovevano essere opportunamente difesi nei numerosi casi in cui mancava il ri530
scontro della conservazione. Ma se già nella scienza classica appariva talvolta problematico salvare i princìpi di conservazione, questo apparve molto più difficile nella fisica delle particelle. Il motivo è presto detto: gli atomi e le particelle non risultano affatto eterni, come pensavano gli atomisti del passato, e dunque essi non possono essere l’elemento stabile che si conserva nelle variazioni. Lucrezio diceva: se le cose venissero dal nulla ed andassero nel nulla, cosa per lui impossibile, allora esse apparirebbero e scomparirebbero all’improvviso dinanzi ai nostri occhi. Senonché, questo è proprio quanto sembra avvenire nell’attuale fisica delle particelle: essa sembra proprio mostrare continui processi di creazione e di annichilazione, e sembra quasi di vedere sciami di particelle che appaiono e scompaiono come se venissero dal nulla per poi subito dopo scomparire nel nulla. Parlare di conservazione in questi vortici di collisioni, dove nulla sembra rimanere stabile, appare veramente difficile: anziché dire che nulla si crea e nulla si distrugge, sembrerebbe qui doversi dire che tutto si crea e in un attimo tutto si distrugge. In particolare i processi di decadimento e di collisione pongono seri problemi ai princìpi conservativi. Nel decadimento una particella ‘decade’ scomparendo e al suo posto compaiono due o più particelle, in cui la particella originaria si è trasformata, che generalmente hanno massa ed energia minore; invece nella collisione due particelle collidendo generano una o più particelle in cui, nuovamente, la massa e l’energia sono solitamente diverse, in genere minori ma talvolta anche maggiori. Invero vi sono casi in cui nella fisica delle particelle i princìpi di conservazione appaiono rispettati: così nell’effetto fotoelettrico un fotone incidente investendo un corpo ne strappa via un elettrone cedendogli la propria energia, mentre nell’effetto Compton un fotone urtando un elettrone gli cede parte della propria energia diminuendo di altrettanto la propria. Ma questi casi di perfetta conservazione sono rari. Al riguardo, per riottenere il quantum iniziale si considera la velocità ovvero l’energia cinetica come corrispettivo della massa mancante. Così quando negli acceleratori si fanno collidere due protoni e si vede che dopo la collisione abbiamo ancora i due protoni ma 531
anche dei mesoni p, e dunque un surplus di massa e dunque un quantitativo energetico in eccesso rispetto al quantum iniziale, ovvero un’apparente creazione di materia in flagrante contraddizione ai princìpi di conservazione, si interpreta il fenomeno rilevando che nella collisione i due protoni hanno perso parte della loro velocità iniziale e che quel quantum di energia cinetica persa è esattamente quello che è stato tradotto in mesoni e in massa. Si intende così che una parte della velocità e dell’energia cinetica iniziale dei protoni è stata persa ma convertita e trasformata in massa: tot energia cinetica persa tot massa guadagnata o creata sotto forma di mesoni. Parimenti nella radiazione a e γ l’energia può dirsi sostanzialmente conservata solo appunto in considerazione dell’energia cinetica; parimenti un elettrone e un positrone annichilandosi producono raggi γ la cui energia può dirsi equivalente sempre e solo considerando l’energia cinetica delle particelle iniziali interagenti. Ancora, in meccanica quantistica è ben noto e comprovato il cosiddetto “effetto tunnel”, per il quale (come si è detto) quando una particella in moto urta ripetutamente contro una barriera troppo alta può attraversare la barriera stessa ed apparire dall’altra parte come se fosse passata attraverso un tunnel. Nuovamente, il fenomeno appare come una violazione dei princìpi di conservazione, in quanto non risulta che la particella disponga di energia sufficiente per superare la barriera. Ma, nuovamente, la velocità (questa volta non persa bensì in eccesso) è giunta in soccorso dei principi di conservazione: infatti, quando nel 1993 all’università di Berkeley si è misurato il tempo impiegato dalla particella ad attraversare la barriera, si è rilevato un tempo di attraversamento che comportava una velocità superiore a quella della luce, e così si è potuto dire che proprio questa energia cinetica suppletiva dava alla particella con la velocità superluminale l’energia necessaria al superamento della barriera. Senonché sembra evidente qui la difficoltà teorica, perché non si riesce a comprendere concettualmente come una velocità possa di per sé trasformarsi in massa. Certamente l’alta velocità di impatto delle particelle può produrre certe conseguenze come consentire il superamento di una barriera altrimenti invalicabile, proprio come un pal532
lone scagliato ad alta velocità può rompere la rete del portiere che a più bassa velocità non romperebbe, ma non si comprende come questa velocità – persa o guadagnata – si traduca in nuova massa: in realtà nel caso dei mesoni di nuova comparsa noi diciamo che la velocità persa dai protoni si è tradotta in massa solo per non offendere i princìpi di conservazione e per non dire che nel processo vi è stata una creazione di materia. La cosa appare anche nella celeberrima formula relativistica che vuole e = m · c2: può ben dirsi infatti – ed è stato anche tragicamente verificato – che una data massa si tramuta per una piccola percentuale (peraltro esattamente quantificata nella misura di 0,007) in radiazione ed in energia libera con la velocità (precisamente in rapporto al quadrato della velocità della luce): tuttavia dire che quella velocità sia stata il tramite per la trasformazione di quella minuscola frazione di massa in energia non equivale a dire che quella velocità si sia tradotta in energia. Anche se noi possiamo supporre che in realtà i princìpi di conservazione non siano violati nonostante il mancato riscontro, resta il fatto che in numerosi casi essi sono giustificati non attraverso un esatto riscontro bensì soltanto attraverso considerazioni aggiuntive (quali la trasformazione di massa in energia cinetica) che peraltro non possono spiegare tutti i casi di mancata equivalenza. In realtà rimane evidente che sia nel decadimento sia nell’interazione è assai frequente il caso in cui la massa, la velocità, l’energia iniziali non equivalgano al valore finale complessivo, che può risultare inferiore o talvolta superiore a quello iniziale: così i neutroni si trasformano in più leggeri protoni, i protoni si trasformano in più pesanti neutroni, e in un caso qualcosa sembra veramente perso e nell’altro aggiunto senza averne equivalenza. Se ad esempio la legna bruciata perde parte della propria massa trasformandosi, oltre che in cenere, anche in calore e fumo, come è possibile sapere che quel calore e quell’energia diffusa sono l’esatto corrispettivo della massa perduta, e che tutta la massa mancante si è tramutata in calore ed energia (oltre che in cenere) senza che nulla ne sia andata persa? In realtà noi diciamo che quel calore e quella energia corrispondono ad un dato valore quantitativo non perché l’abbiamo verificato, ma sol533
tanto perché sappiamo che quel valore quantitativo è precisamente il valore della massa mancante. La continua violazione dei princìpi di conservazione ha portato nella fisica delle particelle a moltiplicare gli accorgimenti ad hoc e gli escamotages, onde assicurare che comunque nelle interazioni fra particelle qualcosa si conserva. La strategia perseguita a più riprese consisté nell’ipotizzare nuove particelle onde riottenere l’equivalenza energetica e salvare i princìpi di conservazione. Un caso particolarmente significativo si ebbe con l’“invenzione” delle “antiparticelle”: poiché due fotoni in collisione sprigionano grande energia e si annichilano in un leggero elettrone privo di quella grande energia iniziale, P. Dirac ipotizzò che in realtà nell’interazione in questione venga emesso, insieme all’elettrone, anche un elettrone con carica positiva chiamato antielettrone o positrone, che verrà scoperto anni dopo. Si suppose anche che se in una reazione scompare un quantum energetico questo in realtà, con perfetta corrispondenza e mirabile compensazione, riappaia a distanza in nuove particelle restituendo da lontano l’equivalenza, il che sarebbe un po’ come dire che un vecchio muore in Birmania per far nascere un bimbo a Lisbona e che se manca qualcosa qui in compenso c’è qualcos’altro là. Le “antiparticelle” sono state particolarmente funzionali per la salvezza dei princìpi di conservazione. Così, se in un processo di creazione di particelle risulta qualcosa di nuovo e di più come ad esempio dei barioni (particelle pesanti come protoni, neutroni, iperoni) o dei leptoni (particelle leggere come elettroni, muoni, neutrini), allora per salvare i princìpi di conservazione, questa volta violati per eccesso, è sempre possibile supporre che ai nuovi barioni o ai nuovi leptoni corrispondano esattamente altrettanti antibarioni (antiprotoni, antineutroni, antiperoni) o altrettanti antileptoni (antielettroni, antimuoni, antineutrini), esattamente speculari ai primi ma di carica opposta in modo che le cariche si elidano. In tal modo la comparsa di nuova materia, barionica o leptonica, verrebbe annullata dalla corrispettiva antimateria. Il numero dei nuovi barioni o dei nuovi leptoni verrebbe annullato dal numero dei rispettivi an534
tibarioni o antileptoni: il + viene compensato con un –, al “numero barionico” o leptonico +1 in eccesso si fa corrispondere il numero –1 della rispettiva antiparticella e così si annulla l’eccesso riottenendo l’equivalenza. Ma se il “numero barionico” è il numero dei barioni presenti in un sistema meno il numero equivalente degli antibarioni, se il “numero leptonico” è il numero dei leptoni meno il numero equivalente degli antileptoni, allora è chiaro che per definizione non vi sarà mai nessun aumento: è un po’ come se il generale, accortosi della imprevista comparsa di tre aerei nemici ed inviando contro di essi tre dei suoi aerei, poiché nello scontro tutti i sei aerei si abbattono a vicenda, dicesse che in realtà i tre aerei nemici non erano mai comparsi e che tutto è come prima perché tre meno tre fa zero. In questo senso dunque l’invenzione del “numero barionico” o del “numero leptonico”, che fa sparire le quantità risultanti come in uno strano gioco di bussolotti, sembra uno stratagemma concettualmente ambiguo che non può veramente salvare, come vorrebbe, i princìpi di conservazione: l’espediente della “conservazione del numero barionico” non può negare l’evidenza che in realtà nel caso in questione l’antiparticella non diminuisce ma aggiunge qualcosa cosicché noi ne abbiamo non una ma addirittura due particelle inspiegate in più. In particolare la radioattività (scoperta da A. Becquerel nel 1896) non appare sempre facilmente conciliabile con i princìpi di conservazione nella loro accezione tradizionale. Le numerose sostanze radioattive (l’uranio, il radio etc.), altamente instabili, evidenziano un processo di decadimento ovvero di disintegrazione spontanea del pesante nucleo atomico che (contenendo protoni e neutroni in quantità) si rompe sotto l’azione delle forze elettriche repulsive e così si libera delle particelle in eccesso attraverso l’emissione (o, come vedremo, la creazione) ad altissima velocità di particelle che possono essere raggi a (due protoni e due neutroni costituenti il nucleo dell’elio e quindi luminosi) o raggi b (protoni ed elettroni) o attraverso l’emissione di onde elettromagnetiche come i raggi γ (fotoni e raggi x ad alta energia). Il nucleo atomico delle sostanze radioattive, espellendo protoni, neutroni, elettroni, fotoni, si disintegra. 535
Le sostanze emesse appaiono poi a loro volta radioattive, donde una successione di decadimenti: il neutrone decade in un protone, il protone in un neutrone etc., fino a giungere ad elementi stabili non più radioattivi. In tutto ciò, come si è detto, i princìpi di conservazione possono dirsi rispettati sia pur con opportune restrizioni nel decadimento a e b: ad esempio nel decadimento a la massa iniziale del nucleo disintegrato equivale alla massa del nucleo residuo più la massa delle particelle a, se si considera nel computo l’energia cinetica tradotta in massa; i due protoni e i due neutroni emessi sembrano già contenuti inizialmente nel nucleo che si limita ad espellerli (infatti particelle a scagliate contro il nucleo ne vengono respinte); le particelle luminose spariscono per una durata brevissima ma poi ricompaiono una frazione di secondo successiva, e da tutto ciò se ne ricava che l’equivalenza energetica è salva. Ma se nel decadimento a e γ i princìpi di conservazione vengono salvati abbastanza facilmente, sia pur con lo stratagemma concettualmente ibrido di tradurre una velocità in massa, diversamente vanno invece le cose nel decadimento b: in esso infatti (come abbiamo già visto: v. pp. 465-471) il neutrone si disintegra in un protone e in un elettrone e parte della massa e dell’energia iniziali del neutrone scompaiono; l’equivalenza non torna nemmeno considerando la velocità, in quanto l’energia cinetica dell’elettrone in allontanamento è troppo bassa (dovrebbe essere ben più alta per applicare lo stratagemma volto a vedere in quella velocità la permutazione di una massa posta come equivalente). L’elettrone e il protone sembrano comparire come generati dal nucleo, ed alla fine di questo processo generativo ne risulta una quantità energetica inferiore a quella iniziale. Per questo W. Pauli, ritenendo impossibile che una percentuale del quantum di massa ed energia iniziali del neutrone fossero scomparsi in nulla, suppose «un rimedio disperato» per salvare i princìpi di conservazione e cioè che nel decadimento b‚ dal neutrone N dovesse prodursi, oltre al protone P e all’elettrone e, anche una terza particella v: tale particella, infine chiamata “neutrino”, fu supposta priva di massa o quasi e quindi non rilevabile in quanto non interattiva, e parimenti fu supposta priva di carica elet536
trica in quanto le cariche opposte del protone e dell’elettrone si annullavano con la conseguenza che una terza particella positivamente o negativamente carica avrebbe violato la conservazione della carica elettrica; tale particella (e una con queste caratteristiche venne effettivamente scoperta molti anni dopo) sarebbe insomma stata tale da restituire l’equazione energetica violata in tutte le sue varianti (conservazione della quantità di moto, del momento angolare, della carica elettrica etc.). L’idea venne ripresa da E. Fermi (1933) per il quale nel decadimento b si avrebbe N → P + e + v attraverso una “forza debole” opportunamente introdotta (varianti sono il decadimento di un protone da cui si avrebbe un neutrone, un positrone e un neutrino, e la “cattura elettronica” in cui il neutrone si trasforma in protone e l’elettrone in antineutrino). In tal modo Fermi spiegava il fenomeno nei termini dei princìpi di conservazione, ma al prezzo dell’invenzione ad hoc di una nuova forza e introducendo nel decadimento b altre particelle oltre quelle rilevabili: non a caso il direttore di Nature respinse l’articolo in quanto «astratto e troppo lontano dalla realtà fisica» (in seguito anche nel decadimento di un mesone p in un muone si postulò la concomitante formazione di un neutrino pur non rilevabile, per evitare la perdita energetica e salvare i princìpi di conservazione). In effetti il carattere puramente postulatorio e ad hoc dell’intervento del neutrino, del positrone e dell’“interazione debole” nel decadimento b‚ appare evidente. Un tempo per salvare i princìpi di conservazione si invocava il flogisto: se la legna dopo la combustione pesa meno – si diceva – è perché ha perso del flogisto, e ne ha perso esattamente tanto quanto peso ha perso la legna. Oggi si dice: se in una reazione nucleare la massa finale delle particelle in gioco è minore di quella iniziale, è perché nella reazione sono state emesse delle particelle nascoste e invisibili. Il neutrino nel decadimento b è invisibile tanto quanto il flogisto nella combustione della legna e, proprio come il flogisto, serve allo stesso scopo: salvare i princìpi di conservazione. Ma non si vede perché si debba bollare la prima posizione come anacronistica e retrograda, mistica e speculativa, ed esaltare la seconda come una grande conquista predittiva della scienza. 537
Il decadimento b, con ogni evidenza, impone un riesame dei princìpi di conservazione. Anzitutto esso non sembra interpretabile, secondo la lettura consueta dei princìpi conservativi, come un mero mantenimento di quantità ed una semplice ridistribuzione con scambio simmetrico delle parti: infatti, poiché il neutrone non ha carica mentre il protone ha carica positiva e l’elettrone carica negativa, allora non sembrava possibile che il neutrone contenesse il protone e l’elettrone e ne fosse composto; non sembravano esservi protoni ed elettroni nucleari che il neutrone semplicemente emettesse. In altri termini la particella decadendo non sembra limitarsi a lasciar uscire da sé le altre due particelle come nel decadimento a, quasi le contenesse bell’e fatte, bensì sembra proprio crearle ex-novo da se stessa. Lo stesso Fermi, che pur intendeva salvare i princìpi di conservazione senza ammettere alcuna creazione di materia dal nulla, aveva scritto nell’articolo del 1933 di voler proporre una «teoria della emissione dei raggi b dalle sostanze radioattive, fondata sull’ipotesi che gli elettroni emessi dai nuclei non esistano prima della disintegrazione ma vengano formati, insieme a un neutrino, in modo analogo alla formazione di un quanto di luce che accompagna un salto quantico di un atomo». Si potrebbe invero ribattere che, come la carica neutra dell’atomo in condizione di parità non è una mancanza di carica bensì piuttosto l’elisione fra le cariche positive dei protoni e quelle negative degli elettroni presenti in eguale quantità, parimenti la carica neutra del neutrone vada intesa non come una mancanza di carica bensì come il risultato di due cariche opposte in sé elidentesi e poi divaricate nel decadimento in carica positiva del protone e negativa dell’elettrone (per il principio di conservazione della carica elettrica, sperimentalmente mostrato da M. Faraday, la carica non scompare pur potendo essere resa nulla nei suoi effetti da una carica contraria: +1–1 fa zero, ma in realtà le due unità non scompaiono pur elidendosi). In tal modo, recuperando la teoria emissionista, potremmo dire che il neutrone, emettendo un elettrone, lascia riemergere la carica positiva del neutrone prima annullata dalla carica opposta dell’elettrone, e così rimane un protone: non avremmo cioè, ad essere precisi, un neutrone che si scinde in un pro538
tone e in un elettrone bensì un neutrone che, avendo espulso un elettrone, diventa un protone – con minor massa del neutrone originario non tanto per la perdita del leggero elettrone quanto piuttosto per peculiari interazioni col campo elettromagnetico. In ogni modo rimane la difficoltà di una lettura del processo nel quadro ortodosso dei princìpi conservativi: la pregiudiziale in favore dei princìpi di conservazione e la loro salvezza a tutti i costi comportano una proliferazione di argomenti ad hoc, ma se noi leggessimo il dato fenomenico risultante nelle interazioni senza il filtro pregiudiziale dei princìpi conservativi, prendendo atto di ciò che si rileva, e cioè che nel decadimento b in sé non appaiono né i neutrini né gli antineutrini né la “forza debole” bensì semplicemente un neutrone disintegrato in un protone e un elettrone, allora parrebbe di vedere qui in opera il gioco straordinario della fúsis, che la fedeltà assoluta ai princìpi di conservazione impedisce di scorgere. Come una cellula si scinde generando due cellule così il neutrone, morendo e decadendo, genera e libera il protone e l’elettrone che recava potenzialmente in sé. Ad una diversa lettura risulta il processo in cui una particella, decadendo e dissolvendosi, ne genera altre due, proprio come una cellula scomparendo ne genera altre due. È la gemmazione e la scissione in fisica: come la cellula si scinde e si divide in due cellule, che non contiene già fatte in sé bensì le genera, così la particella si scinde generando due nuove particelle. Qui il principio di conservazione non è rispettato, se non introducendo l’interazione elettromagnetica. La dissoluzione del neutrone nel decadimento b è in realtà un processo di creazione: morendo e quasi sacrificandosi il neutrone genera il protone e l’elettrone; la sterile carica neutra del neutrone, che impedisce le interazioni elettromagnetiche, si divarica in un protone a carica positiva e in un elettrone a carica negativa e le due nuove particelle generate, il protone e l’elettrone, ben altrimenti suscettibili di interazione grazie alle loro cariche, altro non sono che due dei tre elementi fondamentali dell’atomo (il terzo essendo lo stesso neutrone): l’atomo è così composto di neutrone, protone ed elettrone, ma a sua volta il neutrone, in una sorta di gioco di scatole cinesi, già contiene virtualmente e 539
potenzialmente in sé sia il protone che l’elettrone. La reciprocità sembra del resto dominare nei fenomeni atomici e subatomici: se un fotone può decadere in un elettrone e in un positrone, reciprocamente un elettrone e un positrone collidendo generano un fotone. Del resto il decadimento b, che appare un processo creativo, ha il suo esatto speculare nelle “stelle di neutroni”: qui infatti (come si è visto) abbiamo non un neutrone che decadendo genera un protone e un elettrone, bensì al contrario protoni ed elettroni che si fondono nei neutroni determinando una parossistica contrazione gravitazionale della stella e quindi la sua fine. La trasformazione dei neutroni in protoni ed elettroni è un processo creativo, mentre l’opposta fusione dei protoni e degli elettroni torna in una spirale distruttiva ai neutroni di partenza. La teoria classica della radioattività, spesso poco conciliabile con i princìpi di conservazione, rimane paradigmatica. Essa infatti dimostra che un metallo emana continuamente e costantemente energia in notevoli quantità sotto forma di particelle, emettendole o generandole senza riceverle dall’esterno quasi disponesse di un deposito illimitato di energia potenziale (ad esempio il radio è un milione di volte più radioattivo dell’uranio che pur emette raggi x in quantità): il più piccolo corpo radioattivo, osservato per anni, continua ad emettere particelle senza che mai tale corpo si dissolva. Già B. Thompson ai primi dell’Ottocento aveva constatato che mediante l’attrito si possono estrarre dal metallo illimitate quantità di calore, e sappiamo dalla fisica classica che ogni corpo dovrebbe irradiare a varie temperature una quantità illimitata di energia sotto forma di radiazione elettromagnetica. Si pensi al Sole che brucia energia da miliardi di anni senza peraltro averla tutta consumata: H. Helmholtz e Lord Kelvin, calcolandone la massa, dicevano che il Sole da molto tempo avrebbe dovuto esaurire le sue scorte, anzi esaurire la sua stessa massa tutta trasformandola in luce e radiazione e se questo non è avvenuto è soltanto, come oggi sappiamo, perché esso continuamente ricrea di nuovo, e ricreerà per altri cinque miliardi di anni, l’energia attraverso le proprie reazioni nucleari. La stessa teoria della radiazione da 540
corpo nero, che nella formula di Rayleigh e Jeans ne prevedeva un irraggiamento continuo con indefinita emissione di radiazione, appare congruente agli assunti da cui deriva anche se il valore infinito comparso in quella formula, che conduceva all’errata previsione di altissime frequenze con conseguente “catastrofe ultravioletta”, fece rigettare la teoria classica aprendo la via alla rivoluzione quantistica di Planck con la sua lenta emissione di “pacchetti d’onda” discreti al posto della “catastrofe”. Per la stessa teoria della relatività ristretta una minima quantità di massa è in realtà un deposito quasi inesauribile di energia come se essa venisse sempre ricreata: alla più piccola massa corrisponde un valore enorme dell’energia prodotta, quantificabile attraverso il quadrato della velocità della luce. Parimenti l’elettrone, pur emettendo radiazione e perdendo energia, non cade sul nucleo non tanto per l’impossibilità di scendere al di sotto di un’orbita minima, bensì perché evidentemente mantiene costante la propria energia senza disperderla ulteriormente attraverso l’emissione di fotoni. La materia produce costantemente energia, come se la creasse continuamente da sé: il più piccolo corpo appare come un serbatoio quasi inesauribile di energia, come chi da una minuscola borsa estraesse una moneta e poi un’altra e un’altra ancora andando avanti così indefinitamente, e del resto un corpo in quanto tale, finché esiste, sempre genererà radiazione. In questo senso i princìpi di conservazione possono apparire invalidati sia per difetto, quando qualcosa si distrugge e sembra scomparire, sia per eccesso, quando al contrario qualcosa si forma. La crisi dei princìpi di conservazione La maggior parte degli scienziati e degli epistemologi moderni e contemporanei difende, anche con opportuni accorgimenti, la validità dei princìpi di conservazione. Ma non mancano scienziati ed epistemologi che hanno espresso le loro riserve in proposito. Una critica ai princìpi di conservazione è stata svolta nel pensiero mo541
derno, anzitutto a partire dall’epistemologia francese. Boutroux15 asseriva che la «legge di permanenza», per la quale l’intelletto umano pretende che il mondo sia in ultima analisi permanente e immutabile senza che nulla veramente si crei e nulla si distrugga, «non ha un valore assoluto» in quanto tale legge nega l’attività creatrice della natura che consente l’emergere del novum e non si limita a rimescolare una stessa materia eterna. Meyerson ha dedicato un’intera opera ai princìpi di conservazione16, sostenendo che vi è nella mente umana un intrinseco e costitutivo bisogno a priori di identità e di immutabilità, di costanza e uniformità («ci serve che qualcosa persista, mentre la questione di sapere che cosa persista è relativamente poco importante»17). La mente umana esige di rintracciare una permanenza quale che sia nel variare dei fenomeni: tale bisogno tende a bloccare il divenire e, proiettato nella natura, porta a postulare i princìpi di conservazione. Essi, ammessi non sulla base di una verifica sperimentale che è sempre solo imperfetta o parziale bensì in quanto postulato metafisico che affonda le sue radici nella struttura stessa della mente umana, vengono infine almeno in parte smentiti dalla comparsa nella stessa scienza degli “irrazionali” che, a partire dal secondo principio della termodinamica che prevede l’irreversibile crescita dell’entropia, incrinano tale pretesa razionalizzazione. Poincaré, in base alla propria impostazione convenzionalista, ha mostrato il carattere convenzionale dei princìpi di conservazione18: «Se si vuole enunciare il principio in tutta la sua generalità – scrive – [...] lo si vede quasi svanire, e non resta più che questo: c’è qualcosa che rimane costante», senonché dicendo questo «non facciamo che enunciare una tautologia»19; in realtà «la legge di Mayer [la legge di conservazione dell’energia] è una forma tanto
É. Boutroux, De la contingence des lois de la nature, Paris 1874, Baillère. É. Meyerson, Identité et réalité, Paris 1908, Alcan. 17 Ivi p. 11. 18 J.H. Poincaré, La scienza e l’ipotesi, cit. pp. 135-144. 19 Ivi p. 142. 15 16
542
sottile da poterla far rientrare quasi ove si voglia»20. Secondo Poincaré i princìpi di conservazione non sono né un’evidenza né un dato osservativo bensì un postulato: un utile principio, un principio che a suo giudizio funziona e che «non ha ricevuto che conferme»21, e purtuttavia sempre e soltanto un principio teorico o meglio un’esigenza logica della mente umana. Molto probabilmente se Poincaré avesse visto gli ulteriori sviluppi della fisica delle particelle non avrebbe detto che il principio di conservazione «non ha ricevuto che conferme». Anche Russell fu piuttosto critico nei confronti dei princìpi di conservazione, che vedeva ormai assurti a dogma: «the principle of conservation – scrisse – is not got from experience, but is a postulate»22; «the conservation of energy is no more than an empirical generalization, and is not thought to be strictly true»23. Poi vi è lo storico della scienza Elkana24 che, in un lavoro sul principio di conservazione, pur non negandolo ha mostrato quanto in Mayer tale postulato fosse intrinsecamente connesso a esigenze speculative e religiose, nonché a convinzioni radicate nella psicologia e nella credenza umana e financo ad infruttuosi tentativi giovanili di realizzare un perpetuum mobile, ciò che per molti anni impedì la seria considerazione del suo principio di conservazione. Anche quando Helmholtz25, in realtà più kantiano che induttivista come egli si riteneva, nel saggio Über die Erhaltung der Kraft (pubblicato a soli 26 anni) pose il principio di conservazione in termini matematici e quasi come una sorta di a priori della men-
Ivi p. 144. Ivi p. 180. 22 B. Russell, Foundations of Logic, 1903-1905 (in Collected Papers, IV, London 1994, Routledge, p. 558). 23 B. Russell, Analysis of Matter, London 1927 (ora London 2003, Routledge, p. 168). 24 Y. Elkana, The Discovery of the Conservation of Energy, 1974, tr. it. La scoperta della conservazione dell’energia, Milano 1977, Feltrinelli. 25 Cfr. H. von Helmholtz, Über die Erhaltung der Kraft, 1847, tr. it. Sulla conservazione della forza, in Opere scelte, Torino 1967, Utet, pp. 39-116. 20 21
543
te in senso kantiano, il suo principio sulla Konstanz der Energie fu criticato come speculativo e privo di basi empiriche e sperimentali. E poi, vi è Bohr26. Egli non era molto convinto dei giochi di prestigio con cui nei processi di decadimento ed interattivi si ipotizzavano o si inventavano particelle non chiaramente rilevate al solo fine di riottenere l’equivalenza energetica e salvare i princìpi di conservazione. Già disposto a rinunciare perfino al principio di causalità, egli almeno per un certo periodo preferì ammettere la possibilità che nei processi atomici e subatomici la legge di conservazione dell’energia potesse effettivamente essere violata: così la sua prima teoria degli “oscillatori virtuali” (1924) era incompatibile con i princìpi di conservazione, e in seguito negli anni trenta il decadimento b divenne per lui la prova di una effettiva sparizione di energia che inficiava i princìpi di conservazione, né egli credette che un neutrino addirittura supposto privo di massa potesse entrare in gioco nel decadimento b come portatore del quantum mancante. Anche nel suo modello atomico Bohr giunse a supporre che l’elettrone non mantenesse sempre lo stesso coefficiente di energia cedendola o assorbendola nella transizione da uno stato all’altro, bensì la creasse o la perdesse. I princìpi di conservazione, per Bohr, potevano conservare una validità media e statistica nel mondo macroscopico (come quando si dice che la popolazione di una città è rimasta la stessa per l’identico numero dei nati e dei morti) ma non nel mondo delle particelle: senonché già una formulazione statistica dei princìpi suddetti equivale al loro rifiuto di fatto, perché l’energia o si conserva o non si conserva e non appare rigorosa determinazione il dire che essa si conserva “più o meno”. Il punto è che la meccanica quantistica appariva incompatibile con i princìpi di conservazione, e Bohr onestamente ne prese atto: nei processi di creazio-
Per quanto riguarda la posizione di Bohr in merito ai princìpi di conservazione v. la biografia scientifica di A. Pais, Niels Bohr’s Times, Oxford 1991, University Press, tr. it. Il danese tranquillo. Niels Bohr: un fisico e il suo tempo, Torino 1993, Bollati Boringhieri, pp. 235-241 e 366-371. 26
544
ne e annichilimento delle particelle sembra proprio che alcune particelle scompaiano senza che se ne rilevi l’equivalente, e meno che mai l’equivalente esatto, sotto forma di altre particelle. Le perplessità di Bohr ricomparvero infine in Schlick, personalità di spicco del Circolo di Vienna. Dapprima egli, notando che nella termodinamica l’energia di un sistema può essere posta come equivalente alla somma di calore e lavoro, e domandandosi se sia non un riscontro ma solo una «semplice definizione» il porre E = A + U, negò decisamente che il principio di conservazione dell’energia fosse solo una convenzione e scrisse: «il fisico ci dice subito che questa conclusione è del tutto falsa. [...] Il principio di conservazione dell’energia significa per noi senz’altro quell’ordine ‘obiettivo’ dei fatti, che rende impossibile creare il lavoro dal nulla»27. Questo Schlick scriveva nel 1935. Tuttavia il dubbio doveva serpeggiare nella sua mente perché, nelle lezioni universitarie probabilmente risalenti al 1936, egli dice cose piuttosto diverse e, sia pur con molta cautela nel ricorrente ma ambiguo richiamo alla validità statistica, sembra recepire le tesi di Bohr: «è significativo il fatto, assolutamente nuovo, – scrive l’esponente del neopositivismo – che dall’ambito della teoria dei quanti venga sollevato qualche serio dubbio sulla validità assoluta del principio di conservazione dell’energia. Sembra che difficilmente si possa respingere l’ipotesi che l’energia solo in media, e approssimativamente, resti costante, mentre il principio della conservazione dell’energia addirittura non varrebbe più per i processi interni dell’atomo: qui l’energia può sparire del tutto o generarsi di nuovo per piccole quantità, in modo, naturalmente, che la perdita e il guadagno di energia si compensino solo nella media»28. Tuttavia, nonostante certe perplessità sempre
27 M. Schlick, Sind die Naturgesetze Konventionen?, in Actes du congrés de philosophie scientifique, 1935, tr. it. Sono convenzioni le leggi di natura?, in M. Schlick, Tra realismo e neopositivismo, tr. cit., p. 159, 164-165. 28 M. Schlick, Grundzüge der Naturphilosophie, 1948 (pubblicazione postuma), tr. it. Lineamenti di filosofia della natura, in Tra realismo e neopositivismo, cit. p. 311.
545
più affioranti, la strada che Bohr aveva indicato, che di fatto comportava la rinuncia ai princìpi di conservazione, sembrava troppo gravosa. Si evitò accuratamente di percorrerla. Fra gli scienziati implicitamente se non esplicitamente critici nei confronti dei princìpi di conservazione, potremmo ricordare l’astrofisico Hoyle29. Come sappiamo egli, presentando nel 1948 (con H. Bondi e T. Gold) la sua teoria dello stato stazionario, suppose che nell’universo vi sarebbe una piccola creatio ex nihilo di materia (con vari valori proposti come ad esempio un atomo al secolo per chilometro cubo) con successiva formazione di nuove galassie che prenderebbero il posto delle precedenti compensandone esattamente l’allontanamento dovuto alla supposta espansione. Non discutiamo ora nuovamente questa teoria (da tempo abbandonata per il diniego del Big Bang ma invece criticabile stante, con la preliminare ammissione del modello espansionistico, l’arbitraria supposizione di un tasso di creazione C posto ad hoc per compensare e sostituire esattamente le galassie allontanate). Notiamo solo la posizione di Hoyle nei confronti dei princìpi di conservazione: egli pretendeva di non violarli con la sua teoria in quanto il posto lasciato vuoto dalle galassie allontanate sarebbe occupato dalle nuove, mentre invece naturalmente con la formazione di nuove galassie in aggiunta e non in sostituzione delle precedenti i princìpi di conservazione sono del tutto violati così come sono già violati con la supposizione di una creazione di particelle dal nulla. Se vi fosse una creatio ex nihilo di particelle, di materia, di galassie, essa non confermerebbe bensì indubitabilmente smentirebbe i princìpi di conservazione. In tal senso la posizione di Hoyle è significativa del peso inconscio esercitato dalla millenaria tradizione dei princìpi conservativi perché egli, pur rinunciando de facto ai princìpi suddetti, pretende però di mantenerli de jure con un espediente ad hoc simile a quello già visto circa la conservazione del numero barioni-
29
546
Vedi F. Hoyle, La natura dell’universo, cit.
co: come +1 barione –1 antibarione darebbe 0 mentre in realtà abbiamo due nuovi elementi, così data –1 galassia in fuga +1 galassia nuova che ne prenderebbe il posto si manterrebbe la stessa quantità di materia nell’universo mentre invece avremmo una galassia in più. Hoyle insomma crede di mantenere i princìpi di conservazione dicendo qualcosa del tipo: un gatto esce dalla stanza ma al suo posto subentra un altro gatto, quindi nella stanza c’è sempre un solo gatto ed i princìpi di conservazione sono così conservati. A rigore noi possiamo parlare di conservazione soltanto là ove essa appaia, ma questo, come si è visto, è un caso raro e ideale. Ad esempio certamente le cariche elettriche, negative e positive, sembrano rispettare il principio di conservazione della carica perché esse non appaiono né crearsi né distruggersi. Parimenti non sarebbe corretto ritenere che il principio relativistico della variazione della massa in funzione della velocità invalidi il principio di conservazione della massa, perlomeno ad un’appropriata considerazione: in quanto la rilevazione di una crescente resistenza della particella all’accelerazione al limite di c è certamente traducibile come equivalente ad un corrispettivo aumento di massa che frenerebbe l’accelerazione asintoticamente al limite di c, senza però che a tale equivalenza puramente matematica corrisponda (fatti salvi campi addizionali al crescere di v) una reale variazione fisica della massa. Nemmeno la trasformazione relativistica di una frazione della massa in energia di radiazione inficia di per sé i princìpi di conservazione, stante la precisa misurabilità del quantum frazionario di massa convertito in radiazione per cui alla frazione di massa persa (0,007) corrisponde un preciso corrispettivo in liberazione di energia. Tuttavia, se pur tutto ciò sia vero, rimane appurato che in molti casi la conservazione appaia un caso raro e ideale. In realtà il solo caso in cui i princìpi di conservazione appaiono chiaramente rispettati è quando, in una reazione o in un processo qualsivoglia, noi abbiamo all’inizio una quantità data, determinata, calcolata che ricompare alla fine, come quando cambio una banconota da cento in dieci da dieci: ma in realtà molto raramente il quantum appare conservato attraverso i processi e le sue varie trasformazioni e se, come 547
avviene soprattutto nei processi subatomici, noi non abbiamo alla fine la quantità iniziale, questo significa che in tal caso il principio di conservazione non è confermato. Ciò non significa che sia smentito, significa solo che non è confermato. A questo punto due sono le vie. La prima, finora la più seguita, consiste nel cercare una spiegazione della mancata rilevazione dell’equivalenza di conservazione: ad esempio ciò che non risulta alla fine rispetto all’inizio potrebbe essere dato da una particella o antiparticella non rilevata o non rilevabile la cui opportuna introduzione consenta di riottenere l’equivalenza; oppure il quanto mancante potrebbe essere trasformato in energia diffusa, oppure ancora si può calcolare l’energia cinetica quale equivalente della massa mancante. Parallelamente, se una particella si disintegra in due nuove particelle la cui massa è di un millesimo minore della particella iniziale, possiamo dire che quel millesimo di massa andata persa si sia in realtà tramutata secondo le formule relativistiche in energia liberata. Queste spiegazioni volte a giustificare la mancata rilevazione salvando i princìpi conservativi, chiaramente, possono essere ipotesi del tutto plausibili ma possono anche essere argumenta ad hoc in cui la difesa a tutti i costi dei princìpi di conservazione può apparire paradossale. La seconda via invece, che almeno per un certo periodo fu indicata da Bohr, consiste nel ritenere preferibile prendere atto che in determinati processi i princìpi suddetti non risultano confermati, anche se non sono necessariamente smentiti, cosicché per salvarli non si cerchino più a tutti i costi ipotesi ad hoc: quando in una interazione subatomica si rileva alla fine del processo dell’energia in più o in meno se ne potrà prendere atto, senza postulare quali portatrici del quantum mancante nuove particelle o antiparticelle non rilevate né numeri barionici o leptonici né misteriose energie cinetiche che si traducono in masse o che altro. Da questo punto di vista la quantità “stranezza”, così chiamata per il fatto che in essa in certi casi la quantità non si conserva, appare strana solo nel presupposto che la quantità debba sempre e comunque conservarsi. Si prenderà atto insomma di ciò che l’apparenza fenomenica dice, sen548
za pretendere di coartare i dati in una griglia interpretativa precostituita fosse anche costituita dai venerandi princìpi di conservazione. Certo, una particella nascosta o non rilevabile (neutrino o che altro) potrebbe essere la portatrice del quantum mancante, ma questo, in mancanza di rilevazioni, non indurrà a postularla comunque. La seconda via, finora praticamente mai battuta, appare promettente non fosse altro perché evita la proliferazione di argomenti ad hoc e rifiuta la trasformazione dei princìpi di conservazione in un dogma acritico. Infatti quando nei processi e nelle reazioni, in particolare nucleari, la quantità non riappare, dire che qualcosa che più non risulta si è tuttavia conservato rischia di diventare un puro e semplice atto di fede o (come l’avrebbe definita W. James) una Will to Believe. In generale, occorre prendere atto che la verifica e la base sperimentale dei princìpi di conservazione è piuttosto ristretta e limitata. I princìpi di conservazione non hanno una salda evidenza empirica, né questo deve stupire. Come si può rilevare che, nel vortice delle trasformazioni, qualcosa rimanga sempre costante? Non si può dirlo con certezza: lo si può solo postulare. Infatti i princìpi di conservazione sono assunti a priori, e un principio non è una legge e nemmeno un’ipotesi più o meno suscettibile di conferma o smentita. Un principio intende sempre postulare qualcosa che non è affatto evidente, e che anzi può anche essere controintuitivo. Se la conservazione fosse un’evidenza, non avremmo alcun bisogno di farne un principio: ne facciamo un principio proprio perché la realtà sembra invece mostrare il contrario, e cioè che nulla si conserva e tutto passa, nasce, muta, cambia, finisce. I princìpi di conservazione, del tutto a prescindere dalla loro eventuale verità o falsità, sembrano da tempo diventati nella scienza contemporanea un ingombrante feticcio o un «ostacolo epistemologico» nel senso bachelardiano del termine. Ma perché, prendendo congedo dalla difesa dogmatica dei princìpi di conservazione, noi non potremmo accettare l’idea che in una reazione chimica o nucleare possa emergere qualcosa di nuovo? Nelle reazioni e nei processi avvengono trasformazioni profonde, e l’effetto non appare sempre quantitativamente equivalente alla cau549
sa come vorrebbero le formulazioni più ingenue dei princìpi conservativi: del resto, come icasticamente disse una volta Eddington, «se una pagnotta si trasforma improvvisamente in un cavolo, la nostra sorpresa non è diminuita dal fatto che può non esserci stato alcun cambiamento di peso». Forse, dopo la divisione dell’atomo e la nascita della fisica delle particelle, e di contro o meglio in modo complementare alla classica idea atomistica della ricombinazione quantitativa dei medesimi elementi, è ora possibile ripensare l’opposta tesi aristotelica che privilegia i fenomeni in cui è ravvisabile una totalità organica e significativa per la quale nella m…xij, nel miktÒj gli elementi non permangono inalterati30: in questa diversa prospettiva la mescolanza appare come un’autentica fusione in cui gli elementi perdono la loro identità specifica nel crogiolo del nuovo composto; la trasformazione non è più qui un mero rimescolamento di carte in tavola in quanto genera qualcosa di nuovo e di diverso, che non conosce possibilità alcuna di reversibilità con ritorno alla condizione precedente, e in cui è vano voler ricercare una equivalenza corrispettiva ai dati precedenti. Ne traspare allora l’idea di una materia che non è eterna, che non si conserva per sempre bensì viene creata e distrutta e questo, certamente, appare assai poco compatibile con i princìpi di conservazione comportandone un abbandono di fatto. Tuttavia anche l’idea della materia eterna e indistruttibile, che sta dietro i princìpi di conservazione, ha la sua ragion d’essere: certamente infatti appare incomprensibile e assurdo che qualcosa venga dal nulla o scompaia nel nulla. Questo è l’elemento più forte in difesa dei princìpi di conservazione: non è pensabile che qualcosa, che pur non sembra conservarsi tale e quale nelle trasformazioni, diventi nulla. Una zolletta di zucchero che si scioglie nell’acqua non scompare nel nulla ma, appunto, si scioglie nell’acqua. Giungiamo così ad una paradossale antinomia: è incomprensibile che qualcosa si crei venendo
dal nulla o si distrugga diventando nulla, e altrettanto incomprensibile è l’opposta idea di una materia mai nata ed eterna che da sempre permane al fondo identica pur in tutte le sue infinite vicissitudini. Ci rendiamo conto alla fine che sia i princìpi di conservazione basati in ultima istanza sul presupposto metafisico di una materia eterna e indistruttibile sia l’opposta idea di una creatio ex nihilo con passaggio dal nulla all’essere appaiono idee antinomiche della mente umana in senso kantiano. Ma allora proprio per questo noi non dichiareremo falsi i princìpi di conservazione: più semplicemente li porremo fra parentesi accettando una lettura fenomenica dei dati che ora possono mostrare una quantità conservata ed ora no, senza che in quest’ultimo caso si debba forzatamente ricorrere ad argumenta ad hoc pur di mantenere a tutti i costi l’idea pregiudiziale della conservazione: quando in una reazione una quantità non appare conservata sarà possibile accettare il dato senza doverlo negare a tutti i costi, lasciando in mancanza di rilievi impregiudicata la questione se in realtà la quantità precedente è conservata attraverso particelle non rilevate o se invece si sia in presenza di una sparizione o creazione di energia. Sarà certo lecito considerare la massa mancante in una reazione nucleare come trasformata in energia liberata e sarà anche possibile quantificare esattamente tale energia, come vuole la formula relativistica, ma non vi sarà più alcuna necessità di postulare neutrini o antiparticelle non chiaramente risultanti solo per mettere al sicuro i princìpi di conservazione. Porre fra parentesi i princìpi di conservazione significa semplicemente dichiarare onestamente di non poter mostrare in ambito scientifico se nel mondo qualcosa si crei dal nulla o si distrugga sparendo nel nulla o se invece qualcosa di eterno permanga in infinite metamorfosi. Non è compito della scienza, del resto, scandagliare questo insondabile.
30 Sul problema della mixis nell’atomismo, nell’aristotelismo e nella chimica moderna v. P. Duhem, Le mixte et la combinaison chimique, Paris 1985, Fayard.
550
551
Stampato presso Piero Manni s.r.l. - San Cesario di Lecce nel febbraio 2008
552