La scienza che fu. Idee e strumenti di teorie abbandonate 8870759520, 9788870759525

Nella pratica scientifica quotidiana vengono utilizzati strumenti, apparati e macchinari che, con il passare del tempo,

221 6 6MB

Italian Pages 125/127 [127] Year 2017

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

La scienza che fu. Idee e strumenti di teorie abbandonate
 8870759520, 9788870759525

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

STORIE DELLA SCIENZA

Collana diretta da Marco Beretta

Francesco Barreca

LA SCIENZA CHE FU Idee e strumenti di teorie abbandonate

Le fotocopie per uso personale del lettore possono essere effettuate nei limiti del 15% di ciascun volume dietro pagamento alla siae del compenso previsto dall’art. 68, commi 4 e 5, della legge 22 aprile 1941 n. 633. Le riproduzioni per finalità di carattere professionale, economico o commerciale o comunque per uso diverso da quello personale possono essere effettuate a seguito di specifica autorizzazione rilasciata da aidro, corso di Porta Romana n. 108, 20122 Milano, e-mail [email protected] e sito web www.aidro.org

Progetto grafico: Alberto Lameri Impaginazione: CreaLibro di Davide Moroni - Legnano (MI) ISBN formato pdf: 978-88-9357-259-0 Copyright © 2017 Editrice Bibliografica via F. De Sanctis, 33/35- - 20141 Milano Proprietà letteraria privata - Printed in Italy

INDICE

Introduzione

7

1. L’equante Salvare i fenomeni Una questione di principio Viaggio su Marte e ritorno Dagli angoli alle aree

13 13 19 23 27

2. L’impetus Proiettili e motori Virtù motrici Misurare le qualità Dall’impeto alla forza

29 29 33 36 40

3. Gli indivisibili Quadrare il cerchio Poco più di niente, poco meno di qualcosa Tra flussioni e infinitesimi Al limite dell’infinito

43 43 48 54 59

4. Il flogisto Il secolo del flogisto Il fuoco in ogni cosa Flogistizzando e deflogistizzando Dall’aria deflogisticata all’ossigeno

61 61 64 68 73

5. L’etere luminifero E luce fu Una nuova materia Moto assoluto Spazio e tempo ≠ spaziotempo

77 77 82 87 92

6. L’atomo-vortice Dalle ceneri del flogisto Corpuscoli e nebule Vertigini elettromagnetiche Fine della storia?

95 95 98 102 109

Conclusioni Bibliografia Indice dei nomi

113 115 123

INTRODUZIONE

Questo libro parla di nozioni scientifiche obsolete e oltremodo curiose: punti e circoli immaginari che determinano effetti fisici reali, virtù motrici e motori interni attivabili con la semplice imposizione delle mani, linee senza spessore ma che possono essere sommate come se lo avessero, fluidi invisibili e con peso negativo che entrano ed escono dai corpi, materie solide più rigide dell’acciaio ma più rarefatte dell’aria che permeano l’intero universo e minuscoli vortici che riempiono lo spazio fino a costituire la materia. Si tratta di nozioni completamente abbandonate che oggi giacciono, insieme a molte altre, in quelli che possiamo chiamare gli “scantinati della scienza”. Come gli strumenti e le apparecchiature obsolete o irrimediabilmente danneggiate vengono periodicamente sostituite con altre più nuove e precise, infatti, così gli strumenti concettuali grazie ai quali si elaborano le teorie scientifiche vengono continuamente rimpiazzati e quelli vecchi, ormai banditi dalla scienza, affidati, nel migliore dei casi, alle cure antiquarie degli storici. In qualche modo, queste nozioni possono essere considerate come il corrispettivo, in ambito scientifico, di quelli che in gergo informatico vengono chiamati abandonware: programmi obsoleti che un tempo servirono efficacemente al loro scopo, ma che oggi, non avendo più mercato, non sono più sviluppati né commercializzati. Abbandonati perché difficili da usare, o troppo lenti, oppure semplicemente perché, col passaggio a sistemi operativi più evoluti, le loro funzioni sono state integrate in questi ultimi, rendendoli di fatto inuti7

li. Ecco, quello che si farà nel seguito sarà gettare uno sguardo allo sviluppo scientifico attraverso alcuni abandonware della scienza. Come è facile immaginare, la scienza è piena di abandonware: basti pensare alle nozioni di umore in medicina e fisiologia e a quello di affinità in alchimia e chimica, tanto per citarne due che, pur rinnegati dalla scienza, hanno continuato a esistere in altre forme nel linguaggio comune. Prendere in considerazione anche soltanto i più significativi vorrebbe dire ripercorrere l’intera storia della scienza nelle sue molteplici direzioni e prospettive, un’impresa che travalica i modesti scopi di quest’opera e in ogni caso al di sopra delle limitate capacità del suo autore. Nei prossimi capitoli perciò ne considereremo, senza alcuna pretesa di completezza ed esaustività, soltanto sei, tutti provenienti dal campo delle scienze fisico-matematiche e connessi in particolare ai problemi del moto e della materia. Questo non solo per una questione di omogeneità e per garantire un minimo di coerenza alla trattazione, ma anche perché, nell’immaginario comune, le scienze fisico-matematiche sono quelle che più procedono “per accumulazione” e sono perciò spesso presentate, nella loro esposizione scolastica e divulgativa, in una forma espurgata della dimensione storica e, conseguentemente, dell’errore. Lo scopo di questo libro, però, non è quello di dimostrare che la scienza può sbagliare, né tantomeno quello di esibire la bizzarria delle credenze degli antichi; piuttosto, l’obiettivo è quello di capire, attraverso l’esame di alcune nozioni scientifiche ormai in disuso, come queste possano aver fatto presa su intere generazioni di studiosi, nella speranza che ciò possa insegnarci qualcosa sulla conoscenza scientifica in generale. Interpretare la scienza esclusivamente in termini di giusto/ sbagliato e vero/falso rispetto alle conoscenze odierne sarebbe infatti semplice, ma anche riduttivo, poiché condurrebbe a guardare a essa come a una lunga successione di errori o, alternativamente, come a una disordinata raccolta di conclusioni vere tratte da premesse false. Come osservava Gogol’, 8

La scienza che fu

La generazione presente vede tutto con chiarezza, si meraviglia degli errori, ride dell’irragionevolezza dei suoi antenati, senza vedere che questa cronaca è tracciata da una fiamma celeste, che ogni sua lettera grida, che da ogni riga un dito accusatore è puntato su di lei, sulla generazione presente: ma ride, la generazione presente, e, presuntuosa, orgogliosamente comincia una serie di nuovi errori, sui quali allo stesso modo rideranno poi i posteri.1

In questo libro, perciò, non guarderemo alla storia della scienza nei termini dei contributi che, nei diversi periodi, sono stati dati alla “nostra” scienza, ma in una dimensione storica; come parte, cioè, di un contesto culturale in cui alcuni problemi avevano più rilevanza di altri e non necessariamente coincidevano con quelli che oggi noi consideriamo questioni fondamentali. In altre parole, guarderemo al nostro passato scientifico in funzione della “scienza che fu” e non, come avviene spesso nei testi divulgativi e didattici, in funzione della “scienza che sarà”. Le nozioni che esamineremo nelle prossime pagine furono importanti non perché “presagirono” o anticiparono gli sviluppi successivi della scienza, ma piuttosto perché avviarono dei programmi di ricerca effettivi che fruttarono diversi risultati non necessariamente tuttora validi, ma comunque decisivi nell’evoluzione della conoscenza umana. La maggior parte di quelle che oggi consideriamo “conquiste” scientifiche, infatti, nascono a partire da nozioni che oggi considereremmo, senza esitazione, “sbagliate”. In questa prospettiva, lo “sbaglio”, l’“errore” e il “falso” si dimostrano categorie interpretative insufficienti per rendere conto della complessità dell’evoluzione della scienza. Lo scopo di questo libro è perciò quello di illustrare come la ricerca scientifica si sia realizzata in alcune particolari situazioni storiche, nella convinzione che comprendere come mai tutta una serie di idee e concetti che oggi consideriamo senza dubbio 1 Le anime morte, Milano, Feltrinelli, 2009, p. 210.

INTRODUZIONE

9

erronei siano stati difesi e sostenuti da persone non certo ingenue o sprovvedute possa aiutare a capire con quale criterio, oggi, la scienza garantisca diritto di cittadinanza ad alcune teorie e non ad altre, e in che senso una nozione o una teoria possano definirsi scientifiche. Nel corso del volume saranno prese in considerazione principalmente le nozioni e solo in subordine le teorie che sulla base di queste nozioni furono elaborate. Se pensiamo a una teoria in senso logico come composta da un certo numero di simboli, un elenco primitivo di combinazioni di simboli detti assiomi e un set di regole di inferenza che permette di derivare nuove combinazioni dall’insieme primitivo, diciamo che ci dedicheremo principalmente agli assiomi. A questo riguardo, è bene osservare che il fatto che alcune combinazioni di simboli siano scelte come assiomi non necessariamente implica che ci sia qualcosa, in esse, che le renda per natura diverse da altre possibili combinazioni. La scelta può essere motivata da diversi fattori, tra i quali, non da ultimo, la possibilità di ricavare da esse un maggior numero di nuove combinazioni. In questo modo si può cominciare a capire perché possa capitare che un’intuizione “sbagliata” produca, in un certo momento storico, un maggior numero di conclusioni vere e sia perciò più accettata di una “giusta” che però, in determinate circostanze, di conclusioni vere (o anche di conclusioni in generale) ne produce relativamente poche. La scelta delle nozioni scientifiche, storicamente, è stata spesso determinata da fattori che oggi considereremmo non scientifici. Esse costituirono la base del linguaggio comune che gli studiosi di una certa epoca utilizzarono per discutere e far procedere – per mezzo delle teorie – il cammino della conoscenza. Le nozioni che considereremo fanno parte di quelle che lo storico della scienza Ferdinando Abbri ha chiamato “fisarmoniche concettuali”:2 concetti ridondanti che, nel 2 Ferdinando Abbri, Le terre, l’acqua, le arie: la rivoluzione chimica del Settecento, Bologna, il Mulino, 1984.

10

La scienza che fu

contesto specifico della cultura di un tempo, contribuirono all’elaborazione di diverse teorie e furono da ciascuna di esse modificati e impiegati in modi differenti pur mantenendo un nucleo significativo costante. Queste nozioni, molto spesso, furono abbandonate non perché, in senso stretto, sbagliate, ma solo in quanto inutili o inefficaci alla luce di nuove conoscenze teoriche o sperimentali, oppure semplicemente perché il contesto culturale generale stava mutando e con esso anche la natura dei nodi problematici che esse permettevano di affrontare. In questo senso, furono insieme espressione di un dato contesto culturale e, nel loro essere analizzate e rielaborate, fattore di cambiamento, in un processo incessante di discussione, revisione, abbandono, recupero e ideazione di nuove teorie consacrato a un unico fine: il raggiungimento della conoscenza certa. “Per sua natura”, diceva un teologo del Quattrocento, “l’uomo ricerca la certezza e la chiara evidenza, e non trova pace finché non le raggiunge”.3 La storia della scienza è un grande romanzo d’appendice in cui amanti tribolati si perdono e si ritrovano grazie a coincidenze inverosimili, imprese rocambolesche e imprevedibili colpi di scena: nelle prossime pagine ne leggeremo qualche passaggio.

3 Raimondo Sibiuda, Theologia Naturalis seu liber creaturarum (1496), I.

INTRODUZIONE

11

1. L’EQUANTE

Salvare i fenomeni Il 16 ottobre 2002, a quasi trent’anni di distanza dal primo progetto, è stata inaugurata ad Alessandria d’Egitto la Bibliotheca Alexandrina. Il complesso di edifici che la ospita, progettato dallo studio norvegese Snøhetta, ha richiesto otto anni di lavori per essere completato e copre 85.000 metri quadrati. Al suo interno trovano spazio una sala lettura di 70.000 metri quadrati disposti su undici livelli, una sala conferenze, sei biblioteche specializzate, quattro musei, un planetario, tredici centri di ricerca, quattordici mostre permanenti, una sala conferenze che può accogliere fino a mille persone e diversi spazi multimediali. Gli scaffali e i depositi hanno spazio sufficiente per contenere fino a otto milioni di libri. Nelle parole del direttore Ismail Serageldin, la Bibliotheca Alexandrina è “l’erede dell’antica Biblioteca di Alessandria” e ambisce a diventare “un centro di eccellenza per la produzione e la diffusione della conoscenza”.1 Istituita dal sovrano Tolomeo I verso la fine del III secolo dopo Cristo, l’antica Biblioteca di Alessandria fu a lungo la più importante biblioteca del mondo antico. Al tempo del regno Tolomeo II (285-246 d.C.) custodiva all’incirca 532.000 opere (catalogate per soggetto, autore e titolo) e ne acquisiva regolarmente di nuove. La biblioteca faceva parte di un più vasto complesso di istituzioni, il Museo (ovvero “edificio dedicato alle muse”), 1 Director’s message, http://www.bibalex.org/en/Page/message.

13

concepito come centro culturale in senso ampio: un luogo dove gli studiosi potevano ritrovarsi e avere a disposizione tutto il necessario per condurre le loro ricerche su ogni argomento dello scibile umano. Erano infatti parte del Museo, oltre alla Biblioteca, anche un Orto botanico, un Osservatorio astronomico, un Giardino zoologico, una Sala anatomica e alcune sale lettura. Il Museo può sembrare poca cosa rispetto all’odierna Bibliotheca Alexandrina, ma bisogna tener presente che, al momento del suo massimo splendore, Alessandria difficilmente raggiungeva i 100.000 abitanti, mentre oggi è una metropoli che ne conta all’incirca 4 milioni. Per rendersi conto dell’importanza del Museo nel mondo antico è comunque sufficiente scorrere l’elenco di coloro che, a vario titolo, lo elessero a propria sede di studi. Solo per restare nell’ambito delle discipline matematiche e dei nomi (più o meno) noti anche al grande pubblico, ad Alessandria vissero e lavorarono Euclide (III secolo a.C.), Eratostene (276-195 a.C.), Apollonio di Perga (262-190 a.C.) ed Erone (I-II secolo a.C.). Nel II secolo dopo Cristo al Museo di Alessandria lavorò Claudio Tolomeo, uno dei più grandi astronomi dell’antichità. La sua Composizione matematica, pubblicata intorno al 140 d.C., offrì una rappresentazione matematica dei moti celesti così efficace da resistere per oltre mille anni. L’opera stessa si sarebbe guadagnata prima il titolo di “Grande composizione matematica di astronomia” e poi quello di al-Magisṭī (“La più grande [composizione matematica di astronomia]”), e come Almagesto sarebbe stata conosciuta anche in Europa. L’Almagesto è, sotto molti aspetti, la dimostrazione di quali straordinari risultati si potessero raggiungere lavorando in un ambiente come il Museo. Nelle sue pagine sono infatti raccolte le osservazioni astronomiche compiute dallo stesso Tolomeo all’Osservatorio e quelle tramandate dai suoi predecessori nelle loro opere custodite nella Biblioteca; vi sono messi a frutto i risultati della grande tradizione matematica alessandrina e ve ne sono di nuovi, ottenuti verosimilmente lavorando nella tranquillità delle sale lettura; c’è, infine, il 14

La scienza che fu

riferimento sicuro a un patrimonio culturale condiviso, del quale il Museo stesso era simbolo e custode. E tutto questo per raggiungere un unico, grande obiettivo: salvare i fenomeni. L’esigenza di elaborare una descrizione dei moti celesti che fosse matematicamente precisa e al tempo stesso coerente con le idee di ordine, regolarità e perfezione proprie della mentalità greca era ancora molto sentita ai tempi di Tolomeo e si traduceva nel tentativo di spiegare i movimenti degli astri ricorrendo solo a moti circolari uniformi. Simplicio, un commentatore di Aristotele (383-384 a.C. - 322 a.C.) vissuto nel VI secolo dopo Cristo, attribuiva a Platone (428-427 a.C. - 348347 a.C.) la formulazione di questo mandato. Platone, riferisce Simplicio, avrebbe sfidato i matematici chiedendogli quali fossero “i movimenti circolari, uniformi e perfettamente regolari che conviene prendere come ipotesi per salvaguardare le apparenze presentate dai pianeti”.2 Un astronomo del I secolo d.C., Gemino di Rodi, sosteneva invece che fossero stati i pitagorici i primi a formulare il quesito. “I Pitagorici”, si legge nell’Introduzione ai fenomeni, “furono i primi ad occuparsi di astronomia e ritennero che il moto del Sole, della Luna e dei cinque pianeti fosse circolare e regolare […]; perciò posero la seguente questione: come si può dare conto dei fenomeni celesti coi soli moti circolari uniformi?”.3 Che il moto degli astri sia circolare e uniforme è esplicitamente affermato da Aristotele, il quale, peraltro, non fa che dar voce e dignità filosofica a un’idea che sembra esser stata tipica della cultura greca. I babilonesi, che pure avevano elaborato una raffinata astronomia e rappresentavano i moti celesti con sequenze di numeri, non pare fossero turbati dalla possibilità di un moto non uniforme. Il problema, però, è che gli astri non sembrano affatto muoversi di moto circolare uniforme. Osservando il cielo notturno, infatti, la prima cosa che si nota è che le stelle sorgono e tramontano, ruotando uniformemente intorno a un punto 2 De caelo, II, 12. 3 Isagoge, I, 19-22.

1. L’EQUANTE

15

specifico e restando sempre alla stessa distanza una dall’altra, come se fossero infisse nella parte interna di una sfera che ruota su se stessa (e perciò i greci parlavano di sfera delle stelle fisse). Se si osserva attentamente il cielo lungo l’arco di più notti, tuttavia, si può notare che ci sono alcuni astri che si muovono per conto proprio sullo sfondo delle stelle fisse, come se fossero infissi in altre sfere. Questi astri non si muovono in modo regolare: vanno avanti, rallentano, si fermano, diventano più luminosi, tornano indietro, accelerano e poi ripartono in avanti tornando alla luminosità iniziale. A complicare le cose c’è poi il fatto che le retrogradazioni (ovvero le fasi in cui l’astro torna indietro e appare più luminoso) non avvengono a intervalli esattamente regolari, non hanno la stessa durata e non sembrano neppure ripetersi ciclicamente. I greci individuarono cinque di questi astri e li chiamarono stelle erranti, ovvero, con un termine greco, pianeti. “Salvare i fenomeni”, dunque, significava elaborare una teoria matematica che desse conto a) delle retrogradazioni dei pianeti, b) della variazione di luminosità, c) della variazione di velocità, a partire da due presupposti “filosofici”: 1) l’immobilità della Terra al centro dell’Universo, 2) il moto circolare uniforme degli astri.4 Il modello più antico di cui abbiamo notizia è quello di Eudosso di Cnido, elaborato nel IV secolo a.C. Secondo Eudosso, l’universo è costituito da un sistema di sfere agganciate l’una all’altra, e al centro di questo sistema c’è la Terra (per questo motivo, è conosciuto anche come modello a sfere omocentriche). Ogni pianeta è infisso in una sfera che ruota su se stes4 C’erano, in realtà, da spiegare anche tutta una serie di anomalie “minori” che riguardavano la sfera delle stelle fisse, la Luna e il Sole. Per semplicità, prendiamo qui in considerazione solo i pianeti.

16

La scienza che fu

sa uniformemente e in senso antiorario; questa sfera è a sua volta agganciata a un’altra, che ruota alla stessa velocità della prima, ma in direzione opposta e rispetto a un’asse di rotazione diverso, così che dalla combinazione dei due movimenti risulta una curva simile al simbolo dell’infinito (∞), chiamata ippopeda. Una terza sfera, infine, trascina le due sfere inferiori, producendo il moto del pianeta così come appare in cielo, con le sue retrogradazioni e variazioni di velocità. Il modello a sfere omocentriche fu adottato da Aristotele perché ben si adattava alla sua idea di un universo mosso da “un primo motore immobile” in cui il movimento viene trasmesso alle sfere inferiori grazie a principi meccanici, come in un orologio. Il sistema però aveva due grosse falle: non spiegava le variazioni di luminosità e non era in grado di fornire previsioni affidabili delle posizioni degli astri. Gli astrologi, particolarmente interessati a questo secondo aspetto, continuarono perciò a usare le tavole astronomiche compilate dai babilonesi – con buona pace del moto circolare uniforme – fino a quando Tolomeo non trovò una soluzione più efficace di quella di Eudosso. Il sistema di Tolomeo è conosciuto come sistema epiciclo-deferente ed è derivato dagli studi di Ipparco di Nicea (II sec. a.C.), ai quali viene costantemente fatto rimando nel corso dell’Almagesto. Alla base di questo sistema c’è l’idea che il pianeta si muova a velocità costante lungo una circonferenza, detta epiciclo, il cui centro, a sua volta, si muove anch’esso uniformemente lungo un’altra circonferenza detta deferente. Questa soluzione dà elegantemente conto sia delle retrogradazioni sia delle variazioni di luminosità – quando il pianeta si muove all’indietro è più vicino alla Terra e quindi appare più luminoso – ma, in questa forma semplice, non spiega la velocità non uniforme. Per far ciò, Tolomeo introdusse due importanti innovazioni. La prima era, tutto sommato, indolore: il centro del deferente, secondo Tolomeo, non coincide con il centro della Terra, ma è leggermente spostato – il deferente, detto in altri termini, è eccentrico. Questo fa sì che a un osservatore posto sulla Terra il pianeta sembri muoversi 1. L’EQUANTE

17

a velocità non uniforme (più velocemente quando è vicino, più lentamente quando è lontano). Si tratta di una variazione di velocità soltanto apparente, perché il pianeta in realtà procede nel suo percorso sempre alla stessa velocità. Anche in questa versione modificata, però, i conti non tornavano. Il modello non forniva ancora predizioni affidabili e non dava conto delle anomalie della velocità in maniera adeguata. Serviva qualcosa di più drastico, qualcosa che permettesse di aggirare il dogma del moto uniforme attenendosi però alla sua lettera. Questo qualcosa è l’equante. Il nostro pianeta, dunque, si muove uniformemente lungo l’epiciclo e il centro dell’epiciclo sta su un deferente eccentrico rispetto a quello della Terra. Ora, secondo Tolomeo, il pianeta si muove di moto uniforme non rispetto al centro del deferente, e nemmeno rispetto al centro dell’epiciclo o al centro della Terra, ma rispetto a un altro punto, detto punto equante, e al rispettivo circolo equante (e questo anche se l’epi-

Figura 1 - Modello tolemaico

18

La scienza che fu

ciclo stesso non si trova sul circolo equante). In termini più semplici: se fosse sul circolo equante, il pianeta si muoverebbe di moto uniforme; ma esso è invece posto su un epiciclo che, a sua volta, non sta sul circolo equante, ma su un deferente. Tolomeo, inoltre, assumeva come riferimento la velocità angolare, non quella lineare. Ovvero, il pianeta traccia angoli uguali in tempi uguali rispetto al punto equante. Questo vuol dire che, sia sull’epiciclo che sul deferente, la velocità non è uniforme, ma è accelerata quando il pianeta è lontano dall’equante e rallentata quando gli è più vicino, e questo effetto è reso ancor più evidente dalla variazione apparente di velocità dovuta all’eccentricità del deferente.5 La lettera del dogma, secondo Tolomeo, era comunque salva: il pianeta si muove sempre con velocità uniforme. Solo che questa velocità è la velocità angolare, e il punto rispetto al quale essa è uniforme è un punto immaginario che non coincide né col centro dell’orbita né con quello della Terra. Di fatto, è come dire che la velocità non è uniforme. Comunque, grazie al dispositivo equante-deferente, Tolomeo riusciva a dare finalmente conto delle variazioni di velocità dei pianeti, ma a un prezzo altissimo. L’equante, infatti, apparve presto per quel che era: un’entità puramente geometrica, un artificio per far quadrare i conti, un trucco. Come si suol dire, fatta la legge, trovato l’inganno.

Una questione di principio Come molti grandi innovatori, Niccolò Copernico (14731543) era in realtà un conservatore. Educato nel clima di un umanesimo che aveva mitizzato l’antichità e ne aveva assor5 Abbiamo riportato in questo modo l’introduzione dell’equante per aiutare la comprensione, ma in realtà il procedimento esposto nell’Almagesto è diverso. Tolomeo introduce dapprima il “circolo equante”, dopodiché dimostra che l’epiciclo non può essere posto su di esso. In altri termini, Tolomeo introduce prima l’equante e poi il deferente. Non è chiaro, peraltro, come mai Tolomeo abbia deciso di introdurre l’equante. Un deferente il cui centro ruota intorno alla Terra – una soluzione impiegata dallo stesso Tolomeo per descrivere il movimento della Luna – poteva salvare i fenomeni allo stesso modo senza sollevare i problemi concettuali dell’equante.

1. L’EQUANTE

19

bito gli ideali di ordine, armonia, unità e proporzionalità in modo forse ancor più radicale che gli stessi Greci, il sistema tolemaico gli appariva come una vera e propria mostruosità. Nel corso dei secoli, infatti, per dare conto di piccole e grandi anomalie, gli astronomi avevano apportato all’originario sistema di Tolomeo molti aggiustamenti, col risultato che, al tempo di Copernico, ogni astro aveva la sua “teoria”, ovvero la sua spiegazione matematica, diversa dagli altri, e l’intero sistema sembrava a Copernico, letteralmente, una specie di mostro di Frankenstein: A loro [agli astronomi tolemaici] capitò proprio come a un artista che, prendendo da molti luoghi diversi mani, piedi, testa e altre membra, molto belle in sé, ma non fatte per un solo corpo, anzi per nulla tra loro corrispondenti, formasse così un mostro invece che un uomo.6

Queste parole si leggono nel De revolutionibus orbium coelestium (1543), l’opera – pubblicata postuma – nella quale Copernico proponeva il suo sistema eliostatico.7 La Terra, nel sistema copernicano, ruota intorno al Sole insieme agli altri pianeti, e questo, secondo Copernico, darebbe conto delle anomalie nel moto degli astri. La spinta a rivedere il sistema tolemaico fu filosofica, non matematica: per Copernico un sistema astronomico non doveva solo limitarsi a salvare i fenomeni, ma doveva rappresentare la “vera” costituzione dei cieli. Secoli di aggiustamenti, modifiche e piccole sistemazioni avevano, infatti, fatto passare l’idea che il sistema tolemaico fosse, in realtà, un mero strumento di calcolo delle posizioni planetarie e non una descrizione fedele dell’universo. I filosofi e i teologi avevano perciò continuato a seguire Eudosso e Aristotele, lasciando ai “matematici” il modello tolemaico. 6 De revolutionibus orbium coelestium, Les Belles Lettres, Paris, 2015, vol. II, p. 7. 7 Il sistema copernicano è stato a lungo conosciuto come sistema eliocentrico. In realtà, nel modello copernicano il Sole non è esattamente al centro dell’Universo – anzi, il primo postulato della teoria è che le sfere celesti non hanno un centro comune. Pertanto, oggi si preferisce usare l’aggettivo “eliostatico” al posto di “eliocentrico”.

20

La scienza che fu

Per Copernico, questo era inaccettabile. Una teoria astronomica non poteva limitarsi a offrire soluzioni che semplicemente salvassero i fenomeni, ma doveva ambire a dare una rappresentazione della realtà delle cose. Dio aveva impresso nel mondo simmetria, ordine, armonia, ed era compito dell’astronomo riuscire a individuare questi principi al di là delle apparenze. Il moto circolare uniforme è uno dei caratteri principali dell’ordine voluto da Dio, e cercare di aggirarlo come aveva fatto Tolomeo con l’equante significava, agli occhi di Copernico, una sola cosa: barare. Quel che fu tramandato da Tolomeo e da molti altri – scrive Copernico nel Commentariolus, un breve trattato composto intorno al 1514 – pur corrispondendo con i dati numerici, sembrava presentare non poche difficoltà. Infatti queste teorie non erano sufficientemente attendibili senza immaginare anche un certo numero di circoli equanti, a causa dei quali però il pianeta non pareva muoversi con velocità sempre costante, né sulla sua sfera deferente, né intorno al suo centro. Per questo una tale teoria non sembra essere abbastanza assoluta e nemmeno abbastanza conforme alla ragione.8

Rinunciando all’equante, Copernico si trovava però costretto a trovare una nuova via per affrontare il problema del moto non uniforme. Il solo moto della Terra, infatti, non era sufficiente a spiegare le variazioni di velocità dei pianeti; per di più, Copernico considerava ancora la Terra un posto “speciale” nell’Universo, e non era perciò disposto ad affermare che la sua orbita fosse eccentrica rispetto al Sole e neanche che essa ruotasse su un epiciclo. Per risolvere queste difficoltà, Copernico immaginò che ogni pianeta si muovesse di moto uniforme su un epiciclo il cui centro giaceva, immobile, sul8 Commentariolus. Breve trattato sulle ipotesi dei movimenti celesti, Roma, Theoria, 1984, pp. 37-38.

1. L’EQUANTE

21

Figura 2 - Modello copernicano

la circonferenza di un altro epiciclo il cui centro, a sua volta, viaggiava lungo un deferente eccentrico rispetto al Sole. Tutti i moti, così, risultavano uniformi rispetto al proprio centro e non c’era necessità di ricorrere all’equante. Il prezzo da pagare, tuttavia, era una maggiore complessità e, soprattutto, un’infinità di problemi fisici e filosofici connessi all’idea di una Terra mobile. Dovendo scegliere se salvare il dogma del moto circolare uniforme o quello della Terra immobile al centro dell’Universo, Copernico aveva scelto il primo. Nel fare questa scelta, egli si sentiva confortato dal fatto che i greci avevano talvolta messo in dubbio l’immobilità della Terra, ma non avevano mai dubitato del moto circolare uniforme. L’idea di una Terra mobile era per lui più “conforme alla ragione” di una soluzione puramente geometrica per salvare i fenomeni e, dal suo punto di vista, l’equante era il simbolo di un’astronomia che 22

La scienza che fu

aveva rinunciato a descrivere la vera struttura del mondo e si era ridotta in una dimensione puramente strumentale. Poco importava che il suo sistema fosse spesso più complicato e meno efficace di quello tolemaico, che fosse difficile capire come una Terra mobile potesse ancora essere il centro di gravità dei corpi pesanti o perché, tra la sfera di Saturno e quella delle stelle fisse, vi fosse uno spazio vuoto pressoché sconfinato; tutto questo, secondo Copernico, avrebbe potuto essere spiegato col tempo.9 Assolutamente implausibile era invece l’idea che i pianeti ruotassero di moto uniforme non rispetto alla Terra o al centro delle proprie orbite, ma rispetto a dei punti immaginari disseminati nel cielo dove faceva più comodo all’astronomo di turno. Questo veramente ripugnava alla ragione umana. O almeno così pensava Copernico.

Viaggio su Marte e ritorno Nel 1603, l’astronomo imperiale Johannes Kepler (15711630) sembrava essere giunto a un punto morto nelle sue ricerche sull’orbita di Marte iniziate all’incirca due anni prima sotto la direzione di Tycho Brahe (1546-1601).10 In quel momento, egli era virtualmente l’unico astronomo in Europa ad avere a disposizione i dati raccolti da Brahe, il quale, lavorando su di essi, era giunto alla conclusione che né il modello tolemaico né quello copernicano riuscivano a dare conto in 9 La mancata osservazione della parallasse stellare (ovvero della variazione delle posizioni relative delle stelle fisse dovuta al moto della Terra) era giustificata sostenendo che la sfera delle stelle fisse fosse troppo lontana dall’osservatore. Questa giustificazione, dal punto di vista odierno, è tutto sommato corretta; tuttavia, dal punto di vista di Copernico e dei suoi contemporanei era molto problematica. Si pensava infatti che le stelle fisse fossero tutte attaccate alla stessa sfera, e questo implicava che ci fosse, tra il cielo di Saturno e quello delle stelle fisse, un enorme spazio vuoto, e pertanto che ogni stella fissa fosse molto più grande dell’intero sistema solare. 10 Tycho Brahe è stato uno dei più grandi astronomi della storia. Durante la sua carriera, mise in piedi un osservatorio dotato di strumenti all’avanguardia, grazie ai quali calcolò le posizioni degli astri con una precisione mai raggiunta prima. Nel 1600 fu assunto come astronomo imperiale da Rodolfo II e si trasferì a Praga, dove prese al suo servizio il giovane e promettente Kepler come assistente nella costruzione di un modello astronomico geo-eliocentrico. La Terra, nel modello di Tycho, era immobile al centro dell’Universo; intorno ad essa ruotava il Sole e intorno al Sole ruotavano i pianeti.

1. L’EQUANTE

23

modo soddisfacente di quello che avveniva in cielo. Kepler, tuttavia, era un convinto copernicano, anche se le sue motivazioni erano diverse da quelle di Copernico. Egli condivideva l’idea copernicana secondo la quale il compito dell’astronomia era quello di fornire una descrizione “vera” dei cieli, ma si spingeva oltre affermando che, per fare ciò, l’astronomo non potesse esimersi dall’indagare le cause dei movimenti celesti. Era, questo, un tema che gli astronomi avevano da lungo tempo smesso di considerare, ritenendo fosse argomento specifico della filosofia naturale. Essi si contentavano di dare una descrizione matematica, senza porsi il problema del perché gli astri si muovessero in un certo modo. Per Kepler, tuttavia, nel momento in cui l’astronomia rinunciava a studiare le cause del moto si precludeva la possibilità di cogliere la vera disposizione del mondo. Da un punto di vista puramente geometrico, infatti, il sistema tolemaico e quello copernicano sono equivalenti: il vero discrimine tra i due è dato dal fatto che uno rappresenta la realtà meglio dell’altro, e da questo punto di vista il sistema copernicano era da preferirsi “per ragioni fisiche e metafisiche”.11 Il moto degli astri, secondo Kepler, è determinato dall’azione del Sole – l’unica entità fisica che sembra esser capace di “far muovere” le cose – e perciò è opportuno che il Sole sia posto al centro dell’Universo e sia il centro di rotazione dei pianeti. Rispetto al sistema eliostatico di Copernico, quello di Kepler è perciò un sistema più strettamente eliocentrico. Kepler supponeva inoltre che l’intensità dell’azione del Sole fosse inversamente proporzionale alla distanza, e questo gli dava modo di spiegare sia l’eccentricità delle orbite dei pianeti, sia la loro velocità non uniforme. In più, gli permetteva di recuperare l’equante come potente strumento di calcolo. “La causa dell’equante”, dichiarava, “è essenzialmente fisica”.12 Se, infatti, il Sole fa muovere i pianeti in cir11 Mysterium cosmographicum, KGW, I, p. 9. 12 Lettera a Michael Maestlin, 10/20 dicembre 1601.

24

La scienza che fu

colo e la sua efficacia varia in funzione della distanza, allora non c’è niente di così ripugnante nell’ammettere che il punto rispetto al quale la velocità angolare è uniforme è un punto geometrico diverso dal centro dell’orbita e dal corpo del Sole. Molto più difficile da credere, secondo Kepler, era che i pianeti si muovessero lungo un sistema di epicicli e deferenti come quello ipotizzato da Copernico per salvare il dogma del moto uniforme. Non solo: l’eccentricità dell’equante non necessariamente doveva essere fissa: l’ipotesi fisica della velocità inversamente proporzionale alla distanza, infatti, poteva giustificare la variazione di eccentricità dell’equante. La posizione del punto equante, dunque, si poteva determinare di volta in volta in funzione della variazione della velocità lineare dell’astro. L’ipotesi formulata per l’orbita di Marte nel 1602 era, appunto, quella di un’orbita circolare copernicana con un equante la cui eccentricità variava nel tempo. Questa soluzione, da Kepler chiamata ipotesi vicaria, forniva risultati in linea con i dati di Brahe quando Marte e Terra erano in opposizione (cioè quando Sole, Terra e Marte giacevano sulla stessa linea), ma falliva nel prevedere la posizione del pianeta nelle altre situazioni. La discrepanza con i dati era minima – sia Tolomeo che Copernico avrebbero considerato la soluzione di Kepler più che accettabile – ma la precisione delle osservazioni di Brahe imponeva di non accontentarsi: una teoria vera doveva essere perfettamente in accordo con i dati osservativi. La supposizione di Kepler fu che la discrepanza fosse dovuta all’imperfetta determinazione dell’orbita della Terra. Sia la teoria terrestre di Copernico che quella solare di Brahe non sembravano offrire soluzioni adeguate e così Kepler si risolse a determinare da sé l’orbita con un metodo semplice e ingegnoso. Egli immaginò di essere su Marte e di stare osservando la Terra da lassù.13 Ora, il periodo orbitale di 13 La fascinazione di Kepler per i viaggi spaziali è testimoniata dall’opera Somnium, pub-

1. L’EQUANTE

25

Marte è di 687 giorni, il che vuol dire che ogni 687 giorni il pianeta si ritrova esattamente nello stesso punto. Kepler poteva perciò scegliere quattro osservazioni di Marte a distanza di 687 giorni una dall’altra e attribuire la differenza delle posizioni osservate interamente al moto della Terra; grazie a questi quattro punti, poi, poteva tracciare l’orbita. Quello che ottenne fu che non solo l’orbita della Terra, contrariamente a quanto pensava Copernico, era eccentrica rispetto al Sole, ma addirittura sembrava che il pianeta ruotasse di moto uniforme rispetto a un equante e che l’eccentricità del punto equante fosse uguale all’eccentricità del Sole. Anche la Terra, come tutti gli altri pianeti, era soggetta all’ipotesi fisica. Questo dava modo a Kepler di provare a trovare la “regola” che descriveva la variazione della velocità della Terra lungo l’orbita, in modo da poter prevedere la sua posizione in ogni dato tempo e rimuovere, così, l’errore presente nell’ipotesi vicaria. Per far ciò, si affidò a un’intuizione nata più dalla necessità di semplificare i calcoli che da un solido ragionamento matematico. L’idea di fondo di Kepler era quella di usare l’equante come un orologio per misurare la distanza percorsa lungo la circonferenza e la velocità rispetto al Sole. Il procedimento consisteva nel dividere l’orbita in 360 parti uguali, misurare la distanza dal Sole di ciascuno dei corrispondenti 360 punti sulla circonferenza, sommare tutte le distanze e infine costruire una tavola di corrispondenze tra le posizioni del pianeta rispetto al Sole e il tempo impiegato per raggiungere ciascuna di esse a partire dall’afelio basandosi sul fatto che, per definizione, la velocità angolare del pianeta è uniforme rispetto all’equante. All’atto pratico, però, questo significava dover calcolare tutte le distanze Sole-pianeta, un procedimento noioso e ripetitivo che Kepler pensò di semplificare sostituendo le distanze con le aree, giungendo a quella che oggi è nota come la seconda legge di Keplero. blicata postuma, alla quale stava all’epoca lavorando. In essa, egli immagina di essere trasportato sulla Luna ed espone le teorie astronomiche elaborate dai suoi abitanti.

26

La scienza che fu

Figura 3 - La seconda legge di Keplero. Gli angoli α e β sull’equante sono uguali, e così pure le aree in grigio

Dagli angoli alle aree La seconda legge di Kepler afferma che la linea che congiunge il Sole al pianeta spazza aree uguali in tempi uguali. In realtà, per Kepler questa non era una legge ma, più che altro, un principio operativo, e inizialmente neppure lui era del tutto sicuro della sua validità. Era infatti cosciente del fatto che il passaggio dalle distanze alle aree, ottenuto supponendo che queste ultime fossero somme di infinite lunghezze, era un’operazione non proprio rigorosa dal punto di vista matematico. La tavola delle corrispondenze tra tempo e posizioni, inoltre, mostrava delle leggere incongruenze con i dati osservativi. 1. L’EQUANTE

27

Tutto questo era dovuto al fatto che, durante tutto il suo viaggio su Marte, Kepler aveva lavorato nell’ipotesi di orbite circolari e moti uniformi rispetto a un equante, anche se il fallimento dell’ipotesi vicaria aveva dimostrato che le due ipotesi non potevano essere entrambe vere. In realtà, le orbite dei pianeti sono ellittiche, ma questo Kepler lo avrebbe scoperto soltanto dopo; la sua fortuna fu che l’orbita della Terra è quasi perfettamente circolare e perciò il suo modello di orbita con equante forniva risultati molto vicini a quelli di un’orbita ellittica con il Sole a occupare uno dei due fuochi. L’equante ebbe un ruolo fondamentale nella costruzione della nuova astronomia fisica di Kepler.14 Il suo recupero non come semplice artificio geometrico ma come effetto di un’azione fisica permetteva di approcciare con fiducia il problema dei moti non uniformi. Allo stesso tempo, una volta dimostrato che le orbite dei pianeti sono ellittiche, la necessità di postulare un equante veniva meno. Kepler aveva sostituito alla velocità angolare uniforme rispetto a un equante la velocità areolare uniforme rispetto al Sole. L’equante, assolto il suo compito, scompariva dalla ricerca astronomica e, con esso, si dissolveva anche il dogma del moto circolare uniforme.

14 Astronomia Nova seu Physica coelestis è il titolo dell’opera, pubblicata nel 1609, nella quale Kepler presentava i suoi risultati riguardo all’orbita dei pianeti e al loro moto.

28

La scienza che fu

2. L’IMPETUS

Proiettili e motori Il dogma del moto circolare uniforme era in origine il prodotto di una cultura, quella greca, che vedeva nelle idee di simmetria, armonia, equilibrio e regolarità la chiave per interpretare la realtà. Tuttavia, esso sopravvisse alla fine del mondo antico e continuò ad esercitare il proprio fascino nel medioevo latino e oltre, e ciò fu dovuto soprattutto all’esser stato uno degli elementi fondamentali del sistema filosofico di Aristotele. L’assimilazione del pensiero aristotelico era stato un processo lungo e faticoso1 che, una volta concluso, fornì a un mondo che si stava risollevando da una profonda crisi sociale ed economica un modello culturale solido e versatile al quale fare riferimento. Alla fine del XIII secolo non c’era disciplina in cui l’autorità di Aristotele non fosse riconosciuta; le sue opere erano oggetto di commenti e discussione; e le sue dottrine costituivano la base dell’insegnamento nelle Università, le nuove istituzioni sorte per organizzare e diffondere il sapere in forma sistematica. Aristotele era, nelle parole di Dante, “il maestro di color che sanno”,2 oppure, in quelle della mag1 Le opere aristoteliche, virtualmente inaccessibili nell’alto medioevo, avevano cominciato a diffondersi a partire dal X secolo, dapprima in traduzione dall’arabo, dal persiano e dal siriaco, e successivamente direttamente dal greco. L’accettazione della filosofia aristotelica non fu però indolore e richiese il genio di personalità come Alberto Magno (m. 1280) e Tommaso d’Aquino (1225/26-1274) per essere realizzata, anche se mai in forma integrale. Nel 1270 e nel 1277 numerose tesi aristoteliche come quella dell’eternità del mondo e dell’unità dell’intelletto furono infatti giudicate assolutamente incompatibili con la dottrina cristiana. 2 Inferno, IV, 131.

2. L’IMPETUS

29

gior parte degli intellettuali del medioevo, semplicemente il Filosofo. Questo però non vuol dire che l’accettazione della filosofia aristotelica fosse incondizionata e l’autorità di Aristotele indiscutibile. I medievali, pur riconoscendo in Aristotele “il principe dei filosofi” e pur accettando i principi generali della sua filosofia, furono infatti capaci di interpretarla criticamente per giungere all’elaborazione di teorie originali e talvolta diametralmente opposte a quelle aristoteliche. Se questa originalità è stata a lungo misconosciuta è perché gli intellettuali del medioevo adottarono il “commentario” come genere letterario specifico della riflessione scientifica e filosofica, e così la stragrande maggioranza dei loro contributi sono presentati nella forma di interpretazioni di testi di Aristotele. La tradizione di pensiero che ne derivò – proprio perché elaborata all’interno della struttura delle scholae e, successivamente, nelle Università – fu detta scolastica. I testi di Aristotele, per la loro natura e per come erano stati tramandati al Medioevo latino, lasciavano del resto ampi margini di manovra. Non tutte le opere del filosofo erano infatti state conservate, e quelle disponibili erano spesso giunte ai latini attraverso la mediazione degli arabi e dei persiani: i commentari del filosofo arabo Averroè (1126-1198), in particolare, avevano influenzato così profondamente la ricezione del pensiero di Aristotele da guadagnare al loro autore l’appellativo di il Commentatore. Su molte questioni, inoltre, lo stesso Aristotele era stato ambiguo o indeciso, mentre su altre, emerse via via che l’analisi delle sue dottrine si faceva sempre più approfondita, non si era neanche pronunciato. L’interpretazione dei testi aristotelici, infine, non poteva prescindere dal riferimento al magistero della Chiesa: molte delle affermazioni del filosofo andavano conciliate con gli insegnamenti della Bibbia e questo costituì un ulteriore, importante fattore di revisione della sua filosofia. Tra le dottrine più commentate e modificate vi fu senza dubbio quella del cosiddetto “moto violento”. Era, questo, un 30

La scienza che fu

caso particolare di “moto locale”, il quale, a sua volta, era un tipo di moto inquadrato nella teoria generale del movimento come passaggio dalla potenza all’atto. Aristotele, e la filosofia scolastica con lui, intendeva il movimento non come semplice spostamento da un luogo all’altro ma come un processo finalizzato alla realizzazione dell’essenza propria della cosa. Il movimento, in altri termini, è il passaggio dalla potenza all’atto. La generazione e la corruzione, l’aumento e la diminuzione, l’alterazione, lo spostamento erano per Aristotele tutte forme diverse di movimento, riferibili rispettivamente alla sostanza, alla quantità, alla qualità e al luogo. Quest’ultimo – il moto locale, appunto – era considerato il principale e più importante tra i movimenti. Aristotele distingueva due tipi di moto locale: quello naturale e quello violento. Il moto naturale è determinato dalla natura del mobile, e può essere diretto verso il centro, lontano dal centro o intorno al centro. Il moto verso il centro è proprio dei corpi pesanti (quelli costituiti in prevalenza dall’elemento Terra); quello lontano dal centro dei corpi leggeri (costituiti in prevalenza dal Fuoco); quello intorno al centro, infine, è proprio della cosiddetta quinta essenza, la materia di cui sono fatti i cieli. Si trattava, in fondo, di una spiegazione improntata al senso comune: un sasso cade giù perché, essendo pesante, ha una naturale tendenza a raggiungere il suo luogo naturale, e la velocità con la quale cade dipende dal suo peso e dalla resistenza del mezzo. Pur con diversi problemi, la teoria del moto naturale dava conto dei fenomeni osservati. I dubbi sorgevano però quando Aristotele passava a considerare il moto violento, ovvero la situazione in cui un corpo si muove in direzione contraria alla sua tendenza naturale. Che cosa succede quando si scaglia un sasso? Che cos’è che lo fa muovere contro la sua tendenza naturale? Perché a un certo punto il moto violento cessa e il corpo cade verso il basso? Ovvero, come si spiega il moto dei proiettili? Per rispondere a queste domande, il Filosofo osservava innanzitutto che un corpo che si muove di moto violento deve neces2. L’IMPETUS

31

sariamente essere mosso da qualcos’altro, un motore esterno ma fisicamente a contatto con il mobile. “Il motore e il mosso stanno insieme”, scriveva Aristotele nella Fisica, e questo vale tanto per i corpi che si muovono da sé quanto per quelli mossi da altro.3 Nel caso del moto dei proiettili, il motore è evidentemente costituito dalla mano che lancia il proiettile stesso, ma che cos’è che fa sì che il proiettile continui nella sua traiettoria anche una volta separato dal motore? La soluzione di Aristotele è l’antiperistasi, ovvero la “reciproca sostituzione” del motore e del mosso che si realizza all’interno del mezzo – l’acqua o l’aria – all’interno del quale avviene il moto violento: Il primo che ha mosso conferisce la capacità di muovere all’aria o all’acqua o a qualche altra cosa che per natura può dare o ricevere movimento. Ma la facoltà del muovere e quella dell’essere mosso non finiscono nello stesso momento, e se l’“essere mosso” finirà nel momento preciso in cui la causa motrice smetterà di muovere, l’essere motore durerà ancora, e per questo muoverà qualcosa che gli è contiguo per il quale, del resto, vale la medesima regola. Comunque, il moto va cessando man mano che svanisce la forza motrice generata dalla realtà contigua e terminerà definitivamente quando il precedente non sarà più attivo come motore, ma sarà solamente mosso.4

In altre parole, Aristotele sta affermando che la mano che scaglia il proiettile trasmette la “capacità di muovere” anche all’aria ad essa contigua, rendendola a sua volta un motore. La causa motrice non termina nel momento in cui il proiettile viene mosso, ma trasforma ciò che gli è vicino in una nuova causa motrice più debole della causa motrice originaria. È l’aria, dunque, a far sì che il proiettile persista nel suo moto contro 3 Fisica, VIII, 10, 266b-267b. 4 Ibidem.

32

La scienza che fu

Figura 4 - La traiettoria di un proiettile secondo la teoria aristotelica

natura. Il moto violento cessa quando la causa motrice è diventata così debole da non riuscire più a vincere la resistenza opposta dalla tendenza del corpo a dirigersi verso il proprio luogo naturale. Se questa soluzione sembra ambigua e convoluta, è perché, effettivamente, è così. E del resto Aristotele stesso lo sapeva: “non c’è altro modo, oltre a quello indicato, per risolvere il problema”, è infatti la sconsolata chiusa del Filosofo. In realtà, un altro modo c’era: introdurre l’impetus.

Virtù motrici La prima e più decisiva obiezione alla teoria aristotelica del moto violento fu formulata da Giovanni Filopono (ca. 490-570). Se davvero, come vuole Aristotele, la causa motrice è da individuarsi nel mezzo (cioè nell’aria), allora, osservava Filopono, dovrebbe esser possibile muovere un sasso semplicemente muovendo l’aria ad esso contigua, senza toccarlo; 2. L’IMPETUS

33

dal momento che questo evidentemente non avviene, la spiegazione di Aristotele è da rigettare come erronea. “Se non si imprime nessuna forza motrice al sasso, ma solo all’aria che gli sta intorno”, chiedeva retoricamente Filopono, “che bisogno c’è di toccarlo per farlo muovere?”. L’esperienza smentiva la teoria di Aristotele e induceva piuttosto a credere, secondo Filopono, che “una qualche virtù motrice incorporea si trasmetta direttamente dal motore al mobile”.5 Le critiche di Filipono trovarono eco nelle opere di alcuni dei successivi commentatori di Aristotele. Avicenna (9801037) e altri autori islamici chiamarono mail (inclinazione) la virtù motrice postulata da Filopono, mentre in Occidente si dovette attendere ancora del tempo prima che Francesco di Marchia (morto intorno al 1344) e Nicola Boneto (morto intorno al 1343) invocassero, rispettivamente, l’azione di una virtus derelicta (forza abbandonata) e quella di una forma non permanente e transitoria impressa dal motore al mobile per spiegare il moto violento. La più articolata teoria della “forma impressa” si deve al filosofo Giovanni Buridano (prima del 1300-dopo il 1358), il quale fu anche colui che per primo diede il nome di impetus a tale forma. Dopo aver ripreso l’obiezione di Filopono, così egli scriveva nel suo commento alla Fisica di Aristotele: Possiamo e dobbiamo perciò concludere che nella pietra o in qualsiasi altro proiettile vi sia impressa qualche forza motrice (vis motiva). Questo è molto più ragionevole che assumere che sia l’aria a muovere il proiettile, dal momento che l’aria, più che causare il movimento, sembra opporsi ad esso. Mi pare dunque si debba affermare che il motore imprima al mobile un impetus o forza motrice (vis motiva), e che tale forza motrice agisca nella stessa direzione del motore. E più intensa sarà l’azione del motore, tanto più grande sarà l’impetus impresso al 5 In Aristotelis librorum physicorum commentaria, IV, 8, 641.8-642.26.

34

La scienza che fu

mobile. È in virtù dell’impetus che la pietra continua a muoversi anche quando il motore cessa di farlo. Tuttavia, l’impetus si disperde progressivamente a causa della resistenza opposta dall’aria, e così la pietra si muove sempre più lentamente finché l’impetus non è così consumato da soccombere al peso della pietra, che ritorna così verso il suo luogo naturale.

E concludeva: Questa, dunque, è la mia risposta alla questione, e sarei proprio deliziato se qualcuno riuscisse a trovarne una migliore.6

La quantità di impetus che un corpo può ricevere dipende, secondo Buridano, dalla quantità di materia e dalla velocità; e dal momento che il peso (la quantità di materia) rimane costante durante tutto il moto, ne consegue che l’impetus di un corpo varia in funzione della sola velocità. Si poteva così risolvere un altro problema lasciato aperto dalla fisica aristotelica: quello dei gravi in caduta libera. La teoria dei luoghi naturali dava infatti conto del perché un oggetto pesante lasciato cadere da una torre si dirigesse verso il basso, ma non chiariva perché nel corso della caduta la sua velocità aumentasse. Se ad agire sul corpo erano solo il suo peso, la naturale tendenza a dirigersi verso il proprio luogo naturale e la resistenza dell’aria, allora non c’era motivo che il corpo si muovesse di moto accelerato. Con l’impetus questo problema svaniva: al principio della caduta, ad agire sul corpo era soltanto la naturale tendenza a dirigersi verso il proprio luogo naturale; tuttavia, nel momento in cui questa tendenza faceva muovere il corpo, gli imprimeva per ciò stesso anche un impetus nella medesima direzione, facendolo così accelerare progressivamente nella sua caduta. 6 Quaestiones super octo libros Physicorum Aristotelis, VIII, quaestio 12.

2. L’IMPETUS

35

In assenza di una resistenza esterna e di una tendenza naturale contraria, l’impetus, secondo Buridano, si conservava costante per un tempo infinito. In altre parole, l’impetus impresso a un corpo sarebbe diminuito solo dalla resistenza del mezzo e dalla tendenza naturale del corpo stesso. Nel mondo sublunare questo non avveniva mai, mentre era esattamente ciò che accadeva in cielo: le sfere celesti si muovevano di moto circolare uniforme perché ad agire su di esse era solo l’impetus originariamente impresso loro da Dio; non essendovi la resistenza opposta dal mezzo né la tendenza delle sfere a dirigersi verso il basso o verso l’alto, le sfere si muovevano di moto circolare uniforme senza che fosse necessario, come pensavano i teologi, che vi fossero delle intelligenze angeliche a dirigerle e conservarle nel loro moto. La fisica dell’impetus non metteva in dubbio il principio aristotelico secondo il quale “tutto ciò che si muove è mosso da qualcosa” né l’idea generale del moto come passaggio dalla potenza all’atto. L’impetus, spiegava Buridano, è una qualità dei corpi – una qualità “naturalmente presente e predisposta a far muovere il corpo nel quale è impressa, così come è una qualità impressa nel ferro dal magnete a far sì che il ferro stesso sia attratto dal magnete”.7 Se, dunque, si poteva imprimere impetus a un corpo era solo perché i corpi in generale sono per natura atti a riceverlo in proporzione alla quantità di materia in essi contenuta. In ogni oggetto materiale c’è una predisposizione all’esser mosso, e tale predisposizione si realizza grazie all’impetus.

Misurare le qualità La fisica dell’impetus si diffuse rapidamente nel corso del ‘400 e, nelle sue diverse varianti, fu tenuta in grande considerazione almeno fino al termine del ‘500. Tra i maggiori fattori di successo vi fu la necessità di comprendere al meglio il moto 7 Ibidem.

36

La scienza che fu

dei proiettili per tenere il passo con gli avanzamenti tecnici che avevano portato le artiglierie militari (cannoni, mortai, bombarde ecc.) ad essere sempre più maneggevoli, precise, affidabili e quindi sempre più usate sui campi di battaglia. La fisica dell’impetus, in questo senso, era uno strumento piuttosto efficace che poteva essere d’aiuto per migliorare le tecniche di puntamento e determinare in anticipo la strategia da adottare in battaglia tenendo conto della quantità e qualità dell’artiglieria, del peso dei proiettili e della distanza dall’obiettivo. Matematici come Niccolò Tartaglia (ca. 1499-1557) si servirono dell’impetus per studiare questi problemi e fondare su basi scientifiche una nuova disciplina, la balistica.

Figura 5 - Antiporta della Nova Scientia di Niccolò Tartaglia (1537). All’interno di un recinto, Tartaglia, accompagnato da Musica, Aritmetica, Geometria, Astronomia e altre discipline matematiche, esamina il moto di un proiettile sparato da un cannone. L’ingresso al recinto è sorvegliato da Euclide. Nella parte alta dell’immagine, la Filosofia, assistita da Aristotele e Platone, controlla la situazione

2. L’IMPETUS

37

Nella formulazione datane da Buridano come prodotto del peso per la velocità, l’impetus era una di quelle qualità che ben si prestava a un trattamento matematico-geometrico, secondo una linea di ricerca inaugurata al Merton College di Oxford da un gruppo di filosofi che, in quanto convinti che le qualità potessero essere “misurate”, furono chiamati calculatores. Lo spunto per questo tipo di indagine era nato, in realtà, da una questione che poco aveva a che fare con la fisica: quella della quantità di grazia necessaria per accedere al Paradiso. Nel XII secolo, infatti, il teologo Pietro Lombardo (1100-1160) – autore di un Libro delle Sentenze che fu oggetto di innumerevoli commenti nei secoli successivi – pose la questione se “lo Spirito Santo possa accrescersi in una persona, ovvero se sia possibile darne una maggiore o minore quantità”.8 La risposta generalmente accettata al tempo di Pietro Lombardo era che la maggiore o minore presenza dello Spirito Santo in una persona non fosse determinata dalla quantità di grazia, che era costante, ma dalla maggiore o minore “partecipazione” di un individuo ad essa. Nel secolo successivo, tuttavia, il filosofo e teologo Giovanni Duns Scoto (1265/1266-1308) sostenne che la grazia, così come tutte le altre qualità, poteva crescere o diminuire per addizione o sottrazione di parti ad essa simili non diversamente da quanto avveniva per le grandezze estese come il peso e le dimensioni, e la sua teoria, nota come “intensione e remissione delle forme”, col tempo soppiantò quella della partecipazione. I calculatores di Oxford pensarono di applicare la teoria di Duns Scoto a qualità come il calore e, soprattutto, il movimento, identificando i problemi connessi alla nozione di “velocità istantanea” e giungendo a dimostrare il cosiddetto “teorema della velocità media”.9 I calculatores si occupavano dei problemi della velocità da un punto di vista perlopiù cinematico (ovvero non badan8 Liber sententiarum, distinctio 17. 9 Il teorema afferma che un corpo che si muove di moto uniformemente difforme copre, in un dato tempo, una distanza pari a quella che coprirebbe se si muovesse di moto uniforme con velocità pari alla media delle velocità del moto uniformemente difforme.

38

La scienza che fu

Figura 6 - I diversi tipi di velocità nella rappresentazione grafica di Oresme

do alle cause del moto) e dunque prestarono poca attenzione all’impetus. Essi, comunque, individuarono un rapporto di proporzionalità semplice tra l’impetus, la resistenza e la velocità. La velocità, nella loro formulazione, cresceva in proporzione diretta al crescere del rapporto geometrico tra forza impressa e resistenza: in questo modo, nel caso in cui impetus e resistenza fossero uguali, non si darebbe alcun moto. Fu il francese Nicolas Oresme (1320-1382) a mettere a frutto le intuizioni dei calculatores e a riunire la fisica dell’impetus con la loro cinematica, dando così vita a una originale concezione dinamica del moto violento. Oresme riformulò le teorie dei calculatores in termini geometrici sfruttando le nozioni di latitudo e longitudo per rappresentare il moto, così da poter visualizzare graficamente le variazioni di velocità per mezzo di figure geometriche piane. In questo modo egli riuscì a definire e distinguere tra velocità uniforme, difforme, uniformemente difforme (all’incirca corrispondente all’odierno “moto uniformemente accelerato”), difformemente difforme e così via. Rispetto alla teoria di Buridano, quella di Oresme presentava due importanti elementi di novità. In primo luogo, accanto alla resistenza del mezzo e alla tendenza verso il proprio luogo naturale, Oresme introduceva una naturale tendenza alla quiete come ulteriore fattore di movimento; in virtù di ciò – e questo è il secondo e più decisivo punto – Oresme considerava l’impetus non tanto come causa del movimento in generale quanto più specificamente come causa del moto difforme. Era, questa, una formulazione che avvicinava la nozione di impetus a quella newtoniana di forza. Di fatto, Oresme era arrivato a un passo dall’accedere a una fisica basata sul principio d’inerzia, ma non varcò mai la soglia. 2. L’IMPETUS

39

Figura 7 - La dimostrazione di Oresme del teorema della velocità media. L’altezza del rettangolo è esattamente pari alla metà di quella del cateto minore del triangolo: questo vuol dire che la velocità uniforme con cui si copre la data distanza nel dato tempo è uguale alla velocità di mezzo del moto uniformemente difforme

Dall’impeto alla forza La fisica dell’impetus è stato uno dei contributi del pensiero medievale che più hanno attratto l’interesse degli storici e ha costituito, e per molti aspetti ancora costituisce, il terreno principale sul quale si svolge la discussione riguardante la nascita della scienza moderna e i suoi rapporti con la tradizione medievale. Ai primi del Novecento, il filosofo e storico della scienza francese Pierre Duhem (1861-1916), ad esempio, sostenne che la fisica dell’impetus, nel suo essere una dipartita radicale rispetto alla teoria aristotelica e nella sua vicinanza ai moderni concetti di inerzia, forza e quantità di moto, imponeva di retrodatare la nascita della scienza moderna almeno sino a Buridano e quindi collocare i contributi successivi in una prospettiva di continuità, piuttosto che di rottura, con la tradizione medievale. Duhem fu uno dei primi a prendere sul serio l’idea di una “scienza medievale” e grazie al suo lavoro molti contributi fino a quel momento ignorati o misconosciuti furono portati all’attenzione degli storici; le sue tesi radicali sulla continuità tra la scienza medievale e quella moderna furono tuttavia oggetto di critiche serrate e obiezioni – a ben vedere – non del tutto infondate. 40

La scienza che fu

Innanzitutto, tutte le discussioni medievali sulla fisica dell’impetus si svolsero all’interno di una cornice di pensiero rigorosamente aristotelica. Né Buridano, né Oresme e neppure Filopono o i calculatores misero mai in dubbio i principi aristotelici secondo i quali ogni cosa che si muove è mossa da altro e ogni oggetto ha un suo luogo naturale verso il quale si dirige naturalmente. La stessa nozione di spazio entro il quale avviene il moto è, anche per i medievali più critici nei confronti di Aristotele, sostanzialmente aristotelica – uno spazio in cui esiste un luogo privilegiato, il centro, in funzione e in riferimento al quale avvengono tutti i movimenti. Nel caso dell’impetus, poi, è importante considerare che, mentre esso sembra includere elementi comuni a nozioni tipiche della successiva fisica classica, si tratta però di qualcosa che non ha analogo corrispettivo in termini moderni e anzi non può neanche essere efficacemente indicato con un nome che non sia quello latino datogli dai medievali. Nella definizione di Buridano di prodotto del peso per la velocità, esso sembra avere qualcosa in comune con la newtoniana quantità di moto (prodotto della massa per la velocità), se non fosse che per Newton la quantità di moto è un effetto del movimento, mentre per Buridano l’impetus è la sua causa; nella formulazione di Oresme, l’impetus sembra invece essere analogo alla forza (in termini newtoniani definita dalla massa per l’accelerazione), ma anche in questo caso si tratta di una formulazione particolare, relativa al caso specifico della fisica terrestre, che Oresme dava per illustrare il ruolo dell’impetus in un contesto ancora regolato dai principi del luogo naturale e delle resistenze interne e esterne; in tutte le formulazioni, infine, l’impetus sembra avere in sé qualcosa del principio di inerzia – in quanto “forza” che interviene a modificare lo stato “naturale” del corpo – ma anche in questo caso occorre tener presente che per i medievali il moto era una situazione ontologica particolare, problematica e qualitativamente inferiore alla quiete: ci doveva essere sempre qualcosa a far muovere il corpo, altrimenti questo sarebbe rimasto in quiete. Nel2. L’IMPETUS

41

la fisica classica fondata sul principio di inerzia, al contrario, moto e quiete sono ontologicamente equivalenti, e pertanto, nell’esame di un corpo in movimento, il problema principale non è quello di capire che cosa lo fa muovere ma piuttosto che cosa lo fa fermare. Lo spazio della fisica classica, inoltre, è uno spazio omogeneo, in cui non vi sono punti e direzioni privilegiate, e in cui la resistenza del mezzo è un accidente che può essere trascurato in sede di analisi matematica, mentre per i medievali era, al contrario, un elemento sostanziale del moto stesso. Alla luce di queste considerazioni, appare chiaro che, più che un’anticipazione della fisica classica, la fisica dell’impetus fornì un terreno di discussione e un campo di indagine che, setacciato e analizzato dagli studiosi della prima età moderna come Galileo Galilei (1564-1642) e, appunto, Isaac Newton (1642-1727), permise loro di elaborare più chiaramente delle nozioni in esso soltanto accennate o implicitamente contenute che, una volta pienamente sviluppate, rendevano il ricorso stesso a una qualità come l’impetus del tutto superfluo. Se è evidente, infatti, che accettare il principio secondo il quale “un corpo permane nel suo stato di quiete o di moto rettilineo uniforme finché una forza esterna non interviene a modificare tale stato” significa eliminare la necessità di ricorrere a una qualità impressa per spiegare il moto del corpo, meno evidente è che furono proprio le riflessioni sulla natura di tale qualità impressa a render pensabile quel principio. Una volta ammesso che l’impetus è una qualità permanente e autoconservativa in assenza di fattori esterni, infatti, è possibile pensare che, in fondo, la quiete e il moto non sono stati qualitativamente distinti, ma possono esser trattati alla stessa maniera. E così come l’equante fu utilizzato da Kepler per superare l’equante stesso e mettere in piedi una nuova concezione dell’astronomia, così l’impetus fu utilizzato dai protagonisti della cosiddetta “rivoluzione scientifica” per elaborare una nuova concezione della fisica, e fu poi relegato nel dimenticatoio della storia. 42

La scienza che fu

3. GLI INDIVISIBILI

Quadrare il cerchio Nel 1615 Kepler faceva pubblicare a Linz la sua opera Nova stereometria doliorum vinariorum, ovvero Nuovo metodo per misurare il volume delle botti di vino. L’idea di dedicarsi a questo problema gli era venuta due anni prima, in occasione del suo secondo matrimonio, dopo una discussione avuta con il mercante che gli aveva venduto il vino per i festeggiamenti. All’epoca, per misurare il volume delle botti e, conseguentemente, il prezzo del vino in esse contenuto, i mercanti inserivano un sottile bastone graduato nel cocchiume (il foro sulla pancia della botte) e lo spingevano in profondità fino a fargli toccare il punto in cui la testa della botte era unita alle doghe opposte: l’altezza del liquido misurata sul bastone indicava il prezzo da pagare al venditore. Questo metodo, secondo Kepler, era sbagliato, perché l’altezza rilevata immergendo il bastone in una botte alta e stretta sarebbe stata uguale a quella rilevata immergendolo in una leggermente più bassa ma molto più larga, e così il prezzo sarebbe stato uguale nonostante il volume della botte alta e stretta fosse evidentemente minore di quello dell’altra. Al di là della questione pratica e del gusto, tipicamente barocco, per le sfiziosità scientifiche, l’argomento nascondeva un problema matematico non banale relativo alla determinazione delle aree di superfici delimitate da linee curve e, conseguentemente, a quello dei volumi dei cosiddetti “solidi di rotazione” (ovvero delle figure solide ottenute facendo ruotare una curva o una figura piana intorno a un certo asse). 3. GLI INDIVISIBILI

43

Figura 8 - Le linee AB sono di lunghezza uguale ma i volumi dei cilindri, secondo Kepler, sono diversi

Si trattava di un problema che Kepler aveva già affrontato, come abbiamo visto, ai tempi dell’Astronomia nova, allorché, studiando l’orbita della Terra alla ricerca di un metodo che gli permettesse di calcolare la distanza percorsa dal pianeta in un dato tempo, era giunto alla formulazione della legge delle aree. In quell’occasione aveva supposto che l’area spazzata dalla linea che congiunge il Sole al pianeta fosse data dalla somma delle infinite distanze Sole-pianeta in essa contenute. Si trattava di una supposizione non del tutto lecita, dal punto di vista matematico, che Kepler giustificava richiamandosi ad Archimede (287-212): Sapendo che i punti sul circolo eccentrico sono infiniti, e che dunque anche le distanze dal centro sono infinite, mi colpì il fatto che tutte queste distanze fossero comunque contenute nel corrispondente settore circolare eccentrico. Mi sovvenne poi che Archimede, per determinare il rapporto tra la lunghezza di una circonferenza e il suo diametro, aveva diviso il cerchio in infiniti triangoli e sfruttato la forza segreta della reductio ad absurdum, e così pensai di poter procedere allo stesso modo. Invece di 44

La scienza che fu

dividere la circonferenza, come ero all’inizio risoluto a fare, decisi perciò di dividere il cerchio in 360 settori circolari eccentrici tracciando delle linee dalla circonferenza al punto rispetto al quale avevo calcolato l’eccentricità.1

Kepler si riferisce qui al problema della quadratura del cerchio, che consiste nel trovare un quadrato la cui area è uguale a quella di una data circonferenza, e alla soluzione tentata da Archimede utilizzando il metodo derivato da Eudosso e in seguito chiamato metodo di esaustione. Si trattava, alla fin fine, di una versione raffinata del metodo di prova ed errore basato su una doppia riduzione all’assurdo: per dimostrare l’uguaglianza tra due grandezze A e A1, si dimostrava che non era possibile che A > A1 né che A < A1. Il metodo di esaustione non serviva per “scoprire” che due grandezze erano uguali, ma solo per verificare su basi rigorose la supposizione che lo fossero; in altre parole, era un metodo per dimostrare delle conclusioni precedentemente ottenute per via intuitiva. I greci utilizzarono metodi di esaustione per trovare la quadratura dei poligoni regolari e, grazie a questi risultati, provare a risolvere il problema della quadratura del cerchio. La procedura standard era quella di inscrivere e circoscrivere a una circonferenza dei poligoni “quadrabili” con un numero di lati sempre maggiore per poi dimostrare che l’area del cerchio non poteva essere né maggiore di quella del poligono circoscritto, né minore di quella del poligono inscritto. Fu proprio mentre procedeva in questa direzione che Archimede utilizzò il metodo menzionato e poi usato da Kepler per determinare l’area del cerchio. L’idea è quella di dividere il cerchio in numero infinito di triangoli infinitamente piccoli. I triangoli risultanti hanno perciò come base un arco di circonferenza talmente piccolo da risultare indistinguibile da un segmento di retta e altezza uguale al raggio. L’area del cerchio può così esser definita 1 Astronomia nova, III, 40, 193.

3. GLI INDIVISIBILI

45

come la somma delle infinite aree di questi triangoli. Se si assume ciò e si indicano con C l’area del cerchio, con b1, b2…bn le basi dei triangoli che lo costituiscono e con h1, h2…hn le loro altezze, allora risulta che



1) L’area di ciascun triangolo è uguale a (bnhn); 2) La somma delle aree dei triangoli è uguale a n [(bnhn)] (cioè all’area di un triangolo moltiplicata n volte.)



Ora, se pensiamo alla circonferenza come a un poligono regolare con un numero infinito di lati, dalla 2) segue che 3) C =

� nb h n

E dato che la somma delle basi dei triangoli che costituiscono il cerchio è uguale alla lunghezza della circonferenza (2πr) e che h è uguale al raggio r della circonferenza, la 3) si può riscrivere come 4) C =

� (2πr)r

E dunque C = πr2, ovvero, nelle parole di Archimede, “ogni cerchio è uguale ad un triangolo rettangolo se ha il raggio uguale ad un cateto del triangolo e la circonferenza uguale alla base”.2 Questa procedura, tuttavia, nascondeva due problemi concettuali: che cos’è esattamente un poligono con un numero infinito di lati infinitamente piccoli? E che cosa vuol dire moltiplicare un numero per una quantità infinitamente picco2 Misura del cerchio, proposizione I. Questo risultato suggeriva l’intrattabilità del problema della quadratura del cerchio. Un quadrato di area πr2, infatti, avrebbe il lato di lunghezza √πr2, ovvero r√π, una quantità “ingestibile” per i geometri greci. Il problema fu dimostrato essere irrisolvibile con riga e compasso nel 1882, quando il matematico Ferdinand von Lindemann (1852-1939) dimostrò la trascendenza di π, cioè l’impossibilità che esso potesse essere la soluzione di un’equazione algebrica del tipo P(x)=0, dove P è un polinomio algebrico di grado n con coefficienti interi primi tra di loro.

46

La scienza che fu

la? Queste due domande sorgevano entrambe dalla difficoltà di maneggiare matematicamente l’infinito, e la soluzione di Archimede fu quella di usare il metodo di esaustione (“la forza segreta della reductio ad absurdum”) proprio per giustificare il risultato ottenuto in maniera empirica senza però fare riferimento all’infinito. Supponiamo, infatti, che l’area del triangolo (chiamiamola T) sia inferiore a quella del cerchio (C) e indichiamo con ε la quantità C – T. Se inscriviamo nella circonferenza un quadrato di area Q e indichiamo con ∂ la quantità C – Q, avremo ovviamente che ε < ∂, poiché T è un’approssimazione per difetto di C, e Q, a sua volta, una per difetto di T. Continuando a inscrivere poligoni regolari con un numero sempre maggiore di lati all’interno della circonferenza, tuttavia, arriveremo al punto di avere inscritto in essa un poligono P tale che3 ∂ < ε e pertanto P > T, il che è assurdo, poiché l’area del poligono P è uguale a quella di un triangolo avente come base il perimetro stesso di P e altezza il suo apotema: essa deve quindi essere necessariamente minore di T, in quanto quest’ultima coincide con quella di un triangolo di base uguale alla lunghezza della circonferenza C (e quindi maggiore del perimetro di P) e altezza uguale al raggio (e pertanto maggiore dell’apotema di P). Dunque, l’area del triangolo considerato all’inizio non può essere inferiore a πr2. Lo stesso procedimento, ripetuto circoscrivendo dei poligoni alla circonferenza, fa giungere all’analoga, assurda conclusione che si possa circoscrivere alla circonferenza un poligono P la cui area sia inferiore a quella del triangolo avente per base la lunghezza della circonferenza, per altezza il suo raggio e la cui area è supposta essere maggiore di quella del cerchio C. Pertanto, dato che l’area del triangolo con base uguale alla lunghezza di una data circonferenza e un cateto uguale al suo raggio non può essere né maggiore né minore di quella del relativo cerchio, è necessario che sia ad essa uguale. 3 Ciò è dovuto al postulato di Eudosso-Archimede, in base al quale dati due segmenti diversi, esiste sempre un sottomultiplo del maggiore che è più piccolo del minore.

3. GLI INDIVISIBILI

47

L’idea di Archimede, abbiamo visto, fu ripresa da Kepler per trovare una regola per predire lo spostamento di un pianeta lungo l’orbita in un dato intervallo di tempo4 e poi per misurare il volume delle botti. In relazione a quest’ultimo problema, egli suppose che una botte fosse costituita da infinite circonferenze disposte “a strati” e che il suo volume fosse perciò uguale alla somma delle superfici di tali circonferenze, riportando in questo modo il problema della “cubatura del cilindro” a quello originario della quadratura del cerchio. Kepler, tuttavia, non faceva uso del metodo di esaustione e con ciò si allontanava in maniera decisiva da Archimede. Se per il matematico greco riempire un’area di infinite figure geometriche infinitamente piccole era giustificato nella misura in cui questo permetteva di far scattare il metodo della doppia riduzione all’assurdo, per Kepler lo stesso procedimento non richiedeva la garanzia dell’esaustione ma poteva essere usato in maniera libera, perché era il risultato ottenuto a garantire della procedura. Si trattava di un’importante novità concettuale: i matematici cominciavano a spostare l’attenzione dal problema di che cosa fossero le quantità infinitamente piccole a quello di come potessero essere impiegate.

Poco più di niente, poco meno di qualcosa La necessità di trattare con quantità infinitamente piccole e le difficoltà nel farlo erano già emerse nel corso delle ricerche svolte dai teorici dell’impetus intorno alla natura del movimento come processo continuo, all’intensione e remissione delle forme, alla velocità istantanea e al moto accelerato, ma fu con l’elaborazione della nuova fisica nel XVII secolo che esse si manifestarono in tutta la loro portata. Galileo dava conto di entrambi questi aspetti nella prima giornata dei Discorsi e dimostrazioni matematiche intorno a due nuove scienze (1638): 4 Il metodo di Archimede fu modificato da Kepler per adattarsi a un circolo eccentrico e poi a un’ellisse. In altre parole, Keplero non divideva il cerchio a partire dal suo centro ma a partire dal Sole, con tutte le difficoltà che questo comportava.

48

La scienza che fu

Ricordiamoci che siamo tra gl’infiniti e gl’indivisibili, quelli incomprensibili dal nostro intelletto finito per la lor grandezza, e questi per la lor piccolezza. Con tutto ciò veggiamo che l’umano discorso non vuol rimanersi dall’aggirarsegli attorno; dal che pigliando io qualche libertà, produrrei alcuna mia fantasticheria, se non concludente necessariamente, almeno, per la novità, apportatrice di qualche maraviglia.5

Il termine indivisibili utilizzato da Galileo è un calco sul latino medievale e rimanda direttamente ai calculatores e, soprattutto, a Oresme, il quale aveva esplicitamente rigettato l’idea che una quantità continua potesse essere composta di elementi infinitesimi discreti. Nullum continuum est ex indivisibilibus, aveva affermato Oresme, che alla questione dell’esistenza di quantità continue costituite da elementi “indivisibili” aveva dedicato diverse pagine del suo commento alla Fisica di Aristotele.6 Tuttavia, come notava Galileo, la necessità di ricorrere alle “infinite quantità infinitamente piccole” sorgeva proprio dall’analisi della teoria geometrica del moto proposta da Oresme. Riprendendo la dimostrazione di Oresme del teorema della velocità media, Galileo osservava che l’area triangolare sottesa alla retta rappresentante la velocità del corpo rappresentava a sua volta la distanza percorsa in un dato tempo, e che quindi un qualsiasi segmento parallelo all’asse v che incontrasse la retta doveva rappresentare sia la misura della velocità istantanea del corpo, sia la distanza infinitesima da esso percorsa. L’area rappresentante la distanza totale percorsa in un dato tempo, perciò, non poteva che essere la somma degli infiniti segmenti paralleli all’asse v compresi tra la base e l’ipotenusa del triangolo.

5 Discorsi e dimostrazioni matematiche intorno a due nuove scienze, giornata prima. 6 Quaestiones super physicam, VI, 1.

3. GLI INDIVISIBILI

49

Figura 9 - Il teorema della velocità media nella rappresentazione di Galileo. Le linee verticali all’interno del triangolo rappresentano sia la velocità istantanea del corpo (la loro altezza), sia la distanza percorsa nell’istante di tempo (il loro “spessore”)

Pur essendo consapevole che “l’umano discorso non vuol rimanersi dall’aggirarsegli attorno” e pur ammettendo la possibilità che un oggetto finito, limitato e continuo come un segmento fosse costituito da infiniti elementi “non quanti” (ovvero senza estensione), Galileo era tuttavia poco convinto che fosse possibile escogitare una teoria matematica rigorosa di questi elementi “non quanti”. Per lui, gli indivisibili erano parte di una ambigua teoria dell’atomo come costituente ultimo, insieme fisico e matematico, della materia e del continuo; su un piano puramente matematico, tuttavia, affrontare l’infinito “con i mezzi del finito” generava una serie di paradossi che suggerivano estrema prudenza nell’accettare la possibilità di una matematica degli indivisibili.7 7 Si trattava di paradossi già formulati dai medievali e ripresi da Galileo. Tra questi, il paradosso dei quadrati e delle radici: tutti i numeri naturali sono radici di qualche altro numero naturale, ma non tutti i numeri naturali sono quadrati, e dunque intuitivamente siamo portati a pensare che i numeri quadrati debbano essere meno numerosi dei numeri naturali. Tuttavia, se si ragiona in termini di infinito, bisognerà riconoscere che i numeri quadrati sono tanti quanti i numeri naturali, e questo nonostante la frequenza dei quadrati nella serie dei numeri naturali diminuisca progressivamente. In realtà, questo “paradosso” sarebbe stato assunto da Georg Cantor (1845-1918) come definizione stessa di insieme infinito: sono infiniti gli insiemi che possono essere messi in corrispondenza biunivoca con un loro sottoinsieme proprio. A partire da questa definizione, poi, Cantor avrebbe dimostrato che, contrariamente a quanto riteneva Galileo, esistono infiniti “più infiniti” di altri (l’insieme dei numeri reali compresi tra 0 e 1, ad esempio, è più numeroso dell’insieme dei numeri naturali).

50

La scienza che fu

Le cautele di Galileo furono abbandonate dal suo allievo Bonaventura Cavalieri (ca. 1598-1647). A differenza del suo maestro, Cavalieri non considerava cruciale la questione della natura degli indivisibili ma si preoccupava soltanto di capire come questi si potessero sfruttare nella pratica matematica. Curiosamente, se Galileo si dichiarava convinto del fatto che il continuo fosse fisicamente costituito da indivisibili “non quanti” ma dubitava della geometria che ne poteva derivare, Cavalieri preferiva non pronunciarsi sulla prima questione ma riconosceva agli indivisibili pieno diritto di cittadinanza all’interno delle discipline matematiche. Anche solo come artificium, l’utilità degli indivisibili era, secondo Cavalieri, irrinunciabile. Il metodo di esaustione, infatti, per quanto formalmente rigoroso, rimaneva comunque un metodo indiretto che non permetteva di dimostrare teoremi riguardanti intere classi di figure geometriche ma costringeva a lavorare di volta in volta sul caso singolo, e questo rendeva il suo utilizzo complicato, laborioso e poco efficace. Con gli indivisibili, al contrario, si potevano superare i limiti dell’esaustione per produrre risultati di carattere universale. Il punto di partenza di Cavalieri è analogo a quello di Kepler: le superfici e i volumi possono essere considerati come costituiti rispettivamente da lunghezze e superfici parallele. A differenza di Kepler, tuttavia, Cavalieri traduceva questa idea in una relazione di proporzionalità tra le figure e gli indivisibili (cioè le linee e le superfici) che le costituivano: Figure piane qualsiasi, poste tra le stesse parallele, in cui, condotte linee rette qualunque equidistanti alle parallele in questione, le porzioni così intercettate di una qualsiasi di queste rette siano uguali, sono parimenti uguali tra loro. E figure solide qualsiasi, poste tra gli stessi piani paralleli, in cui, condotti piani qualunque equidistanti a quei piani paralleli, le figure piane di uno qualsiasi dei piani condotti così determinate nei solidi siano uguali, saranno parimenti uguali. Si chiamino allora tali figure 3. GLI INDIVISIBILI

51

ugualmente analoghe, sia le piane che le solide confrontate tra loro, e rispetto alle linee di riferimento, o i piani paralleli, tra i quali si suppongono poste, se è necessario indicarlo.8

Per visualizzare questo enunciato, oggi noto come principio di Cavalieri, immaginiamo di avere dei fogli di carta disposti uno sull’altro in maniera disordinata – alcuni fogli sporgono a sinistra, altri a destra, e così via – e di voler calcolare il volume del blocco risultante. La soluzione più immediata, evidentemente, è quella di ordinare i fogli in modo tale da ottenere un parallelepipedo rettangolo e calcolarne il volume: dato che il numero di fogli di cui è composto il parallelepipedo è uguale a quello del blocco iniziale, è chiaro che i volumi dei due solidi saranno uguali. Il problema del calcolo del volume del blocco irregolare può essere perciò ricondotto a quello – facilmente risolvibile – del calcolo del volume di un parallelepipedo rettangolo. Immaginiamo i nostri fogli di carta come aventi uno spessore infinitamente piccolo, ma non nullo, e avremo gli indivisibili di Cavalieri e la regola base del loro utilizzo: l’area o il volume di una qualsiasi figura geometrica possono essere calcolati comparando gli indivisibili della figura stessa con quelli di un’altra figura la cui area o volume sono noti o comunque facilmente calcolabili. È possibile farsi un’idea del funzionamento del metodo degli indivisibili considerando il semplice caso dell’area dell’ellisse. Sia data un’ellisse e sia a il suo semiasse maggiore e b quello minore. Inscriviamo quest’ellisse in una circonferenza di raggio a e tiriamo gli “indivisibili” del cerchio – cioè i segmenti che costituiscono la sua area – perpendicolarmente al semiasse maggiore dell’ellisse. Si può facilmente osservare come l’ellisse intercetti sugli indivisibili dei segmenti GM, HN, IO, LP (gli indivisibili dell’ellisse) il cui rapporto con gli indivisibili CM, DN, EO, 8 Geometria indivisibilibus quadam ratione promota, Theorema I, Propos. I.

52

La scienza che fu

Figura 10

FP del cerchio è il medesimo di quello tra il semiasse maggiore e minore dell’ellisse. Per il principio di Cavalieri, dunque, anche l’area del cerchio e quella dell’ellisse stanno nel medesimo rapporto, e perciò, indicata con E l’area dell’ellisse, avremo la proporzione 1) πa2 : E = a : b da cui 2) E =

(πa2b) a

e dunque 3) E = πab Questa procedura poteva essere applicata anche per calcolare l’area di specifici settori dell’ellisse, consentendo a Cavalieri di risolvere in maniera più semplice e rigorosa rispetto a Kepler il problema dell’estensione della legge delle aree alle 3. GLI INDIVISIBILI

53

orbite ellittiche. Il metodo degli indivisibili affondava le proprie radici nello stesso terreno geometrico di quello di Kepler, con la significativa differenza che mentre Kepler considerava le superfici e i volumi come somme di lunghezze e aree per poter operare direttamente con queste ultime, gli indivisibili di Cavalieri permettevano di procedere anche in direzione opposta, ovvero dai volumi e dalle aree alle superfici e alle lunghezze.

Tra flussioni e infinitesimi La Geometria degli indivisibili di Cavalieri fu pubblicata nel 1635 e suscitò immediatamente vivaci dibattiti, dovuti in massima parte all’oscurità dell’esposizione di Cavalieri, all’ambiguità della sua nozione di indivisibile e alla conseguente non uniformità nell’applicazione del metodo.9 Per un certo periodo, comunque, gli indivisibili dominarono la scena matematica e fornirono a quanti erano impegnati ad elaborare tecniche di calcolo infinitesimale un punto di partenza fondamentale. Nella misura in cui la geometria degli indivisibili veniva discussa, analizzata, criticata, modificata, adattata o fermamente rigettata essa si accreditava come l’orizzonte principale entro il quale si collocavano le ricerche sul modo di trattare matematicamente l’infinito. Una delle prime reazioni fu, in effetti, di ferma condanna. Nel 1640 il matematico Paul Guldin (1577-1643) attaccò Cavalieri sostenendo, da un lato, che una somma di lunghezze non potesse dare come risultato un’area e, dall’altro, che l’opera di Cavalieri fosse un plagio della Stereometria di Kepler. La polemica che ne seguì porto Cavalieri a rivedere alcuni punti del suo metodo nel trattato Sei esercitazioni geometriche (1647). In generale, tuttavia, le reazioni furono meno estreme di quella di Guldin. Metodi di calcolo variamente fondati sugli indivisibili si diffusero un po’ in tutta Europa e anche le voci 9 Cavalieri sviluppò un metodo “collettivo”, in cui si prendevano come riferimento tutti gli indivisibili di una data figura, e uno “distributivo”, nel quale si consideravano indivisibili presi singolarmente.

54

La scienza che fu

più critiche riconobbero l’originalità dei contributi di Cavalieri. In Inghilterra, gli indivisibili entrarono a far parte delle teorie matematiche di John Wallis (1616-1703) e Isaac Barrow (1630-1677); in Francia se ne occuparono, tra gli altri, Gilles Personne de Roberval (1602-1675) e Blaise Pascal (1623-1662); in Germania, i limiti e le possibilità del nuovo metodo furono analizzati da Gottfried Wilhelm von Leibniz (1646-1716); mentre in Italia la linea di ricerca di Cavalieri fu proseguita da un altro allievo di Galileo, Evangelista Torricelli (1608-1647), e da Pietro Mengoli (1626-1686), un allievo dello stesso Cavalieri. In che misura tutti questi autori siano stati realmente influenzati da Cavalieri è una questione storica tuttora dibattuta. Ciò che è certo è che ciascuno di essi, pur richiamandosi a Cavalieri, elaborò in realtà una versione personale del metodo originario pensata per adattarsi ai problemi che di volta in volta si trovava ad affrontare. Roberval, Torricelli e Barrow, ad esempio, svilupparono particolari concezioni degli indivisibili per affrontare e risolvere il problema della determinazione della tangente a una curva; Pascal se ne servì per per determinare l’integrazione del seno di un angolo, giungendo inconsapevolmente a formulare una nozione simile a quella di triangolo caratteristico.10 Tutti questi studiosi riconobbero in Cavalieri colui che per primo era sbarcato su un nuovo continente, ma procedettero alla sua esplorazione per conto proprio e talvolta ridisegnarono completamente le mappe che Cavalieri aveva abbozzato. Fu questo il caso, ad esempio, di Newton e Leibniz, il cui dissenso sul modo di trattare l’infinito diede vita a una delle controversie più famose non solo della storia della matematica ma della cultura in generale. Newton doveva 10 Il triangolo caratteristico di una curva era il triangolo rettangolo avente per cateti gli “incrementi” considerati dell’ascissa e dell’ordinata della curva. La nozione sarebbe stata esplicitamente formulata da Leibniz, il quale, a proposito dei risultati di Pascal, avrebbe commentato: “ciò che mi meravigliò più di ogni altra cosa fu che Pascal sembrava aver avuto gli occhi come bendati dal fato”.

3. GLI INDIVISIBILI

55

Figura 11 - Determinazione dell’area sottostante a una cicloide effettuata da Torricelli con il metodo degli indivisibili. Il teorema afferma che lo spazio compreso compreso fra la cicloide e la sua retta di base è triplo del circolo generatore, ovvero è sesquialtero del triangolo avente la sua stessa base e altezza. La cicloide è la curva generata da un punto posto su una circonferenza che “rotola” lungo un piano. Si tratta, in altre parole, della traiettoria di un pianeta in un sistema epiciclo-deferente. Essa fu a lungo considerata “l’Elena delle curve” e attirò l’attenzione, tra gli altri, di Galileo, Mersenne, Roberval, Pascal e Cavalieri. Torricelli fu il primo a pubblicare la soluzione del problema della determinazione dell’area ad essa sottostante (1644).

Nella sua dimostrazione Torricelli considera, per una questione di semplicità, una semicicloide (ALBCFA), e comincia con l’individuare sul diametro CF del circolo generatore i due punti H e I posti alla stessa distanza dal centro. Fatto ciò, osserva che, in virtù della costruzione, i segmenti BX, DH, EI ed LQ sono tra loro uguali, così come i corrispondenti archi BO, DC e LN, i segmenti CH e IF, e anche AV e RC. Osserva inoltre che, per definizione, la base AF della semicicloide è uguale alla semicirconferenza MLN e dunque l’arco LN è uguale al segmento AN mentre ML è uguale a NF; conseguentemente, l’arco BP sarà uguale ad AP e BO a PF. Dunque, AN = LN = BO = PF, da cui si deduce che AT = SC; e poiché AV = RC anche VT = SR. Si ha dunque che i triangoli VTQ e SRX sono uguali e pertanto lo sono anche i le loro basi VQ e XR, da cui segue che LV + BR = LQ + BX = EI + DH. In virtù di ciò, si può affermare che la figura ALBCA è uguale al semicerchio CDEF, e questo perché tutte le linee (indivisibili) LV + BR che costituiscono la figura ALBCA sono uguali a tutte le linee EI + DH che costituiscono il semicerchio CDEF. Ora, il triangolo ACF, avendo base uguale alla semicirconferenza e altezza uguale al diametro, è doppio del semicerchio CDEF; dunque l’area sottesa dalla semicicloide è pari all’area ALBCA + ACF, ovvero a tre volte l’area del semicerchio (poiché CDEF = ALBCA = ACF/2), e pertanto l’intero spazio cicloidale sarà pari a tre volte l’area del circolo generatore. QED

56

La scienza che fu

gran parte della propria cultura matematica alle opere di un “indivisibilista” come John Wallis e più volte, nel corso del proprio lavoro, aveva impiegato metodi dimostrativi riconducibili agli indivisibili. Egli era però anche al corrente dei più recenti contributi dati all’algebra da François Viete (15401603) e René Descartes (noto anche come Cartesio, 1569-1650) e soprattutto pensava alle curve in termini fisici, più che strettamente geometrici. Per lui una curva non era, per così dire, un “oggetto”, ma piuttosto la traiettoria di un oggetto; pertanto, la sua “grandezza” non era, in senso stretto, costituita da indivisibili ma generata dal loro moto. La linea era generata dal moto di un punto; la superficie, da quello di una linea; il volume, da quello di una superficie. L’aumento e la diminuzione delle grandezze geometriche dipendono perciò non dall’addizione e sottrazione di parti, ma dalla variazione delle velocità dei movimenti che le generano. Newton chiamava flussioni tali variazioni di velocità e fluenti le quantità generate; il metodo da lui elaborato per trattare matematicamente queste quantità continuamente variabili è per questo conosciuto come metodo delle flussioni. In quest’opera considero le quantità matematiche non come costituite da parti infinitamente piccole ma come definite da un moto continuo. Le linee sono definite, e dunque generate, non dall’aggregazione delle parti ma dal movimento continuo dei punti; le superfici, dal movimento delle linee; i solidi, dal movimento delle superfici; gli angoli, dalla rotazione dei lati; gli intervalli di tempo, da un flusso continuo. Queste generazioni avvengono realmente in natura e si possono quotidianamente osservare nel moto dei corpi. […] Pertanto, visto che le quantità il cui movimento avviene in tempi eguali e sono da questo generate aumentano o diminuiscono in funzione della velocità alla quale si muovono o sono generate, io ho cercato un metodo per determinarle a partire dalle velocità stesse; e una volta dette flussioni le velocità 3. GLI INDIVISIBILI

57

e fluenti le quantità da esse generate sono gradualmente approdato al metodo delle flussioni, del quale ho fatto uso nel presente lavoro sulla quadratura delle curve realizzato negli anni 1665 e 1666.11

Senza entrare nel dettaglio del metodo delle flussioni, basti sapere che la velocità di accrescimento di una quantità era espressa da Newton come la flussione di una data fluente. Si trattava di un’operazione analoga all’odierna derivazione, mentre l’espressione della fluente come funzione di una data flussione era un’operazione simile all’odierna integrazione. Rispetto al metodo degli indivisibili, quello delle flussioni, anche se non sempre più agile, sembrava a Newton molto più rigoroso. “L’ipotesi degli indivisibili è problematica”, scriveva nei Principi matematici della filosofia naturale, “e perciò il metodo che ne deriva è da considerarsi poco geometrico”.12 Pur da una prospettiva saldamente ancorata a presupposti metafisici e filosofici più forti di quelli di Newton, Leibniz giungeva nello stesso periodo a risultati analoghi. Rispetto a Newton, tuttavia, Leibniz era più legato alla nozione di indivisibile, che egli non abbandonava completamente ma traduceva in termini di quantità infinitesime, e anzi il suo può esser anche interpretato come un tentativo di dare al metodo degli indivisibili una rigorosa base matematica.13 Leibniz esprimeva, per mezzo di una notazione da lui ideata e tuttora in uso, la stessa operazione simile alla derivazione e integrazione descritta da Newton in termini di flussioni e fluenti, ma lo faceva ricorrendo a incrementi infinitamente piccoli, ovvero a variazioni infinitesimali della funzione che associa una certa quantità a un’altra maggiore di zero e minore di qualsiasi numero reale. Tale variazione Leibniz la chiamava differenziale e le quantità associate infinitesimi. Il metodo per 11 Tractatus de quadratura curvarum, intr. 12 Philosophiae naturalis principia mathematica, I, I, lemma 11, scholium. 13 Sono esattamente queste le parole usate da Leibniz nel manoscritto De quadratura arithmetica circuli ellipseos et hyperbolae del 1675-1676.

58

La scienza che fu

fare operazioni con gli infinitesimi, pertanto, divenne noto come calcolo differenziale. Gli infinitesimi di Leibniz, tuttavia, erano delle “quantità fittizie”, entità linguistiche più che matematiche, e servivano soprattutto per riassumere in una sola parola l’espressione una differenza tra due quantità che può esser resa minore di una qualsiasi quantità data. D’altra parte, il ricorso a queste “finzioni” era per Leibniz ineliminabile. “Ho ragioni sufficienti per dubitare che sia possibile effettuare anche solo una singola operazione di quadratura senza far ricorso a quantità fittizie, ovvero a quantità infinite o infinitamente piccole”, scriveva già nel 1675.14

Al limite dell’infinito Con le opere di Newton e Leibniz si chiudeva la breve ma intensa stagione degli indivisibili e si apriva quella del calcolo infinitesimale. Pur nella diversità dei singoli programmi di ricerca, l’esperienza degli indivisibili ebbe le caratteristiche di un’impresa collettiva. Per circa sessant’anni, tre generazioni di matematici sparsi per l’Europa, mossi dalla necessità di rispondere a una serie di domande ereditate dalla tradizione medievale alla luce della nuova fisica inerziale, aveva condiviso un linguaggio comune e l’obiettivo generale di rendere l’infinito matematicamente trattabile. La storiografia della matematica ha a lungo guardato agli indivisibili come a una parentesi – interessante, ma tutto sommato trascurabile – all’interno del processo storico che ha portato alla nascita di quella che oggi chiamiamo analisi matematica. La storia della scienza tende spesso a sottolineare gli elementi di rottura rispetto alla tradizione, ma mai come in questo caso è necessario tenere presenti gli elementi di continuità rispetto al passato per non cadere nel facile errore di interpretare la storia come una successione di “anticipatori” ed “epigoni”. Sarebbe fin troppo semplice leggere nell’opera 14 De quadratura arithmetica circuli ellipseos et hyperbolae, Index notabiliorum.

3. GLI INDIVISIBILI

59

di Leibniz e di Newton le “anticipazioni” della nozione matematica di limite, ma la realtà è che tale nozione non si trova formulata in nessuno dei due autori. Il loro orizzonte concettuale, il loro linguaggio, le loro ambizioni e in parte le loro soluzioni sono indissolubilmente legate al mondo degli indivisibili e degli infinitesimi; entrambi usarono gli indivisibili nelle loro dimostrazioni, e per entrambi questo metodo era, se non proprio elegante, quantomeno efficace. Oggi, gli storici sono tutto sommato concordi nel considerare gli indivisibili come un momento essenziale nella storia della matematica e a leggere in essi il prodotto della cultura barocca, del suo gusto per l’inusitato, il meraviglioso, e della sua straordinaria fiducia nel potere creativo dell’immaginazione anche quando questo significava sacrificare il rigore formale. “Occorrendomi di manifestarli alcune cosette geometriche che mi sono passate per la fantasia”, scriveva Cavalieri a Galileo nel 1622, “ho fatto risolutione di scriverli e mandargliene copia […]. Forse questo mio pensiero li riuscirà una vanità, essendo elli lontano da tutto quello ch’i’ ho potuto trovare esser scritto da altri, e per riuscire molto stravagante a chi non lo consideri con qualche attentione”.15 Fantasia, stravaganza, meraviglia: il lessico usato per descrivere gli indivisibili non era esattamente quello della sobria dimostrazione matematica. Il metodo fu abbandonato perché ambiguo, problematico, fondato su supposizioni incerte o errate, e sarebbe stato infine quasi dimenticato in quanto semplicemente sbagliato. Eppure, fu proprio grazie agli indivisibili e alla straordinaria forza immaginativa che li aveva generati che fu aperta una breccia decisiva nell’imponente muraglia posta a guardia dell’infinito.

15 Cavalieri a Galileo, 10 febbraio 1622.

60

La scienza che fu

4. IL FLOGISTO

Il secolo del flogisto Il Settecento fu il secolo della Rivoluzione francese e di quella americana; il secolo del Liberismo, della separazione dei poteri e dell’abolizione della pena di morte; il secolo della macchina a vapore e della Prima rivoluzione industriale; il secolo dei philosophes, dell’Encyclopedie, della nascita del giornalismo e del romanzo popolare; il secolo di Mozart, Goethe, Goldoni e Canova; il secolo in cui l’uomo, per dirla con Immanuel Kant (1724-1804), divenne capace “di usare l’intelletto senza la guida di un altro”.1 Il Settecento fu il secolo dei lumi, il secolo in cui alla ragione fu attribuito il potere di migliorare la condizione umana scacciando via le tenebre dell’ignoranza e al filosofo il compito di farsi strumento di tale potere con lo studio, la discussione e la divulgazione delle conquiste della ragione; il secolo in cui la conoscenza assunse sempre più una dimensione istituzionale e così la posizione di coloro che ad essa si dedicavano. Dal punto di vista della filosofia naturale, il Settecento sancì la fine dell’aristotelismo, già irrimediabilmente compromesso dagli sviluppi della fisica e dell’astronomia nel corso del Cinquecento e del Seicento, e l’ascesa del newtonianesimo. La filosofia di Newton riassumeva le conquiste dei secoli passati – l’eliocentrismo, le leggi di Keplero, la fisica inerziale 1 Beantwortung der Frage: Was ist Aufklärung? (Risposta alla domanda: che cos’è l’Illuminismo?), “Berlinische Monatschrift”, IV, Dezember 1784, p. 481.

4. IL FLOGISTO

61

– e le proponeva come parte di una descrizione matematica complessiva di un universo omogeneo, in cui le stesse leggi valevano sia in Cielo che in Terra, e costituito da corpuscoli immersi in uno spazio e un tempo assoluti e soggetti alle leggi del moto. Con Newton, l’universo qualitativo aristotelico cedeva il passo a uno governato da forze intese come quantità misurabili legate una all’altra per mezzo di leggi matematiche. Nelle sue forme più estreme, il newtonianesimo evocava un rigido determinismo matematico, come nel caso, ad esempio, di Pierre Simon de Laplace (1749-1827), secondo il quale la conoscenza della natura era riconducibile a una sorta di “topografia dei corpuscoli” e pertanto una mente in grado di rilevare e analizzare i dati relativi alla posizione, alla direzione e alla velocità di ogni singolo corpuscolo presente nell’Universo (il cosiddetto demone di Laplace) sarebbe stata in grado di conoscere con esattezza matematica il suo stato passato, presente e futuro. La filosofia naturale di Newton, con la sua enfasi sulle dimostrazioni matematiche, sull’evidenza sperimentale e sul meccanicismo, apparve agli Illuministi come la più compiuta realizzazione della nuova mentalità liberata dall’oscurità della superstizione. “La scienza della natura è un bene che appartiene a tutti gli uomini”, scriveva Voltaire (1694-1778). “Tutti vorrebbero conoscere questo loro bene, se non fosse che non tutti hanno la pazienza o il tempo di mettersi a fare i calcoli necessari. Newton ha fatto tutti questi calcoli per loro”. E proseguiva: A molti la filosofia di Newton appare non meno incomprensibile di quella degli antichi. La filosofia dei Greci, tuttavia, è oscura perché a essi mancò completamente il lume, mentre le tenebre di Newton vengono dall’essere il lume troppo lontano dai nostri occhi.2 2 Elémens de la philosophie de Neuton, Mis à la portée de tout le monde, 1738, Avant-propos, pp. 12-13.

62

La scienza che fu

Alla luce di tutto ciò, appare sorprendente che una delle nozioni più caratteristiche della filosofia naturale del Settecento non provenga da Newton, ma proprio da coloro ai quali “mancò completamente il lume”; che non sia stata derivata dall’analisi delle leggi matematiche, ma anzi ne abbia imposto di nuove; e che non ebbe il supporto dell’evidenza sperimentale, ma sia stata al contrario sostenuta quasi in opposizione a essa. Stiamo parlando del flogisto, ovviamente, una meravigliosa idea sbagliata che segnò il Secolo dei Lumi a tal punto da poter a ragione definire quest’ultimo anche come il secolo del flogisto. Un elenco incompleto di coloro che accettarono il flogisto include Johann Henckel (1679-1744), Johann Juncker (1679-1759), René-Antoine Ferchault de Réaumur (16831757), Jean Hellot (1685-1766), Sigmund Margraff (17091782), Jean Darcet (1725-1801), Joseph Black (1728-1799), Henry Cavendish (1731-1810), Joseph Priestley (1733-1804), Richard Kirwan (1733-1812), Carl Wilhelm Scheele (17421786), Martin-Heinrich Klaproth (1743-1817), Amédée-Barthélemy Berthollet (1748-1822), Daniel Rutherford (1749-1819) e Jeremias-Balthazar Richter (1762-1807). Si tratta di tre generazioni di chimici di diversa provenienza, formazione e area di interessi. Molti di essi, grazie al flogisto, raggiunsero risultati tuttora validi. Questa rassegna consente una prima, fondamentale osservazione: quella del flogisto non fu una teoria, bensì molte. Come nel caso degli indivisibili, e in maniera ancor più pronunciata, ogni autore modellò la propria nozione di flogisto e la mise al servizio del proprio programma di ricerca. Il presupposto comune a tutte le teorie, comunque, era la fede nell’esistenza, all’interno di ogni corpo, di una sostanza fluida chiamata flogisto che conferiva a ogni corpo in cui era contenuta la proprietà della combustibilità. Il flogisto può perciò esser pensato in analogia all’impetus: come quello realizzava in un corpo la sua attitudine a muoversi, così questo realizzava quella a bruciare. A differenza dell’impetus, tuttavia, il 4. IL FLOGISTO

63

flogisto non era inteso come una forma immateriale, ma come un vero e proprio fluido contenuto all’interno dei corpi, che veniva consumato durante la combustione.

Il fuoco in ogni cosa L’uso del termine flogisto (dal greco φλογιστόν = materia infiammabile) per indicare la sostanza che determina la combustibilità di un corpo si trova per la prima volta nelle opere del medico tedesco Georg Ernest Stahl (1659-1734). Stahl dichiarava di esser stato guidato, nella “scoperta” del flogisto, dalle riflessioni che il suo maestro, il fisico e alchimista Johann Joachim Becher (1635-1682), aveva esposto nel trattato Physica subterranea (1669). Becher era un personaggio bizzarro che, oltre ad essere professore di medicina, era stato consigliere alla corte austriaca fin quando le sue idee politiche non lo avevano costretto ad abbandonare il paese. Trasferitosi nei Paesi Bassi, riuscì a convincere il governo di quel paese a investire nel suo progetto di trasformare la sabbia delle coste olandesi in oro. Una volta raccolto l’argento che a suo dire era necessario per compiere la trasmutazione, tuttavia, fuggì in Inghilterra, da dove lamentò di essere stato vittima di un complotto che lo aveva fatto temere per la sua vita. In Inghilterra scrisse l’opera Folle saggezza, saggia follia (1682), nella quale, raccontando la sua vita, dichiarava d’aver visto coi propri occhi cose come la trasmutazione di fango in oro, una pietra capace di rendere invisibili, delle oche che crescevano sugli alberi e un fiasco capace di “contenere parole” (una sorta di audioregistratore). La Physica subterranea (1669) è un’opera dedicata alla generazione dei metalli che si rifà, modificandole, alla teoria degli elementi di Empedocle (V sec. a.C.) e a quella, elaborata dal medico Paracelso (1493-1541), dei tre principi (Sale, Zolfo e Mercurio). I corpi fisici, secondo Becher, sono costituiti, come voleva Paracelso, da un miscuglio di Acqua e Terra reso possibile dall’azione strumentale dell’Aria, del Fuoco e 64

La scienza che fu

del Cielo. A differenza di Paracelso, però, Becher ipotizzò che quello che comunemente veniva chiamato elemento Terra fosse in realtà in miscuglio di tre elementi: una terra lapidea, ovvero con caratteristiche, appunto, terrose; una terra pinguis, con caratteristiche ignee; e una terra fluida, con caratteristiche acquatiche. Sebbene queste “tre terre” non si potessero osservare direttamente in natura, era possibile riconoscerle nelle sostanze che ne contenevano in percentuale massima, vale a dire i “principi” paracelsiani Sale (terra lapidea), Zolfo (terra pinguis) Mercurio (terra fluida). Le tre terre si trovano mescolate in varie proporzioni nella miscela di cui sono fatti i corpi e possono essere separate per combustione. Sulla scia dell’alchimia tradizionale, infatti, Becher considerava quest’ultima essenzialmente come un processo di rarefazione e separazione: il fuoco, penetrando nei corpi, causa la loro decomposizio-

Figura 12 - Antiporta dell’edizione del 1703 della Physica subterranea

4. IL FLOGISTO

65

ne in elementi più semplici determinando l’espulsione della parte infiammabile, la terra pinguis. Basandosi sul principio alchemico di affinità, in base al quale “il simile attrae il simile”, Stahl rinominò la terra pinguis di Becher in “flogisto” e ne fece l’elemento centrale della sua teoria della combustione. A differenza del maestro, egli considerava il flogisto non solo come ciò che veniva separato nel processo di combustione ma piuttosto come l’elemento che determinava la combustibilità stessa della materia. All’atto della mistione, il fuoco caldo, fervido, ardente contribuisce come strumento; ma all’interno della sostanza è il principio del fuoco, non il fuoco stesso, a intervenire come principio materiale e parte costitutiva del composto. Ed è questo ciò che io per primo ho chiamato “flogisto”. […] Ho ritenuto che gli si dovesse dare questo nome in quanto primo, unico e fondamentale principio d’infiammabilità. E questo perché, dal momento che non è stato fino ad ora possibile rinvenirlo al di fuori dell’unione con altri composti e sostanze, e dunque non ci sono basi per attribuirgli un nome capace di descrivere le sue proprietà, ho creduto che fosse più conveniente dargli un nome che richiamasse la sua azione generale, quella che si manifesta in tutti i composti di cui è parte. Perciò l’ho chiamato col nome greco di flogisto, che sarebbe a dire, in tedesco, Brennlich [infiammabile]. […] Tutti i composti materiali dei “regni” animale, vegetale e minerale contengono una certa percentuale di tale sostanza. E se nei composti appartenenti ai primi due è contenuto in grandissima quantità, tanto che si trova ad essi sempre combinato e ogni loro parte è da esso intimamente penetrata […], nel regno minerale, l’acqua, il sale, i sali vitriolici, la sabbia e le pietre in genere ne contengono poco; d’altra parte, il carbone e il bitume ne sono pieni, lo zolfo è completamente posseduto 66

La scienza che fu

da esso fin nelle sue più minute particelle e lo si trova abbondantemente anche in tutti in tutti quei metalli infiammabili che sono comunemente detti incompleti o “immaturi”.3

In realtà, la nozione di flogisto proposta da Stahl tra il 1697 e il 1730 era piuttosto ambigua: in alcuni casi esso era presentato come “il principio del fuoco”, in altri come “la materia del fuoco”, in altri ancora come un “elemento primordiale”. In ogni caso, il flogisto era ciò che tutti i corpi combustibili avevano in comune in quanto, appunto, combustibili. Solo le sostanze contenenti flogisto potevano essere bruciate e solo in proporzione alla quantità di flogisto in esse contenuto. La combustione, infatti, non consisteva in altro che nella separazione del flogisto dal combustibile e nella sua dispersione nell’aria sotto forma di fiamma o calore. Secondo Stahl, il flogisto era una sostanza semplice, omogenea, immutabile, permanente, indistruttibile, unica in tutti i corpi infiammabili e trasferibile da un corpo all’altro per mezzo di procedimenti chimici – in effetti, il flogisto non poteva essere né creato né distrutto, ma soltanto trasmesso. Nel processo di combustione, esso veniva separato dal combusto e disperso nell’aria sotto forma di fuoco o calore; e una volta esauritosi il flogisto contenuto nel corpo o saturatasi l’aria deputata ad assorbirlo, la combustione cessava e del corpo rimaneva soltanto la parte non flogistica, ovvero la cenere. L’ambiguità, o meglio la fluidità, della nozione di flogisto consentiva a Stahl di invocarne l’azione per spiegare tutti quei processi che, in qualche modo, potevano essere ricondotti alla combustione. Col flogisto, ad esempio, si poteva dare conto del fenomeno della calcinazione dei metalli – quella che oggi chiameremmo ossidazione – che per Stahl era un processo essenzialmente identico alla combustione. Riscaldando i metalli ad alte temperature questi perdevano il flogisto e si trasforma3 Specimen Becherianum, 1702, XVI.

4. IL FLOGISTO

67

vano in calci; restituendo loro il flogisto per mezzo della revivificazione o riduzione (un’operazione generalmente effettuata per distillazione), le calci riacquistavano natura metallica. Il flogisto svolgeva inoltre un ruolo fondamentale nei processi fisiologici della respirazione e della crescita vegetale, oltre che nella formazione di fenomeni atmosferici come lampi e fulmini, nella misura in cui questi potevano essere ricondotti a forme particolari di combustione, e ciò portava Stahl a immaginare una vera e propria “ecologia del flogisto”. La combustione, la calcinazione, la respirazione erano tutti processi consistenti nel rilascio di flogisto nell’atmosfera; i vegetali assorbivano il flogisto per poi rimetterlo in circolo facendo da alimento base per gli animali e l’uomo, i quali, a loro volta, respirando reimmettevano il flogisto nell’atmosfera dove esso veniva assorbito dalle piante e così via in perpetuo. Una parte del flogisto disperso andava a finire nelle parti più alte dell’atmosfera, dove si raccoglieva nelle nubi che, eccitate, lo trasferivano al terreno per mezzo dei tuoni e dei fulmini, facendo così nascere il bitume, il carbone, la torba e le altre sostanze quasi interamente composte di flogisto che a loro volta contribuivano alla flogistizzazione delle sostanze che con esse venivano in contatto, dando così vita a un “ciclo del flogisto” che garantiva l’unità e la solidarietà dei processi naturali.

Flogistizzando e deflogistizzando La teoria del flogisto di Stahl non era immediatamente integrabile nella visione newtoniana della natura, e questo non tanto per i suoi legami con la tradizione alchemica – Newton stesso non era stato insensibile al fascino dell’alchimia – e neppure per il rifiuto delle nuove tendenze meccaniciste e corpulariste in filosofia naturale, delle quali Stahl era pienamente informato. Il dissidio con il newtonianesimo era in realtà più profondo e sostanziale, essendo determinato non dai contenuti ma dall’approccio stesso ai problemi della natura. 68

La scienza che fu

Nella teoria di Stahl, così come in quelle dei suoi sostenitori dopo di lui, l’esistenza del flogisto era stata congetturata per dare conto di una serie di dati osservativi altrimenti incomprensibili; si trattava, in altre parole, di un’ipotesi ad hoc pensata per “salvare i fenomeni” e questo era diametralmente opposto a quanto Newton chiedeva alla “nuova” filosofia naturale. Hypotheses non fingo, scriveva Newton, “non faccio ipotesi”, intendendo con ciò affermare come non fosse lecito, per il filosofo, spiegare i fenomeni ricorrendo, appunto, ad ipotesi ad hoc: Non sono stato ancora in grado di spiegare, a partire dai fenomeni, le particolari proprietà della gravitazione, e non faccio ipotesi al riguardo. Tutto ciò che non è dedotto dai fenomeni deve essere chiamato ipotesi, e per le ipotesi, siano esse metafisiche, fisiche, basate su qualità occulte o meccaniche, non può esservi alcuno spazio nella filosofia sperimentale. In quest’ultima, le proposizioni particolari vengono derivate dai fenomeni e generalizzate grazie all’induzione.4

Questo era il metodo che Newton aveva usato per giungere alla formulazione della legge di gravitazione. A partire dall’osservazione dell’accelerazione centripeta della Luna e confrontandola con l’accelerazione di gravità terrestre, aveva stabilito una relazione tra la forza attrattiva esercitata dai due corpi e la loro distanza; una volta generalizzato questo risultato verificando che la relazione sussistesse anche in altre situazioni, l’aveva riformulato in termini matematici come F = Gm1m2/r2 che esprime, appunto, la legge di gravitazione universale. Quello che Newton non aveva fatto, era fare ipotesi sul perché tutti i corpi sembravano obbedire a questa legge matematica.5 L’approccio di Stahl era evidentemente diverso: 4 Philosophiae naturalis principia mathematica, Scholium generale. 5 Su questa base, nello scolio generale dei Principia, Newton rifiutava la teoria di Cartesio secondo la quale le particelle di etere nel cielo si muovono creando dei vortici che, combinati, danno luogo al moto degli astri.

4. IL FLOGISTO

69

l’esistenza del flogisto era un’ipotesi nel senso newtoniano del termine, cioè non una “proposizione particolare” derivata dai fenomeni e poi generalizzata per induzione, ma una “proposizione generale” derivata da principi altrettanto generali e modellata per poterne derivare deduttivamente i fenomeni. È lecito, a questo punto, chiedersi come sia stato possibile che una teoria radicalmente opposta all’idea newtoniana di “filosofia sperimentale” abbia potuto godere di così tanto successo proprio in un’epoca così “newtoniana” come il Settecento. Per rispondere a questa domanda occorre considerare che la disciplina che oggi chiamiamo “chimica” era rimasta generalmente estranea a quel processo di profonda rielaborazione dei contenuti, dei metodi, dei principi e delle finalità della filosofia naturale che tra il XVI e XVII secolo aveva portato alla completa revisione della fisica aristotelica e dell’astronomia tolemaica. C’erano stati, è vero, dei tentativi di avvicinare la chimica alla nuova fisica – Robert Boyle (1627-1691), ad esempio, aveva proposto nel 1661 una versione corpuscolare della natura della materia che rifiutava la teoria aristotelica degli elementi e si affidava piuttosto ai principi del filosofo Francis Bacon (1561-1626) e ai più recenti studi di fisici come Otto von Guernicke (1602-1686) – ma si era trattato di proposte il cui seguito immediato, in una disciplina ancora legata ai principi sperimentali dell’alchimia e in larga misura considerata come ancella della medicina, era stato piuttosto modesto. Ai contemporanei di Stahl fautori della “filosofia sperimentale” il flogisto non pose particolari problemi, se non altro perché il suo campo di applicazione veniva ancora considerato come tutto sommato indipendente da quello della fisica. Dall’altro lato, per come era formulata, la nozione di flogisto apriva nuovi e insperati campi di indagine sperimentale, anche grazie al nuovo metodo ideato da Stephen Hales (1677-1761) per raccogliere i gas al di sopra dell’acqua.6 Una 6 Il termine “gas”– trascrizione della pronuncia fiamminga del greco caos – era stato coniato da Jan Baptist van Helmont (1579-1644) per indicare i vapori, apparentemente senza forma e senza volume, prodotti nel corso dei suoi esperimenti. Egli intuì che

70

La scienza che fu

volta accettata l’esistenza del flogisto, era dunque possibile indagarne sperimentalmente le proprietà e il comportamento allestendo delle esperienze in grado di smentire o confermare gli effetti che si riteneva dovessero derivare dalla teoria. Nel Settecento furono così studiati sperimentalmente e con successo i processi di flogisticazione e deflogisticazione specifici di molte sostanze e si tentò di classificare i diversi tipi di “aria” cui essi davano luogo. Così, Joseph Black riuscì a isolare l’aria fissa (anidride carbonica), Daniel Rutherford l’aria flogisticata (azoto), Henry Cavendish l’aria infiammabile (idrogeno), Joseph Priestley l’aria nitrosa (monossido di carbonio), l’aria nitrosa deflogistizzata (diossido di azoto) e l’aria deflogisticata (ossigeno). Intorno agli anni ’80 del Settecento, Cavendish scoprì inoltre che l’acqua non è un elemento semplice, ma è

Figura 13 - Apparato sperimentale usato da Priestley per lo studio dei diversi tipi di aria. In una bacinella colma d’acqua mescolata con la sostanza da studiare erano immersi dei recipienti in vetro di forma cilindrica dove venivano raccolti i gas ottenuti facendo gorgogliare l’acqua della bacinella. I gas così raccolti potevano essere estratti dai contenitori cilindrici per mezzo di vasi più piccoli e utilizzati per effettuare esperienze su piante e animali. In questo modo, Priestley riuscì a dimostrare, ad esempio, che un topo all’interno di una campana di vetro sopravviveva più a lungo se insieme ad esso veniva posta nella campana di vetro anche una pianta, confermando così il principio di Stahl secondo il quale le piante assorbono il flogisto tali vapori si comportavano diversamente dall’aria comune, ma non riuscì a trovare il modo di “intrappolarli” e studiarli approfonditamente.

4. IL FLOGISTO

71

composta da due misure di aria infiammabile e una di aria deflogisticata. Questi risultati portarono ad abbandonare i presupposti della teoria originaria di Stahl. Non solo la Terra, ma neanche l’Aria e, soprattutto, l’Acqua erano da considerarsi elementi semplici; quanto al flogisto, poi, esso divenne col tempo un’entità le cui proprietà venivano puntualmente invocate per spiegare qualsiasi effetto o evidenza apparisse dagli esperimenti. Nella seconda metà del Settecento, così, si ebbero tante diverse teorie del flogisto quanti erano i “flogististi”, e ciascuna di queste teorie attribuiva al flogisto proprietà diverse a seconda delle necessità. Nelle parole del principale oppositore del flogisto, il chimico francese Antoine-Laurent de Lavoisier (1743-1794), I chimici hanno fatto del flogisto un principio vago e indefinito, e perciò utilizzabile in qualsiasi situazione. A volte è pesante, altre volte no; a volte è libero, altre volte è legato a un elemento terrestre; a volte può passare attraverso le porosità dei vasi, altre volte invece questi sono per lui impenetrabili; il flogisto spiega la causticità e la non causticità, la diafanità e l’opacità, il colore e l’assenza di colore. È davvero un Proteo che cambia forma ad ogni occasione.7

Con circa due secoli di anticipo rispetto al filosofo Karl Popper (1902-1994), Lavoisier enunciava qualcosa di simile al principio di confutabilità per valutare la “scientificità” di una teoria. Il flogisto era da rifiutare perché, di fatto, era virtualmente inattaccabile e qualsiasi difficoltà poteva essere risolta attribuendo ad esso una proprietà ad hoc: il fatto che la calce ottenuta da un metallo pesasse di più del metallo stesso, ad esempio, veniva spiegato dai “flogististi” assumendo che, in alcuni casi, il flogisto potesse avere peso negativo. Il flogisto, 7 Réflexions sur le phlogistique, 1777, in Oeuvres de Lavoisier, Paris, 1862-1893, vol. 2, p. 640.

72

La scienza che fu

in altre parole, era, secondo Lavoisier, una nozione che non spiegava nulla proprio perché spiegava tutto.

Dall’aria deflogisticata all’ossigeno L’assalto di Lavoisier al flogisto partì da un risultato ottenuto dai flogististi stessi: l’isolamento dell’aria deflogisticata. In un esperimento effettuato nel 1774, Lavoisier aveva mantenuto del mercurio ad alte temperature per 12 giorni osservando come al processo di calcinazione si accompagnasse una riduzione dell’aria. L’aria ottenuta dalla calcinazione del mercurio non era né respirabile né dava sostegno alla combustione; in essa, gli animali morivano in pochi secondi e le candele si spegnevano immediatamente. Così come previsto dalle teorie del flogisto, inoltre, riscaldando la calce di mercurio Lavoisier riotteneva il mercurio mentre il gas che si liberava in questo processo di riduzione era respirabile e atto a sostenere la combustione.

Figura 14 - L’apparato di Lavoisier. Il Mercurio iniziale è contenuto nella storta A, e l’aria prodotta dalla calcinazione viene rilasciata da E nella campana FG, a sua volta contenuta in un contenitore pieno di Mercurio

4. IL FLOGISTO

73

Ora, secondo i flogististi, nella prima parte del processo il mercurio cedeva flogisto all’aria, rendendola irrespirabile; nella seconda parte, invece, la calce veniva flogistizzata dando di nuovo vita al metallo. Questa spiegazione aveva un problema evidente: non chiariva perché alla calcinazione si accompagnasse una riduzione dell’aria né perché la calce di mercurio pesasse più del mercurio iniziale (o meglio, lo faceva, ma ammettendo che il flogisto, in questo caso, avesse peso negativo). Per Lavoisier, invece, entrambi i fenomeni si spiegavano col fatto che, durante il processo di calcinazione, il mercurio non rilasciava flogisto, ma assorbiva aria respirabile; viceversa, nel processo di riduzione era l’aria respirabile ad essere rilasciata e non il flogisto ad essere assorbito. In questo modo, Lavoisier dava ragione sia della riduzione di aria che dell’aumento di peso, e li presentava come fenomeni collegati. Contrariamente a quanto ritenuto da Stahl e dai flogististi dopo di lui, il flogisto stesso, in tutto questo, non era richiesto: l’unico agente implicato nella combustione, nella calcinazione e nella respirazione era l’aria (proprio ciò che Stahl riteneva non fosse coinvolto in questi processi, se non come “serbatoio” per il flogisto), o più precisamente le sue componenti respirabile e non respirabile, chiamate da Lavoisier rispettivamente ossigeno (“generatore di acido”)8 e azoto (“senza vita”). Questi non erano diversi tipi di aria distinti in base al loro grado di “flogistizzazione”, ma elementi diversi che, insieme, costituivano ciò che comunemente veniva chiamata “aria”. Supporre che l’aria respirabile fosse tale perché priva di flogisto era un’ipotesi ad hoc non giustificata dall’analisi sperimentale e del tutto irrilevante, se non dannosa, per comprendere il fenomeno della combustione. 8 Lavoisier riteneva l’ossigeno l’elemento che generava gli acidi a partire da determinate sostanze: ad esempio, l’acido solforoso era, secondo Lavoisier, un composto di zolfo e ossigeno. Anche in questo la sua visione era diametralmente opposta a quella di Stahl, secondo il quale invece erano le sostanze come lo zolfo ad essere dei composti, e non gli acidi, che invece erano visti come elementi semplici. Nel caso dello zolfo, esso era considerato un composto di acido solforoso e flogisto.

74

La scienza che fu

L’esperimento di Lavoisier, cruciale ad uno sguardo retrospettivo, non apparve così decisivo ai suoi contemporanei. Alcuni lo interpretarono in senso tradizionale sostenendo che il flogisto avesse peso negativo, altri ammisero l’esistenza dell’ossigeno accanto al flogisto, altri ancora sostennero che Lavoisier stava semplicemente dando nomi nuovi ai diversi tipi di aria già isolati da chimici e che fosse tutt’al più necessario rivedere la nozione di flogisto, ma certamente non abbandonarla. In generale, comunque, per i sostenitori del flogisto l’esperimento di Lavoisier non provava in maniera definitiva l’inesistenza del flogisto: come affermava Kirwan, se la calce ridiventava sempre mercurio, ciò era un segno inequivocabile del fatto che essa riacquistasse il flogisto dall’aria fissa, rendendo quest’ultima aria deflogisticata. Flogististi e antiflogististi, insomma, parlavano lingue diverse e, pur effettuando le stesse esperienze, realizzavano in realtà esperimenti diversi. Nel 1783 Priestley espose i risultati di un esperimento col quale aveva prodotto piombo a partire dal minio (la calce di piombo o, in termini moderni, ossido di piombo) e dall’aria infiammabile. Priestley osservava che, nel corso del processo in cui la calce veniva trasformata in metallo, l’aria infiammabile diminuiva rapidamente e veniva prodotta una certa quantità di acqua. “Io non potevo dubitare”, concludeva Priestley, “che la calce stesse assorbendo qualcosa dall’aria; e che dai suoi effetti nel trasformare la calce in metallo questo qualcosa non potesse essere altro che quello a cui i chimici avevano unanimemente dato il nome di flogisto”.9 Priestley considerava la produzione di acqua come un sottoprodotto trascurabile; ciò che importava era che la calce assorbiva il flogisto. Dal punto di vista di Lavoisier, invece, l’esperimento indicava qualcosa di completamente diverso, perché l’acqua era da considerarsi non come un sottoprodotto della calcinazione ma come un fenomeno cruciale 9 Experiments Relating to Phlogiston, and the Seeming Conversion of Water into Air, in «Philosophical Transactions», vol. 73, 1783, p. 402.

4. IL FLOGISTO

75

per la comprensione dell’intero processo. Attraverso l’acqua, infatti, la calce rilasciava ossigeno (ovvero, nella terminologia di Priestley, aria deflogisticata), e ciò confermava che il metallo veniva ravvivato non per flogistizzazione ma solo in virtù dell’espulsione dell’aria respirabile accumulata con la calcinazione. Quello che per Priestley era un fatto secondario, per Lavoisier diventava fondamentale; e là dove Priestley vedeva l’assorbimento del flogisto, Lavoisier vedeva invece l’espulsione dell’ossigeno. Alla fine del Settecento, pertanto, la controversia sul flogisto non riguardava tanto la sua effettiva esistenza quanto il metodo stesso e lo statuto epistemologico della chimica come disciplina. Uomini come Lavoisier mettevano in dubbio non solo l’esistenza del flogisto ma tutta una serie di concezioni, metodi e pratiche a esso legate. La chimica, per Lavoisier – ma non solo per lui – doveva cambiare completamente prospettiva epistemologica, metodologica e addirittura linguistica affidandosi a nozioni precise, quantificabili e rilevabili sperimentalmente per mezzo dell’uso sistematico degli strumenti di misura, non a sintesi “filosofiche” come quelle di Stahl o a spiegazioni di comodo come quelle dei flogististi; la chimica, insomma, doveva finalmente farsi newtoniana, abbandonando l’obiettivo comodo, ma fuorviante, di “salvare i fenomeni” con un deus ex machina come il flogisto.

76

La scienza che fu

5. L’ETERE LUMINIFERO

E luce fu Tra le numerosissime attestazioni di stima – per non dire di adorazione – tributate a Newton tra il XVII e il XVIII secolo un posto particolare va sicuramente assegnato a quella del poeta inglese Alexander Pope (1688-1744), il quale, in occasione della morte dello scienziato (1722), compose il seguente epitaffio: Nature and Nature’s Laws lay hid in Night: God said, “Let Newton be!” and all was light. (La Natura e le Sue leggi erano celate dalle tenebre: Dio disse: “Sia Newton!” e tutto fu luce).

L’epitaffio, forse perché giudicato troppo ardito nel subordinare la creazione della luce a quella di Newton, non fu impresso sul monumento funebre realizzato nel 1731 all’interno dell’Abbazia di Westminster, ma rimane comunque una delle più conosciute testimonianze dell’impatto della filosofia naturale di Newton nel XVIII secolo nonché, in virtù del riferimento alla luce, una delle più pregnanti celebrazioni dell’opera dello scienziato inglese. Lo studio della luce, infatti, aveva rappresentato un capitolo fondamentale della sua attività di ricerca e lo aveva portato a formulare quella che probabilmente rimane ancor oggi la più radicale e controversa tra le sue teorie. Tra il Cinquecento e il Seicento c’era stato un generale e rinnovato interesse nei confronti dell’ottica geometrica. Nel 5. L’ETERE LUMINIFERO

77

1604 Kepler aveva pubblicato un trattato di ottica presentandolo come un aggiornamento dell’opera di Witelo (1220/1230 - dopo il 1277), il quale, basandosi a sua volta in gran parte sugli studi del persiano Alhazen (965-1040), aveva esposto i principi fondamentali della riflessione e della rifrazione (ovvero il passaggio dei raggi luminosi attraverso oggetti trasparenti). L’invenzione del cannocchiale in Olanda alla fine del Cinquecento e l’uso spettacolare che di esso ne aveva fatto Galileo per scoprire, tra il 1609 e il 1610, i satelliti di Giove, la conformazione della Luna e la particolare forma “tricorporea” del pianeta Saturno1 avevano inoltre dato un’ulteriore, straordinario impulso alle ricerche in campo ottico. Fu proprio studiando il moto dei satelliti di Giove che, nel 1676, l’astronomo danese Ole Christiansen Rømer (1644-1710) dimostrò che la velocità della luce era finita e ne diede una stima di massima.2 Nella prima metà del Seicento, indipendentemente l’uno dall’altro, Cartesio e il matematico olandese Willebrod Snell van Royen (1580-1626), sistematizzarono i principi generali dell’ottica geometrica, così che al tempo di Newton erano comunemente accettati tre principi fondamentali, ovvero (1) che i raggi luminosi, in un mezzo omogeneo, si propagano in linea retta; (2) che gli angoli di incidenza e riflessione di un raggio di luce che colpisce un corpo sono uguali; e (3) che il rapporto tra il seno dell’angolo di incidenza e quello dell’angolo di rifrazione di un raggio di luce che attraversa un corpo è costante. Formulata a grandi linee nel 1666 ma resa pubblica per la prima volta solo nel 1672, la teoria di Newton era fondata sulla “scoperta filosofica” della natura composita della luce solare. Al principio del 1666, costretto dall’epidemia di peste a ritirarsi in campagna e a rinchiudersi in casa con le finestre sbarrate, Newton, praticando dei piccoli fori nelle imposte, aveva effettuato una serie di esperienze con dei prismi di ve1 Con il suo telescopio, Galileo non era riuscito osservare nitidamente gli anelli di Saturno. 2 Lo studio dei satelliti di Giove era legato al problema pratico della determinazione della longitudine, problema al quale Galileo aveva cercato di dare soluzione proprio basandosi sul moto delle lune di Giove.

78

La scienza che fu

tro che lo avevano portato a rifiutare l’ipotesi, allora universalmente accettata, della luce solare come entità semplice e omogenea. Quando un raggio luminoso attraversava il prisma, infatti, veniva scomposto in bande colorate e ad ogni colore sembrava corrispondere un angolo di rifrazione distinto. Da queste osservazioni Newton aveva derivato una serie di importanti conseguenze: affermare che la luce era costituita da un insieme di raggi diversamente rifrangibili e di colori diversi implicava infatti che il colore fosse una proprietà “originale e connaturata” della luce, e non una qualità secondaria propria del corpo illuminato o dell’occhio; che esistesse un gruppo di colori “primari” la cui combinazione dava origine a tutti gli altri colori; che il colore bianco fosse un composto di tutti i colori e dunque che la luce stessa (in quanto il bianco sarebbe il colore proprio della luce in generale) fosse “un aggregato confuso di raggi di tutti i colori”;3 che la luce, infine, fosse un’entità corporea costituita da fasci di particelle colorate che, attraversando il prisma, venivano rifratti in maniera diversa separandosi così uno dall’altro. Nella formulazione proposta nel trattato Ottica del 1704, la luce veniva presentata da Newton come un insieme di particelle colorate emesse dal

Figura 15 - L’experimentum crucis di Newton. Un fascio di luce solare viene fatto passare attraverso una fenditura fino a colpire obliquamente un prisma triangolare, che lo scompone in tanti fasci colorati. Questa luce viene poi fatta convergere grazie a una lente biconvessa che “ricompone” i fasci, originando nuovamente la luce bianca. Ponendo un altro prisma tra il primo e la lente biconvessa in modo che intercettasse solo la luce rossa, questa non si scompone ma rimane rossa 3 A Letter of Mr. Isaac Newton, Mathematick Professor in the University of Cambridge; containing his New Theory about Light and Colors, «Philosophical Transactions of the Royal Society», 80, 1671/2, pp. 3075-3087: 3082.

5. L’ETERE LUMINIFERO

79

corpo luminoso e il cui comportamento, obbediente alle leggi generali del moto, poteva essere descritto matematicamente con il metodo delle flussioni. L’ottica newtoniana era, in realtà, poco “newtoniana”, in quanto fondata sul genere di ipotesi ad hoc che Newton affermava di non voler fare; per questo motivo, egli la considerò sempre come una semplice proposta, non come una teoria scientificamente valida, e quando, nel 1672, fu presentata pubblicamente come comunicazione alla Royal Society, suscitò aspri dibattiti. Fu, in particolare, Robert Hooke (1635-1703) a contestarla apertamente, opponendole la sua teoria della luce come “nient’altro che un moto semplice e uniforme, ovvero una vibrazione prodotta da un qualche tipo di movimento interno al corpo luminoso stesso, trasmessa a un mezzo omogeneo e trasparente e da questo propagata velocissimamente in tutte le direzioni”.4 Si trattava di una teoria delineata già da Cartesio, secondo il quale la luce prodotta da un corpo luminoso non era essa stessa un’entità corporea ma solo un effetto del movimento circolare uniforme delle particelle interne al corpo trasmesso al mezzo sotto forma di una specie di pressione capace di raggiungere istantaneamente l’occhio dell’osservatore. A differenza di Cartesio, tuttavia, Hooke riteneva che il movimento delle particelle interne che generavano la luce fosse una “vibrazione” rapidissima e di breve durata, tale da sfuggire all’osservazione, e soprattutto capace di determinare un movimento reale del mezzo. Il movimento si propaga in ogni direzione attraverso un mezzo omogeneo per linee rette che si estendono come raggi a partire dal centro di una sfera […]. Nel mezzo omogeneo questo movimento si propaga a velocità regolare, dal che segue che ogni vibrazione o pulsazione nel corpo luminoso genera una sfera che progressivamente si in4 Robert Hooke’s Critique of Newton’s Theory of Light and Colors, Lecture delivered in 1672, in Thomas Birch, The History of the Royal Society, vol. 3 (London: 1757), pp.10-15: 12.

80

La scienza che fu

grandisce, esattamente come una pietra lasciata cadere nell’acqua genera sulla sua superficie delle onde che si estendono in circoli sempre più grandi.5

La luce bianca, secondo Hooke, è la luce prodotta da un’onda che si propaga in linea retta a velocità uniforme in un mezzo omogeneo; quando l’onda passa obliquamente attraverso un mezzo di densità diversa, invece, la variazione di velocità e direzione dell’onda determinata di volta in volta dall’angolo di incidenza e dalla particolare densità del mezzo fa sì che si generino i colori che, pertanto, sono effetti secondari dovuti alla riflessione e alla rifrazione e non, come sosteneva invece Newton, proprietà della luce stessa. La teoria ondulatoria fu riformulata in termini più rigorosi dall’astronomo e fisico danese Christiaan Huygens (1629-1695). Huygens concepì la propagazione della luce in analogia alla propagazione del suono. Come il suono, anche la luce consisteva in un insieme di vibrazioni longitudinali (ovvero, onde oscillanti avanti e indietro nella direzione di propagazione) trasmesse dalla sorgente al mezzo e propagan-

Figura 16 - La diffusione della luce secondo Huygens 5 Ibidem.

5. L’ETERE LUMINIFERO

81

tesi in tutte le direzioni in circoli sempre più grandi. Il mezzo le cui vibrazioni determinavano il propagarsi della luce, però, non era, come nel caso delle onde sonore, l’aria, e neppure il generico mezzo omogeneo di Hooke, ma una materia dura, elastica, onnipresente, inosservabile e composta di particelle sottilissime alla quale Huygens dava il nome di etere.

Una nuova materia Nella filosofia aristotelica, etere (αίθήρ) era uno dei nomi attribuiti alla quinta essenza, la materia perfetta, solida, trasparente, impenetrabile, imponderabile e immutabile di cui erano fatti i cieli e il cui moto proprio era circolare e uniforme. Questa concezione fu messa in crisi dalle osservazioni astronomiche compiute da Tycho Brahe alla fine del Cinquecento, che dimostravano come sia il percorso delle comete che l’orbita dei pianeti Mercurio, Venere e Marte intersecassero altre sfere celesti. Da ciò, Brahe concludeva infatti che l’etere non fosse una materia solida e impenetrabile, ma un fluido nel quale gli astri si muovevano come pesci nell’acqua (sicut pisces in aqua). Questa nozione di etere fluido fu ripresa da Cartesio per spiegare la trasmissione meccanica del movimento senza ricorrere a una problematica azione a distanza e in questo senso fu considerata come plausibile anche da Newton, il quale però preferì non esprimersi in maniera definitiva sull’argomento e limitarsi a considerare l’esistenza dell’etere come una delle possibilità di spiegazione dell’azione della gravità.6 In ogni caso, l’etere non era richiesto dalla teoria corpuscolare della luce e dal momento che nell’immediato questa prevalse sulle teorie ondulatorie, esso non entrò a far parte del corredo di nozioni utilizzate nel Settecento per spiegare i fenomeni luminosi. 6 L’accettazione, da parte di Newton, dell’azione a distanza è una questione storiograficamente controversa. Nei Principia, infatti, Newton sembra concedere la possibilità di un’azione a distanza, mentre in alcuni luoghi della sua corrispondenza sembra rigettarla risolutamente. La questione è tuttora aperta.

82

La scienza che fu

Verso la fine del secolo, tuttavia, al newtonianesimo cominciò ad accadere ciò che nel medioevo era accaduto all’aristotelismo: pur fornendo una cornice teorica di riferimento e un insieme di principi generali, la filosofia naturale di Newton fu rielaborata, modificata e in alcuni casi le sue conclusioni completamente ribaltate. Il metodo delle flussioni, che mai aveva goduto di particolare successo nell’Europa continentale, fu del tutto abbandonato, rimpiazzato prima dal calcolo infinitesimale di Leibniz e poi da metodi che non facevano riferimento a quantità infinitamente piccole ma a intervalli riducibili a piacere–ovvero alla possibilità, nelle parole di Jean-Baptiste le Rond d’Alembert (1717-1783), data una certa grandezza detta limite, di trovare sempre “una seconda grandezza che si avvicina alla prima più di qualsiasi altra quantità, per quanto piccola, senza perciò superarla, ma tale che la differenza tra essa e il suo limite sia assolutamente indeterminabile”.7 In questo contesto, le teorie ondulatorie della luce ricominciarono a tornare in auge e l’ottica, in un certo senso, rappresentò per la filosofia naturale di Newton ciò che la teoria del moto violento era stato per quella di Aristotele. La teoria corpuscolare, pur avendo avuto la meglio su quella ondulatoria, non dava infatti conto in maniera soddisfacente di alcuni importanti fenomeni come la diffrazione e la birifrangenza. La diffrazione era stata descritta per la prima volta dal gesuita Francesco Maria Grimaldi (1618-1663) in un’opera postuma pubblicata nel 1665. Grimaldi aveva notato che un piccolo corpo opaco posto sulla traiettoria di un fascio luminoso non dava luogo a un’ombra dai contorni definiti, come ci si aspetterebbe in virtù del principio di propagazione rettilinea, ma sembrava essere “aggirato” dal fascio di luce e, su uno sfondo bianco, produceva un sistema di bande chiare e scure. “La luce”, concludeva Grimaldi, “non si propaga soltanto per via rettilinea, per rifrazione e per riflessione, ma 7 Encyclopédie, ou Dictionnaire raisonné des sciences, des arts et des métiers, 1751-1772, vol. 9 (1765), 542. “La teoria dei limiti”, aggiungeva d’Alembert, “è la base della vera Metafisica del calcolo differenziale (si vedano anche Differenziale, Flussione, Esaustione, Infinito)”. 5. L’ETERE LUMINIFERO

83

anche in un quarto modo e cioè per diffrazione”.8 Grimaldi era convinto che la luce fosse composta di particelle, ma la diffrazione lo portò ad ammettere che talvolta “poteva anche comportarsi come un’onda”.9 Quanto alla birifrangenza o doppia rifrazione, era stato il danese Rasmus Bartholin (1625-1698), nel 1669, a osservare che piccoli oggetti osservati attraverso un cristallo di spato d’Islanda (una varietà particolarmente limpida di calcite da poco rinvenuta in alcune cave islandesi) apparivano sdoppiati e ad attribuire l’origine del fenomeno al fatto che i raggi luminosi, attraversando lo spato d’Islanda, non venivano semplicemente rifratti ma divisi in due raggi distinti, procedenti uno in accordo col principio di rifrazione e l’altro, invece, lungo una direttrice diversa. Questi fenomeni erano difficilmente spiegabili in una prospettiva corpuscolarista, mentre risultavano più trattabili se considerati da un punto di vista ondulatorio. “Non è possibile che i raggi luminosi”, chiedeva Newton nell’Ottica a proposito della diffrazione, “passando vicino ai bordi e ai lati dei corpi opachi, siano piegati diverse volte avanti e indietro, così da produrre un movimento simile a quello di un’anguilla?”.10 Lo stesso padre della teoria corpuscolarista riconosceva, di fatto, che la teoria ondulatoria non era del tutto campata in aria. La definitiva consacrazione della teoria ondulatoria si ebbe nel 1801, quando Thomas Young (1773-1829) effettuò una serie di esperimenti che sembravano confermare la teoria di Huygens a scapito di quella di Newton. Young fece passare un fascio di luce attraverso due piccole fenditure circolari realizzate in una sottile lamina opaca, e interpretò le bande chiare e scure che si producevano sullo sfondo come effetto della “sovrapposizione” delle onde luminose passate attraverso le fenditure, in virtù di un principio già enunciato da Huygens, quello secondo il quale ciascuna particella di etere messa in movimento dalla sorgente luminosa si comporta8 Physico-Mathesis de Lumine, Coloribus et Iride aliisque adnexis Libri Duo, 1665, Propositio I. 9 Ivi, Propositio II. 10 Opticks, 1702, book III, section I, Query 3.

84

La scienza che fu

Figura 17 - Esperimento di Young sulla diffrazione e formazione delle frange di interferenza

va a sua volta come una sorgente secondaria. La formazione delle bande sullo sfondo, dunque, era per Young il risultato di un fenomeno di interferenza delle onde luminose. Questo risultato riportava in auge la nozione di un etere luminifero le cui vibrazioni determinavano il propagarsi della luce. L’etere luminifero di Young non era molto diverso da quello di Huygens: una materia fluida “che permea tutti i corpi materiali e oppone al loro moto poca o nessuna resistenza, come un venticello che soffia in un boschetto”.11 Le teorie di Young furono riprese da Augustin-Jean Fresnel (1788-1827), il quale si preoccupò di dare una solida base teorica alla teoria ondulatoria approcciando i problemi della diffrazione e della birifrangenza da un punto di vista rigorosamente matematico. Studiando la polarizzazione della luce, scoperta nel 1808 da Étienne-Louis Malus (1775-1812),12 Fresnel giunse alla conclusione che le onde luminose non erano longitudinali ma trasversali (le particelle di etere non oscillavano “avanti e indietro” ma “su e giù”). Questo, oltre a spiegare il fenomeno della polarizzazione, aveva importanti 11 The Bakerian Lecture: Experiments and Calculations Relative to Physical Optics, «Phil. Trans. R. Soc. Lond.», 94, 1804, pp. 1-16: 12-13. 12 Malus scoprì il fenomeno della polarizzazione per riflessione notando che un raggio di luce riflesso da una finestra, quando attraversava un cristallo di Spato d’Islanda, non si sdoppiava ma dava luogo a un solo fascio. Ruotando il cristallo, il fascio scompariva per lasciare il posto a un altro fascio. Malus attribuì questo fatto a qualche proprietà della luce riflessa.

5. L’ETERE LUMINIFERO

85

conseguenze nella determinazione delle supposte proprietà dell’etere luminifero. Se le onde erano trasversali, l’etere non poteva essere fluido ma doveva necessariamente essere solido: come aveva già intuito Hooke, infatti, le onde trasversali possono propagarsi soltanto in un mezzo rigido, ovvero in un mezzo in cui le particelle sono legate l’una all’altra; un etere fluido, pertanto, non avrebbe potuto supportarle. L’etere di Fresnel, dunque, era una materia solida, elastica, rigidissima, immobile, onnipresente; e però anche estremamente rarefatto, evanescente, facilmente attraversabile dai corpi, indifferente al loro moto e incapace di interagire con la materia. Fresnel, in altre parole, concepiva l’etere come la “materializzazione” dello spazio assoluto di Newton. Per quanto problematica, questa nozione di etere luminifero consentì di riportare una vasta gamma di fenomeni precedentemente ritenuti espressione di forze “oscure” a una forma matematicamente trattabile, e la sua accettazione contribuì in maniera determinante all’elaborazione della teoria dell’elettromagnetismo da parte di James Clerk Maxwell (1831-1879). Riassumendo mirabilmente duecento anni di studi sui fenomeni magnetici ed elettrici in quattro equazioni differenziali, Maxwell dimostrò che l’elettricità e il magnetismo erano in realtà aspetti di una medesima realtà “ondulatoria” descrivibile come effetto dell’azione di “linee di forza”, intese come distorsioni dell’etere, e che la luce stessa non era altro che un’onda elettromagnetica. Con Maxwell, l’etere luminifero diventava più propriamente un etere cosmico. “Quantunque sia difficile formarsi un’idea coerente della natura dell’etere”, scriveva Maxwell nel 1873, “non c’è dubbio che gli spazi interstellari e interplanetari non siano vuoti, ma siano occupati da una sostanza materiale, un corpo, che sicuramente è il più esteso e probabilmente il più uniforme di tutti quelli di cui abbiamo notizia”.13

13 Encyclopedia Britannica Ninth Edition, vol. 8 (1878), pp. 568-572: 572.

86

La scienza che fu

Moto assoluto L’esigenza di ammettere l’esistenza dell’etere luminifero non scaturiva soltanto da questioni filosofiche e meccaniche quali la ritenuta impossibilità dell’azione a distanza ma era in un certo senso insita nel formalismo matematico ad esso collegato e alla nozione di “moto assoluto”. In un celebre brano del Dialogo sui massimi sistemi del mondo (1632) Galileo aveva enunciato quello che sarebbe poi stato conosciuto come “principio di relatività galileiano”: Rinserratovi con qualche amico nella maggiore stanza che sia sotto coverta di alcun gran naviglio, e quivi fate d’aver mosche, farfalle e simili animaletti volanti: siavi anco un gran vaso d’acqua, e dentrovi de’ pescetti; sospendasi anco in alto qualche secchiello, che a goccia a goccia vada versando dell’acqua in un altro vaso di angusta bocca che sia posto a basso; e stando ferma la nave, osservate diligentemente come quelli animaletti volanti con pari velocità vanno verso tutte le parti della stanza. I pesci si vedranno andar notando indifferentemente per tutti i versi, le stille cadenti entreranno tutte nel vaso sottoposto; e voi gettando all’amico alcuna cosa non più gagliardamente la dovrete gettare verso quella parte che verso questa, quando le lontananze sieno uguali; e saltando voi, come si dice, a pié giunti, eguali spazii passerete verso tutte le parti. Osservate che avrete diligentemente tutte queste cose, benché niun dubbio ci sia mentre il vascello sia fermo non debbano succedere così: fate muovere la nave con quanta si voglia velocità, purché di moto uniforme e non fluttuante di qua e in là, voi non riconoscerete una minima mutazione in tutti li nominati effetti; né da alcuno di quelli potrete comprendere se la nave cammina, o pure sta ferma.14 14 Dialogo sui massimi sistemi del mondo, Giornata Seconda.

5. L’ETERE LUMINIFERO

87

L’osservatore interno alla nave non può capire, dal movimento degli oggetti che sono dentro la nave, se quest’ultima è immobile o si muove di moto rettilineo uniforme, perché le leggi che descrivono il moto di quegli oggetti sono identiche sia che la nave sia ferma sia che si muova. Supponiamo ora di avere due navi, una ferma e l’altra che si muove di moto rettilineo uniforme: è possibile, per chi si trova nella nave ferma, descrivere in forma matematica ciò che succede dentro la nave in movimento come farebbero i passeggeri al suo interno? La risposta è sì, e ciò grazie alle cosiddette trasformazioni galileiane. In ognuna delle navi, lo “stato” di un oggetto nell’istante t è dato dalla sua posizione in un sistema di coordinate tridimensionali . Pertanto, supponiamo che x,y,z siano le coordinate che definiscono la posizione di un certo oggetto immobile P nella nave che sta ferma e x1, y1, z1 le corrispondenti relative a P1 nella nave che si muove in avanti lungo l’asse x ad una velocità v. Supponiamo anche che il tempo t scorra allo stesso modo per le due navi, e indichiamo con vt la distanza percorsa della nave in movimento nel tempo t. Avremo dunque che l’osservatore nella nave che sta ferma potrà descrivere lo stato di P1, che a lui appare in movimento, per mezzo delle seguenti equivalenze:

{

x1 = x–vt y1 = y z1 = z t1 = t

Questo perché l’unica differenza tra P e P1 è il fatto che P1 si sta muovendo in avanti insieme alla nave, e dunque il valore di x1 dipende dalla distanza percorsa nel tempo t. Le trasformazioni galileiane, in breve, permettono di passare da un sistema di riferimento inerziale all’altro. Le leggi matematiche che descrivono una certa situazione fisica si riteneva dovessero valere in tutti i sistemi di riferimento; ovvero dovevano, come si diceva, essere invarianti 88

La scienza che fu

per trasformazioni galileiane. Ora, in generale, la propagazione di un’onda era stata descritta già da d’Alembert nel 1750 con un’equazione alle derivate parziali iperbolica, che nel caso più semplice (quello di un’onda che si propaga in linea retta lungo l’asse x in un sistema di coordinate cartesiane) ha la forma 1 � 2ψ

c2

�t2

− ∇2ψ = 0

(1)

dove ψ è una funzione incognita del tipo ψ (x, t) che rappresenta la distorsione del mezzo e c la velocità di propagazione che, in un mezzo omogeneo, è costante. Le soluzioni di questa equazione sono funzioni del tipo ψ (x ± ct)

(2)

Ognuna rappresenta un’onda che viaggia alla velocità c lungo l’asse x e un’altra identica alla prima che viaggia alla stessa velocità lungo l’asse –x. Considerando dunque l’onda in un altro sistema di riferimento inerziale che si muove lungo l’asse x e applicando la trasformazione galileiana, avremo che le soluzioni in questo secondo sistema sono funzioni del tipo ψ (x1 – (c − v)t1)

(3a)

ψ (x1 – (c + v)t1)

(3b)

ma questo vuol dire che l’onda lungo l’asse x viaggia alla velocità (c – v), mentre lungo –x la velocità è (c + v). La funzione ψ(x1 – (c ± v)t1) non rappresenta più due onde che viaggiano alla stessa velocità e non è pertanto equivalente alla funzione (2). L’equazione (1) ha perciò soluzioni diverse in sistemi di riferimento diversi e quindi non è invariante rispetto alle trasformazioni galileiane. Ammettendo la trasformazione, inoltre, la velocità c1 del secondo sistema di riferimento risulta essere tale che in un caso c1 = c − v e nell’altro c1 = c + v. 5. L’ETERE LUMINIFERO

89

L’equazione d’onda, dunque, non obbediva alla relatività galileiana, ma questo non comportava particolari problemi fintantoché si ammetteva l’esistenza di un sistema di riferimento privilegiato, di qualcosa che fosse assolutamente fermo o, per tornare all’immagine di Galileo, di qualcosa che fosse presente in entrambe le navi e fosse completamente stazionario nonché insensibile al loro moto. Ammesso l’etere luminifero come sistema di riferimento privilegiato, il fatto che in un caso la velocità dell’onda fosse c − v e nell’altro c + v era pertanto spiegabile come effetto del cosiddetto vento d’etere che si crea nel momento in cui la nave attraversa questo mezzo immobile. Viceversa, se non si ammetteva l’esistenza di un sistema di riferimento privilegiato bisognava accettare che la stessa onda cambiasse fisicamente forma e che fosse perciò possibile, per un osservatore interno a un sistema, contravvenire alla relatività galileiana e determinare, grazie all’onda, se il sistema stesso era in quiete o in moto.15 Così, quella che era nata come una controversia su un aspetto tutto sommato secondario della teoria di Newton (la diffrazione) era diventata una questione cruciale per tutta la fisica. Come l’equazione di d’Alembert, infatti, anche le equazioni di Maxwell sono non invarianti per trasformazioni galileiane a meno di non postulare un riferimento assolutamente immobile; ciò significava che, se non si accettava l’etere, l’alternativa era ammettere che per l’elettromagnetismo non valessero i principi della meccanica newtoniana, oppure riconoscere che questi ultimi fossero, in qualche misura, sbagliati. Nessuna di queste due alternative sembrò, almeno inizialmente, percorribile, e l’etere luminifero divenne la chiave per cercare di salvare, come si suol dire, capra e cavoli. I tentativi di dare conferma sperimentale all’esistenza dell’etere 15 La non invarianza delle equazioni d’onda per trasformazioni galileiane era ben nota già prima dell’affermarsi della teoria ondulatoria della luce, ma non aveva destato preoccupazione perché queste equazioni descrivevano sempre onde che avvenivano in un mezzo immobile rispetto ad esse (ad esempio, nel caso delle onde sonore, l’aria); era pertanto la velocità relativa del mezzo ad essere soggetta a trasformazione, non quella dell’onda.

90

La scienza che fu

si moltiplicarono, ma i risultati non furono quelli attesi. Fu solo nel 1887 che gli statunitensi Albert Abraham Michelson (1852-1931) e Edward Morley (1838-1923) realizzarono quello che in seguito sarebbe stato considerato un esperimento cruciale. Per dimostrare l’esistenza dell’etere, i due pensarono di rivelare il vento d’etere, cioè misurare la velocità relativa di un sistema inerziale (la Terra, in questo caso) rispetto all’etere immobile. Per far ciò, si affidarono all’interferometro, uno strumento progettato da Michelson e dotato di uno specchio semiriflettente che, dato un fascio di luce, permetteva di farne passare liberamente una metà e di rifletterne l’altra ad angolo retto. L’idea di fondo era che un raggio di luce che viaggia nella stessa direzione del moto della Terra, una volta riflesso, dovrebbe aver percorso una distanza minore rispetto a quello di un altro raggio che invece viaggia in direzione perpendicolare rispetto al moto terrestre, e che questa differenza sarebbe stata rivelata dalle diverse frange d’interferenza formate dai due raggi. Così, Michelson e Morley, una volta collocato l’interferometro su una base galleggiante nel mercurio, effettuarono diverse prove puntando lo strumento in direzioni diverse. Quello che ottennero fu, per molti aspetti, sorprendente: in qualunque direzione puntassero l’interferometro, le frange d’interferenza formate dai raggi luminosi erano sempre perfettamente identiche l’una all’altra.

Figura 18 - L’interferometro di Michelson nella versione del 1881

5. L’ETERE LUMINIFERO

91

Spazio e tempo ≠ spaziotempo L’esperimento di Michelson e Morley fu ripetuto in diverse condizioni e con apparecchiature sempre più raffinate, ma restituì sempre i medesimi risultati. Ora, si è visto nel caso del flogisto come il significato di un esperimento dipenda in una certa misura da che cosa si vuole vedere in esso; ebbene, ciò che gli “eteristi” videro in quello dei due studiosi americani fu la conferma che o la Terra era immobile o che l’etere veniva trascinato dal suo moto. Anche se entrambe queste conclusioni apparvero subito come implausibili,16 rinunciare all’etere non fu immediato. Si trattava di una nozione, insomma, dura a morire. Come affermato dal matematico e filosofo francese Jules Henri Poincaré nel 1889, due anni dopo l’esperimento di Michelson e Morley, “che l’etere esista o no poco importa – lasciamo che se ne occupino i metafisici: ciò che per noi è essenziale è che ogni cosa accada come se esistesse”.17 Il fisico olandese Hendrik Lorentz (1853-1928), ad esempio, salvò l’etere ipotizzando che un oggetto, muovendosi in esso, subisca una contrazione nella direzione del moto per un fattore pari a 1 - vc . Questo significava che, contrariamente a quanto fino ad allora accettato, l’etere poteva in qualche modo interagire con i corpi e questo poneva diversi problemi, ma in ogni caso grazie a questa assunzione Lorentz fu in grado di far valere un principio di invarianza riformulando le trasformazioni galileiane come 2

2

16 L’esperimento del pendolo di Foucault, effettuato nel 1851, aveva infatti dimostrato la rotazione della Terra; quanto all’ipotesi di un etere trascinato dal moto della Terra, essa era in contraddizione con il fenomeno dell’aberrazione stellare osservato dall’astronomo James Bradley (1693-1762) nel 1729. 17 Théorie mathématique de la lumière, Paris, 1889, Préface.

92

La scienza che fu

{

ncipio di invarianza riformulando le trasformazioni galileiane come

&' =

& − *+ 1−

.' = .

*, -,

/' = /

*& -, +' = *, 1− , +−

È da notare che in queste trasformazioni il tempo non è invariante: questo fatto contribuì a far maturare il giudizio di Albert Einstein (1879-1955) sull’esperimento di Michelson e Morley. Ciò che Einstein vedeva era che la velocità della luce è una costante universale indipendente dalle condizioni del sistema di riferimento.18 Profondamente influenzato dalle idee del fisico e filosofo austriaco Ernst Mach (1838-1916), ’eperimento delEinstein pendolo diera Foucault, nel 1851, aveva infattil’idea dimostrato la rotazione pocoeffettuato propenso ad accettare di un moto della Terra; qu potesi di un etere trascinato dal moto della Terra, essa era in contraddizione con il fenomeno dell’aberrazione ste assoluto e l’esperimento di Michelson e Morley gli apparve ervato dall’astronomo James Bradley (1693-1762) nel 1729. comedela conferma unPréface. tale moto, effettivamente, non era héorie mathématique la lumière, Paris,che 1889, possibile. D’altra parte, ammettendo la contrazione dei corpi in direzione del movimento e la costanza della velocità della luce in ogni sistema fisico, non era necessario assumere un riferimento privilegiato come l’etere luminifero per far valere le trasformazioni di Lorentz e quindi rendere invarianti allo stesso modo le leggi dell’elettromagnetismo. È importante sottolineare che, come Lavoisier negli esperimenti sull’ossigeno, Einstein non dimostrò che l’etere non esiste, ma formulò una teoria – la relatività ristretta – nella quale esso non era richiesto.19 Da un punto di vista logico e formale, la teoria di 18 La velocità della luce nel vuoto, come è noto, è pari a 299792458 metri al secondo. 19 In seguito avrebbe addirittura recuperato una nozione di etere, affermando che non si può fare a meno di esso in fisica teorica.

5. L’ETERE LUMINIFERO

93

Lorentz della contrazione nell’etere salvava i fenomeni in maniera adeguata; Einstein, tuttavia, come Newton prima di lui, diffidava delle ipotesi formulate ad hoc per salvare i fenomeni. Se accettare le trasformazioni di Lorentz – e dunque l’elettromagnetismo – significava rivedere i presupposti della meccanica newtoniana, per Einstein questo era preferibile rispetto al postulare l’esistenza di un’entità come l’etere. Così, con la teoria della relatività ristretta, formulata nel 1905, Einstein proponeva una soluzione che, eliminando l’etere, metteva in discussione la visione del mondo newtoniana nel suo complesso.20 La realtà, secondo Einstein, non poteva essere concepita come un insieme di punti in uno spazio e tempo assoluti, dal momento che non potevano esistere spazio e tempo assoluti quando l’unica cosa comune a tutti gli osservatori è la velocità costante e finita della luce. Il tempo non poteva essere un invariante, ma dipendeva, come lo spazio, dall’osservatore, e la realtà, dunque, doveva essere concepita come un insieme di eventi nello spaziotempo. Era la fine non solo dell’etere, ma dell’intera visione del mondo newtoniana; eppure, a questo risultato non si sarebbe mai potuti giungere se qualcuno non avesse quasi misticamente creduto nell’esistenza di un mezzo solido, elastico, rigidissimo, onnipresente, immobile, onnipervasivo, intangibile, imponderabile e inosservabile come l’etere luminifero.

20 La meccanica newtoniana è in realtà inclusa come caso particolare nella teoria della relatività. Essa è infatti valida quando le velocità considerate sono di grandezza trascurabile rispetto alla velocità della luce.

94

La scienza che fu

6. L’ATOMO-VORTICE

Dalle ceneri del flogisto Più o meno nello stesso periodo in cui, grazie all’opera di Young e Fresnel, la luce si rivelava essere un’onda, la teoria della materia virava invece in una direzione decisamente corpuscolarista, o sarebbe meglio dire atomista. La nozione di atomo – in greco ἄτομος, indivisibile – era antichissima, risalente almeno agli antichi Greci, e famosi atomisti erano stati Leucippo (V sec. a.C.), Democrito (460 a.C. - ca. 370 a.C.), Epicuro (340 a.C. - 270 a.C.) e Lucrezio (intorno al 95 a.C intorno al 55 a.C.). Secondo l’atomismo antico, la materia era costituita da un insieme di elementi ultimi, non ulteriormente divisibili, chiamati, appunto, atomi, che si muovevano casualmente nel vuoto e la cui aggregazione dava origine ai corpi. Si trattava di una concezione sostanzialmente contraria a quella aristotelica, secondo la quale il vuoto non può esistere in natura e la materia è un’entità continua in linea di principio divisibile all’infinito, e nel medioevo fu guardata con sospetto dalla Chiesa per via di alcune sue implicazioni nella concezione cattolica del sacramento dell’Eucarestia. Per questo motivo, pur non scomparendo mai del tutto, essa rimane a lungo una corrente del tutto minoritaria nell’ambito della filosofia naturale.1 1 Il mistero della transustanziazione (la trasformazione del pane e del vino nel corpo e nel sangue di Cristo) era interpretato, in senso aristotelico, come una trasformazione delle qualità sostanziali del pane e del vino che lasciava inalterate le qualità accidentali. In una teoria atomica ciò semplicemente non era possibile, poiché per gli atomi

6. L’ATOMO-VORTICE

95

L’atomismo riacquistò vigore nel Rinascimento, soprattutto grazie alla riscoperta delle opere di Lucrezio, e si diffuse tra il Cinquecento e il Seicento grazie a Giordano Bruno (1548-1600) e poi con la nuova fisica, per la quale il moto nel vuoto, contrariamente a quanto riteneva Aristotele, non avrebbe dato luogo a un movimento di velocità infinita. Per Galileo, gli atomi sarebbero da un lato delle particelle fisiche elementari costituenti la materia e dall’altro, come “infiniti atomi non quanti”, gli indivisibili matematici che intervengono nella composizione del continuo. Nel XVII secolo, così, l’atomismo, grazie anche alla scoperta di Torricelli dell’esistenza del vuoto, acquisì sempre più le caratteristiche di una filosofia fisico-matematica che interpretava la realtà e il cambiamento in termini di atomi e movimento. In questa prospettiva, nella seconda metà del Seicento, Boyle aveva proposto di ridefinire gli elementi come costituiti da atomi, ovvero da “corpi primitivi e semplici”,2 giungendo a stabilire, su questa base, un rapporto di proporzionalità inversa tra la pressione di un gas e il suo volume e ponendo così le basi per quella che in seguito sarebbe stata nota come “teoria cinetica dei gas”. Con l’avvento della filosofia naturale di Newton, nell’atomismo furono progressivamente integrati i concetti di forza, gravità, attrazione e repulsione. Ruggero Boscovich (17111787), tra gli altri, interpretò gli atomi come punti geometrici che agiscono come “centri di forza” in senso newtoniano, aggiungendo alla gravitazione una “forza repulsiva” per spiegare le interazione tra gli atomi. L’atomismo, tuttavia, nel XVIII secolo rimase in larga parte una dottrina di carattere speculativo, dal momento che il flogisto sembrava offrire un quanon poteva darsi una tale distinzione di qualità: essendo tutti gli atomi uguali, l’unico modo perché il pane e il vino fossero trasformati nel corpo e nel sangue di Cristo era che avvenisse una riconfigurazione completa degli atomi costituenti i primi che perciò avrebbero dovuto assumere non solo la forma, ma anche l’apparenza dei secondi. Nel medioevo, le dottrine atomistiche furono perciò considerate non soltanto contrarie alla fede, ma eretiche. Uno dei pochi sostenitori medievali dell’atomismo, Nicola d’Autrecourt (1299-1369), fu costretto a bruciare tutti i sui libri e a ritrattare pubblicamente. 2 The Sceptical Chymist (1661), VI, p. 350.

96

La scienza che fu

dro interpretativo per i fenomeni chimici che non richiedeva il ricorso ad assunzioni di carattere “metafisico” riguardanti la natura delle particelle minime di cui si supponeva composta la materia. Nella chimica flogistica, i “principi fisici” della materia erano separati dai “principi chimici” e quindi sapere che la materia era in ultima analisi composta di atomi aggiungeva poco o nulla alla comprensione dei processi chimici. L’affermazione definitiva dell’atomismo come teoria della materia avvenne alla fine del XVIII secolo e fu determinata non dalla meccanica ma dalla nuova impostazione data alla chimica da Lavoisier, e in particolare dalla sua definizione di elemento come tutto ciò che non è ulteriormente scomponibile in laboratorio.3 Era, questa, una definizione operativa che, evitando di fare supposizioni sulla “vera” natura della materia, faceva della nozione di elemento il risultato di un’operazione empirica del tutto indipendente da qualsiasi ipotesi, in una spettacolare applicazione dell’hypotheses non fingo newtoniano addirittura più rigorosa di quella di Newton (che, per quanto riguarda gli atomi, non era stato così drastico). Su questa base, tutta la chimica diventava una disciplina “operativa”, fondata sulla sperimentazione e la sistematica misurazione finalizzate alla formulazione di leggi matematiche sulla base dell’induzione generalizzata. Così, Lavoisier fu in grado di pervenire a delle leggi di carattere newtoniano come quella della conservazione della massa (secondo la quale, in una reazione chimica, la somma delle masse delle sostanze di partenza è pari alla somma delle masse delle sostanze che si ottengono dalla reazione). Fu proprio per adeguare la teoria della materia alla nuova chimica delle leggi ponderali che, al principio dell’Ottocento, l’inglese John Dalton (1766-1844) mise mano alla teoria atomista in quella che, più che una rielaborazione della teoria secentesca, fu piuttosto una riformulazione ex novo. Basandosi sulla sua definizione operativa di elemento, Lavoisier ne aveva identificato e classificato un certo numero 3 Traité élémentaire de chimie (1789), p. XVII.

6. L’ATOMO-VORTICE

97

in base al loro comportamento in laboratorio (l’ossigeno “generava acidi” e l’azoto “non supportava la vita” ad esempio) ma la questione della loro composizione – se fossero entità continue o composti di corpuscoli discreti – gli appariva, come ai flogististi prima di lui, di carattere metafisico e la risposta ad essa comunque inessenziale per la pratica chimica. Dalton, tuttavia, pur accettando la nuova chimica “pneumatica” di Lavoisier non si spiegava come mai gli elementi sembrava si combinassero sempre in rapporti fissi, fin quando non osservò che una teoria atomica poteva efficacemente spiegare questo comportamento. Se si pensa a ogni elemento come costituito da atomi identici che intervengono nella formazione dei composti chimici secondo proporzioni numeriche semplici si spiega, secondo Dalton, non solo la legge di conservazione della massa, ma anche la legge, enunciata da Joseph Louis Proust (17541826), secondo la quale, in un composto chimico, gli elementi si combinano sempre in rapporti di massa definiti e costanti.4 L’acqua, ad esempio, è costituita dalla combinazione di ossigeno e idrogeno in proporzione 1:2 perché nella sua composizione intervengono due atomi di idrogeno e uno di ossigeno. Interpretando massa dell’elemento come peso dei suoi atomi, Dalton poteva perciò ricondurre a un principio fisico e misurabile quello che per secoli era stato spiegato in termini di affinità o simpatia tra le sostanze. Si trattava di un passaggio cruciale: determinare il peso degli atomi e le varie proporzioni in cui atomi di elementi diversi possono combinarsi sarebbe infatti diventata una delle principali preoccupazioni dei chimici.

Corpuscoli e nebule Com’è fatto un atomo? Ovviamente, essendo entità (all’epoca) inosservabili, gli atomi venivano descritti sulla base della teoria e dei loro supposti effetti rivelati dalla prati4 Queste leggi sono oggi conosciute come leggi ponderali.

98

La scienza che fu

ca sperimentale. Nella teoria di Dalton, tutto ciò che si richiedeva agli atomi era che avessero massa e peso.5 Gli atomi di diversi elementi hanno pesi e masse diversi che si determinabili sperimentalmente, anche se per via indiretta, e possono essere rappresentati come dei corpuscoli pieni, indivisibili, incompressibili, impenetrabili e indistruttibili. Questa concezione, tuttavia, sollevava due problemi fondamentali: se, infatti, gli atomi erano dotati di massa, questo significava che, in qualche modo, la loro interazione dovesse essere governata dalla gravitazione universale newtoniana o da qualcosa di analogo, ma comunque universale, mentre i legami che tra gli atomi, invece, sembrava avessero natura selettiva; d’altra parte, pur ammettendo qualche interazione di natura selettiva tra gli atomi, non si poteva comunque spiegare come dal semplice contatto tra gli atomi potessero nascere composti con proprietà nuove e diverse rispetto ai costituenti.6 La teoria atomica di Dalton non spiegava in maniera soddisfacente l’interazione tra gli atomi così come non spiegava il loro eventuale ruolo nei fenomeni connessi all’elettricità. Questi ultimi erano noti sin da tempi antichissimi, ma nel corso del Settecento c’erano stati dei significativi passi avanti, se non nella comprensione teorica, quantomeno nella pratica sperimentale.7 Nel 1800 Alessandro Volta (1774-1827) aveva annunciato l’invenzione di un organo elettrico artificiale, “simile nella sostanza e pure nella forma all’organo elettrico naturale della torpedine”,8 capace di generare elettricità, che in seguito sarebbe stato comunemente chiamato pila. La pila 5 Nella fisica newtoniana, la massa era l’elemento fondamentale della concezione della materia e poteva essere determinata in funzione del peso. Anche in virtù di ciò egli aveva tenuto un atteggiamento prudente sugli atomi: senza assumere posizioni di principio, era sufficiente assumere che, sia che fosse divisibile all’infinito oppure no, la materia risultante sarebbe comunque stata dotata di massa, per quanto piccola. 6 Era, questa, una delle obiezioni ‘classiche’ all’atomismo, già formulata da Aristotele contro l’atomismo antico e poi dal filosofo Hegel (1770-1831) nei confronti di quello di Dalton. 7 In analogia col flogisto, a partire dal Settecento i fenomeni elettrici furono spiegati con la presenza di un “fluido elettrico” all’interno dei conduttori. La locuzione rimase sino alla fine dell’Ottocento, anche se aveva ormai perso il suo significato originario. 8 Lettera a Sir Joseph Banks, 20 marzo 1800.

6. L’ATOMO-VORTICE

99

Figura 19 - Gli atomi di Dalton e alcune delle loro possibili combinazioni

di Volta – fu notato immediatamente dai chimici – aveva il potere di scomporre l’acqua nei suoi componenti idrogeno e ossigeno (elettrolisi); fatti come questo indussero i sostenitori della teoria atomica a interrogarsi sull’eventuale ruolo giocato dagli atomi. Un ulteriore sfida alle teorie atomiche corpuscolari fu poi rappresentata dalla scoperta, compiuta da Gustav Kirchoff (1824-1887) e Robert Bunsen (1811-1899) nel 1859, della natura “vibrazionale” della materia: utilizzando uno strumento da loro costruito, lo spettroscopio, essi osservarono che ogni elemento chimico generava uno spettro diverso da tutti gli altri, e conclusero che dovesse esserci qualche vibrazione interna e propria di ogni elemento capace di generare i diversi spettri. L’accumularsi vertiginoso di dati osservativi e sperimentali impose alle teorie atomiche nuovi e più stringenti requisiti rispetto alla semplice definizione degli atomi come corpuscoli solidi dotati di massa e peso. Nella seconda metà dell’Ottocento, infatti, una teoria atomica che ambiva a essere 100

La scienza che fu

considerata come minimamente soddisfacente doveva essere in grado di dare conto (a) della costanza delle proprietà fisiche e chimiche di ogni elemento in ogni luogo e tempo; (b) della relazione tra il loro moto e i principi di inerzia ed elasticità; (c) della varietà della materia; e, infine, (d) dei fenomeni di natura ondulatoria come la luce, l’elettricità e il magnetismo. Per soddisfare tutti o almeno alcuni di questi requisiti nel corso dell’Ottocento erano proposti numerosi modelli atomici, da quello più “daltoniano” di Jöns Jacob Berzelius (1779-1848), secondo il quale gli atomi sono corpuscoli sferici e compatti che interagiscono elettricamente, a quello più ondulatorio di Michael Faraday (1791-1867), per il quale gli atomi sarebbero, alla maniera di Boscovich, punti senza estensione immersi in “nuvole” di forze elettriche e magnetiche. L’atomo-vortice, proposto da William Thomson (meglio noto come Lord Kelvin, 1824-1907) nel 1867, fu uno dei modelli che ebbe maggior successo, tanto che a un certo momento, verso gli anni ’70 dell’Ottocento, era considerato il candidato più appropriato per il titolo di modello atomico definitivo. L’interesse di Thomson per la teoria atomica veniva da lontano, in particolare dalla sua convinzione che l’evidente connessione tra fenomeni magnetici, elettrici e luminosi potesse essere spiegata solo in funzione delle proprietà ultime della materia e dello spazio. Le teorie atomiche correnti, tuttavia, erano per lui insoddisfacenti nella misura in cui davano conto dei fenomeni semplicemente attribuendo agli atomi proprietà sempre nuove. La materia mostra una natura ondulatoria? – È perché gli atomi vibrano; i gas si comportano come fluidi elastici? – È perché gli atomi si scontrano tra di loro. Insomma, agli atomi si poteva attribuire qualsiasi nuova proprietà fosse necessaria per spiegare i fenomeni osservati, non importa quanto bizzarri. Non era, tuttavia, soltanto l’arbitraria attribuzione agli atomi di proprietà sempre nuove il motivo principale dei dubbi di Thomson quanto, piuttosto, il fatto che tutte queste teorie non potevano essere corroborate da un modello meccanico. Per lui, la “verifica” di una teoria 6. L’ATOMO-VORTICE

101

scientifica consisteva essenzialmente nella possibilità di costruire un modello meccanico che riproducesse gli effetti da quella previsti: nella misura in cui le teorie atomiche dell’epoca non potevano essere così rappresentate, esse dovevano considerarsi insoddisfacenti.9

Vertigini elettromagnetiche Fu proprio questa particolare concezione a spingere Thomson ad abbracciare l’idea dell’atomo-vortice. Nel 1858, il medico e fisico tedesco Hermann von Helmholtz (1821-1894) aveva pubblicato i risultati dei suoi studi sulla meccanica dei fluidi che estendevano quelli di Leonhard Euler (1707-1783) e Joseph-Louis Lagrange (1736-1813) al caso dei moti rotazionali o vorticosi (intuitivamente, quei moti in cui le singole particelle del fluido ruotano intorno a un asse passante per il loro centro). Helmholtz considerava un fluido omogeneo, incomprimibile non viscoso e in esso un generico punto di coordinate cartesiane (x, y, z) il cui campo di velocità è v(i, j, k), e definiva una grandezza vettoriale ad esso associata detta vorticità, indicata con ω(α, β, γ) dove di dk a = dz - dy

dk di b = dx - dz

c=

di dj dy dx

Ora, detta linea di vortice la linea interna al fluido tale che, per ogni suo punto, 1 dx 1 dy 1 dz 1 a ds = b ds = c ds = ~

– ovvero una linea la cui direzione corrisponde sempre all’asse di rotazione del fluido in ogni dato momento e dove s 9 Questo portò Thomson a nutrire dubbi anche sulla teoria elettromagnetica di Maxwell. “Credo fermamente in una teoria elettromagnetica della luce [...] ma io vorrei comprendere la luce meglio che posso senza introdurre nella sua spiegazione cose che comprendiamo ancor meno di essa. È per questo che mi rivolgo alla dinamica pura: di essa posso costruire un modello; dell’elettromagnetismo, invece, no”.

102

La scienza che fu

è di volta in volta la sua lunghezza fino al punto (x, y, z) – 10 e considerando una curva chiusa C all’interno del fluido, allora la superficie tubolare determinata dalle linee di vortice passanti per C è detta tubo di vortice. L’aspetto fondamentale dei tubi (e delle linee) di vortice in un fluido omogeneo, incomprimibile e non viscoso è che sono “ancorati” sempre agli stessi elementi del fluido e si muovono con esso: si tratta, in altre parole, di tubi e linee materiali e non soltanto di strutture matematiche. A proposito dei tubi di vortice, Helmholtz dimostrava alcuni importanti teoremi: devono necessariamente richiudersi su se stessi, formando dei vortici ad anello, oppure, nel caso di un fluido di volume infinito, chiudersi o estendersi anch’essi all’infinito; la loro intensità si conserva nel tempo ed essi rimangono sempre uguali; il fluido esterno ai tubi non può entrarvi e quello all’interno non può uscirne. Tutto questo significava, appunto, che i tubi di vortice si comportano come tubi materiali stabili, permanenti e immutabili.

Figura 20 - Vortice ad anello di Helmholtz 10 In altre parole, la linea di vortice è la curva che ha come tangente, in ogni suo punto, il vettore vorticità.

6. L’ATOMO-VORTICE

103

Esistono in natura dei vortici ad anello? La risposta è sì, e possono anche essere prodotti con un apparato meccanico. Questo è esattamente ciò che fece Peter Tait (1831-1901), un allievo di Kelvin, quando, nel 1867, ideò un apparato che produceva, in accordo con la teoria matematica di Helmholtz, degli anelli di fumo. Ciò convinse il suo maestro di avere davanti agli occhi il principio di un modello atomico soddisfacente. Se, infatti, si immaginano gli atomi come vortici ad anello nell’etere, allora i requisiti richiesti a una teoria atomica sono soddisfatti, poiché, (a) i vortici ad anello sono entità chiuse, permanenti e impenetrabili; (b) sono soggetti a specifiche leggi di rotazione e traslazione; (c) sono producibili in una enorme varietà di configurazioni; e (d) sono, di fatto, peculiari distorsioni dell’etere, ovvero “vibrazioni” essi stessi. Così, convinto di avere per le mani una teoria risolutiva, negli anni che seguirono Kelvin si dedicò a studiarne le potenzialità e i limiti. Il successo dell’atomo-vortice di Kelvin fu immediato, soprattutto in Gran Bretagna e negli Stati Uniti, dove divenne il modello atomico di riferimento fino alla fine del secolo. Le ragioni di ciò erano in parte dovute alla fama e al rispetto di cui godeva il suo ideatore, ma fu soprattutto l’accordo con la nuova teoria elettromagnetica di Maxwell a sancirne l’ascesa nella considerazione della comunità scientifica. Nella formulazione della teoria dell’elettromagnetismo, infatti, i vortici

Figura 21 - L’apparato per produrre anelli di fumo costruito da Tait

104

La scienza che fu

avevano giocato un ruolo fondamentale. Maxwell – che riconosceva in Faraday e Thomson i suoi principali maestri e ispiratori – per non ricorrere all’azione a distanza aveva interpretato la teoria dei campi e delle linee di forza di Faraday in senso più strettamente meccanico. Quelle che Faraday chiamava linee di forza, per Maxwell potevano essere viste come distorsioni meccaniche dell’etere. “Possiamo considerare l’influenza magnetica”, scriveva nel 1861, “come un qualche tipo di pressione o tensione, oppure, in senso più generale, come un qualche tipo di stress del mezzo materiale”.11 Le forze elettriche e magnetiche, secondo Maxwell, potevano essere ricondotte ad azioni meccaniche non a distanza assumendo che ogni punto del mezzo circostante esercitasse pressioni diverse in direzioni diverse; questa differenza di pressione, a sua volta, poteva essere spiegata supponendo che la materia stessa fosse costituita da vortici molecolari i cui assi di rotazione sono paralleli alla direzione delle linee di forza. Le forze centrifughe causate dai vortici, pertanto, causano una differenza di pressione, nel mezzo, dipendente dalla loro velocità. Così, l’intensità locale di un campo magnetico generato da un corpo è proporzionale alla velocità angolare dei vortici, mentre l’induzione magnetica generata è proporzionale alla “densità della sostanza dei vortici”.12 I vortici molecolari ruotano tutti nello stesso senso, ma se si ammette che essi siano in contatto diretto uno con l’altro questo non è evidentemente possibile. Pertanto, Maxwell suppose che tra di essi vi fosse uno strato di particelle molto piccole – la materia dell’elettricità – che, rotolando lungo le “pareti” dei vortici, trasmetteva loro il movimento. L’attrito generato dal movimento di queste particelle produce i fenomeni associabili alle correnti elettriche – calore, magnetismo e forza elettromotrice – mentre la loro immobilità in determinate sostanze ne spiega le caratteristiche dielettriche (ovvero isolanti). Il mezzo costituito da 11 On Physical Lines of Force, I: The Theory of Molecular Vortices applied to Magnetic Phenomena, “Philosophical Magazine”, vol. 21, (1861), p. 163. 12 Ivi, 165.

6. L’ATOMO-VORTICE

105

vortici e particelle attraverso il quale le onde magnetiche ed elettriche vengono trasmesse aveva le caratteristiche elastiche dell’etere e fu inizialmente chiamato da Maxwell mezzo magneto-elettrico; una volta dimostrato che la luce non era altro che un’onda elettromagnetica, esso fu più precisamente identificato con l’etere stesso. È importante sottolineare che la validità della teoria elettromagnetica dipende dalle equazioni che descrivono il comportamento delle linee di forza in un campo e non dal modello meccanico stesso. Per quanto Maxwell possa essere arrivato alla formulazione dell’elettromagnetismo lavorando sull’ipotesi di azioni meccaniche esercitate in un “mare di vortici”, non era questo a garantire della plausibilità della teoria. Il modello meccanico non è che una possibile interpretazione di quello che viene rivelato dal formalismo matematico. In altre parole, dire che nel mezzo c’è una qualche materia dell’e-

Figura 22 - Il modello meccanico di Maxwell

106

La scienza che fu

lettricità costituita da particelle che, rotolando, trasmettono il moto a dei vortici il cui moto, a sua volta, genera un campo magnetico locale di intensità proporzionale alla loro velocità angolare vuol dire “tradurre” (più o meno correttamente) in un modello meccanico un’equazione come

2E d # B = n 0 J + n 0 f 0 2t

Alla luce di tutto ciò, è facile capire come mai per Maxwell l’atomo-vortice di Thomson fosse senza dubbio “il modello atomico più soddisfacente”.13 Negli anni che seguirono la proposta di Thomson, le ricerche intorno all’atomo-vortice si diramarono in diverse direzioni. C’erano, innanzitutto, i problemi legati alla formalizzazione matematica del modello: il flusso di etere in strutture come i tubi di vortice, infatti, è descritto dalle equazioni di Navier-Stokes, un sistema di equazioni differenziali alle derivate parziali ancora oggi irrisolte.14 Data questa difficoltà, i sostenitori dell’atomo-vortice si videro costretti a studiarne il comportamento ricorrendo ad analogie: fu questo il caso, ad esempio, di Alfred Marshall Mayer (18361897), il quale, per osservare le possibili configurazioni dei tubi di vortice che intervengono nella formazione delle strutture molecolari, fece galleggiare un numero sempre maggiore di aghi magnetizzati in una bacinella e sospese sopra di essi un grosso magnete, notando come le successive configurazioni di aghi sembravano formarsi secondo pattern costanti. Oltre a ciò, bisognava descrivere in modo rigoroso le leggi che governano la traslazione, la rotazione e l’urto tra i vortici, e di questo s’incaricò lo stesso Thomson. Era poi necessario comprendere in che modo l’atomo-vortice si conciliasse con le conoscenze fisiche e chimiche dell’epoca: di questo si occupò Silas W. Holman (1856-1900); infine, si do13 “Atom” in Encyclopedia Britannica 9th Edition, 1878. 14 Le equazioni di Navier-Stokes, formulate per la prima volta da Claude Louis Navier (1785-1836) nel 1822 e successivamente da George Gabriel Stokes (1819-1903) nel 1845, sono uno dei “problemi del millennio” e per la loro risoluzione l’Istituto Clay ha messo in palio un premio di un milione di dollari. Una possibile soluzione, proposta dal matematico kazako Mukhtarbaray Otelbaev nel 2014, si è rivelata essere scorretta.

6. L’ATOMO-VORTICE

107

vevano stabilire delle equivalenze tra le possibili configurazioni dei vortici ad anello e le proprietà degli elementi chimici, in accordo a quanto descritto nella tavola periodica degli elementi proposta da Dmitrij Ivanovic Mendeleev nel 1869, che legava le loro proprietà chimiche alle caratteristiche fisiche degli atomi secondo uno schema ricorrente: a questo si dedicò Tait.

Figura 23 - Una prima classificazione delle possibili varietà di atomo- vortice realizzata da Tait

108

La scienza che fu

Un ulteriore problema era rappresentato dalla natura dell’etere del quale gli atomi-vortice si supponeva fossero composti. Nella teoria atomica, infatti, l’etere doveva essere fluido; tuttavia, come abbiamo visto, la propagazione trasversale delle onde richiedeva che esso fosse solido ed estremamente rigido. I sostenitori dell’atomo-vortice, perciò, si dedicarono anche a studiare soluzioni adeguate per capire come conciliare le due esigenze. Per Thomson, le caratteristiche tipiche dei fluidi ma proprie anche dell’etere si potevano spiegare assumendo che quest’ultimo fosse un sistema girostatico che opponeva resistenza ai disturbi di carattere rotatorio ma non ai moti di traslazione, mentre per George Francis FitzGerald (1851-1901) l’etere poteva essere immaginato come una enorme “spugna” fatta di vortici ad anello e attraversata da linee di vortice infinite. Nel 1887 lo stesso Thomson sembrò accettare questa soluzione dopo aver dimostrato che in un etere così concepito anche le onde trasversali possono propagarsi; due anni dopo, tuttavia, trovò che gli atomi della spugna di FitzGerald erano instabili. Era, in un certo senso, l’inizio della fine.

Fine della storia? L’atomo-vortice fu abbandonato più o meno nello stesso periodo in cui fu abbandonato l’etere luminifero al quale era intimamente legato, ma per ragioni diverse. Lo stesso Thomson l’aveva già abbandonato nel 1898, quando, scrivendo a Holman, affermava: Temo, purtroppo, che la sola teoria dell’atomo-vortice non sia sufficiente a spiegare le proprietà della materia […]. Sicuramente verrà il giorno verrà in cui comprenderemo la natura dell’atomo; con grande dispiacere, però, mi vedo costretto ad abbandonare l’idea che una semplice combinazione di movimenti basti a raggiungere questo scopo.15 15 Silas W. Holman, Matter, Energy, Force and Work. A Plain Presentation of Fundamental

6. L’ATOMO-VORTICE

109

A sancire definitivamente l’insostenibilità dell’atomo-vortice non furono i problemi matematici e neanche quelli relativi all’etere, ma la scoperta dell’elettrone, un’impresa – ironia della sorte – compiuta nel 1897 da Joseph John “J.J.” Thomson, omonimo dell’ideatore dell’atomo-vortice e suo convinto sostenitore.16 La conclusione alla quale J. J. Thomson giunse sperimentando con dei tubi di Crookes fu che, qualunque fosse la natura dell’atomo, in esso dovevano necessariamente essere presenti delle particelle “portatrici di elettricità”.17 Questa scoperta riaccese le discussioni intorno ai modelli atomici. Tra il 1903 e il 1913 furono almeno cinque i modelli atomici proposti e rivelatisi poi insufficienti: da quello “dinamico” di Philipp Lenard (1862-1947), a quello “a panettone” di J. J. Thomson; dal modello “saturniano” di Hantaro Nagaoka (1865-1950) a quello “fluido” di John William Strutt (Lord Rayleigh, 1842-1919); da quello “vibrazionale” proposto da James Hopwood Jeans (1877-1946) a quello “a espansione” suggerito da George Adolphus Schott (1868-1937); dall’archion di Johannes Stark (1874-1957) all’atomo nucleare di Ernest Rutherford (1871-1937), fino al modello orbitale di Niels Bohr (1885-1962), nel quale l’atomo è rappresentato come un piccolo sistema planetario nel quale agli elettroni, per qualche motivo, è concesso di occupare solo certe orbite e non altre. L’atomo-vortice viene solitamente ignorato nelle presentazioni divulgative e didattiche della storia dei modelli atomici. Dal modello di Dalton, in genere, si passa direttamente a quello di J.J. Thomson, con un salto concettuale notevole che, eliminando un passaggio fondamentale tra l’uno e l’altro, impone un improvviso e tutto sommato ingiustificabile cambio di prospettiva. In un’ottica storica, infatti, l’atomo-vortice è un momento fondamentale per comprendere Physical Concepts and of the Vortex Atom and Other Theories, New York, Macmillan, 1898, p. 226. 16 Ancora nel 1907 J.J. Thomson si riferiva all’atomo-vortice come a una “fondamentale teoria della materia”. In The Corpuscolar Theory of Matter, New York, Scribner’s Sons, 1907, p. 2. 17 A queste particelle sarebbe in seguito stato dato il nome di elettroni.

110

La scienza che fu

gli sviluppi successivi della fisica, in quanto proprio con l’atomo-vortice comincia a farsi strada l’idea che la materia sia in qualche modo un’alterazione dello spazio, imponendo perciò una stretta relazione tra geometria e fisica che sarà tipica tanto della teoria della relatività quanto, in tempi a noi più vicini, della meccanica quantistica. Dall’altro lato, le ricerche intorno all’atomo-vortice e alle sue proprietà diedero un notevole impulso allo studio della meccanica dei fluidi e allo sviluppo dell’algebra dei quaternioni – uno strumento oggi fondamentale nei campi più disparati, dallo studio degli spin in meccanica quantistica alla computer graphic – e i vortici stessi sono stati in un certo senso ripresi all’interno della cosiddetta teoria delle stringhe, il cui obiettivo è quello di conciliare la fisica quantistica con la relatività. La vicenda dell’atomo-vortice conferma che il cammino della scienza è imprevedibile e segue una logica evoluzionistica, più che meramente accumulativa, che è sbagliato interpretare come una cavalcata all’insegna del progresso. Una teoria dei vortici era stata già formulata da Cartesio; contro di essa si erano abbattuti implacabili gli strali di Newton e nel Settecento era sopravvissuta come un carattere recessivo nella storia del pensiero occidentale. Ora, grazie a Maxwell, i vortici si manifestavano nuovamente nella forma di una teoria della materia, e proprio in Gran Bretagna, la roccaforte del newtonianesimo, e a Cambridge, dove Newton aveva insegnato e dove la sua influenza era tale che ancora nella prima metà dell’Ottocento veniva insegnato il metodo delle flussioni. Pur essendo stato abbandonato nel giro di qualche decennio, l’atomo-vortice, così come le altre nozioni scientifiche che abbiamo esaminato, giocò comunque un piccolo ma fondamentale ruolo nell’evoluzione della scienza così come la conosciamo oggi.

6. L’ATOMO-VORTICE

111

CONCLUSIONI

Winston Churchill diceva che la democrazia è la peggior forma di governo, fatta eccezione per tutte le altre finora sperimentate. Giunti alla fine del nostro breve viaggio, possiamo riformulare quest’arguta osservazione dicendo che, se escludiamo tutte le altre forme di conoscenza, la scienza è sicuramente la più fallibile a nostra disposizione. Dalla conoscenza della storia della scienza – o, per meglio dire – della scienza nella sua dimensione storica, io credo che si possano trarre due insegnamenti fondamentali. Il primo è un ammonimento contro le derive dello scientismo, l’invito a guardare alla scienza come a un’attività il cui fine è fornire risposte il più possibile certe a problemi determinati e non soluzioni assolute a tutti gli interrogativi che affliggono l’animo umano. L’opinione comune che si ha degli scienziati, derivata spesso dalle spettacolarizzazioni hollywoodiane, è quella di macchine calcolatrici che non credono a nulla che non sia logicamente dimostrabile; dall’altro lato, la didattica delle scienze nelle scuole tende necessariamente a presentarle in forma sistematica, come un corpus dottrinale quasi dogmatico. Ebbene, la storia della scienza ci può insegnare che le cose non stanno proprio così; che gli scienziati sono stati e sono uomini del loro tempo; uomini in carne e ossa con convinzioni, opinioni, preconcetti e credenze esattamente come tutti noi; uomini la cui attività, però, è quella di produrre conoscenze il più possibile certe. Quest’ultimo dato ci porta al secondo insegnamento che si può trarre dalla storia della scienza. Se, infatti, questa ci inCONCLUSIONI

113

segna che la scienza è fallibile, può “sbagliare” e perseverare in quelli che dal nostro punto di vista sono errori, è anche vero che, facendoci vedere in che modo la scienza ha “sbagliato” e come mai abbia continuato a tener fede a certi “sbagli” e non ad altri, ci rassicura sul fatto che noi profani, oggi, possiamo ragionevolmente fidarci delle conclusioni di un articolo su «Nature», mentre non possiamo fare lo stesso per un video su YouTube. La storia della scienza – una storia di sbagli, alla fin fine – ci insegna infatti che la preoccupazione principale degli scienziati non è soltanto quella di giungere a conclusioni vere, ma anche e soprattutto a conclusioni che siano vere con il massimo grado di certezza. La storia ci insegna che le nozioni scientifiche non vengono sostenute solo perché permettono di spiegare qualcosa, ma perché permettono di farlo con un certo grado di certezza e in una forma comunicabile e discutibile pubblicamente. La storia ci insegna che il valore di una nozione scientifica – anzi, la sua stessa “scientificità” – è proporzionale alla sua capacità di estendere l’universo del discorso scientifico inteso come strumento di ricerca di una certezza condivisa e garantita dall’accettazione, a ogni passaggio, delle procedure con le quali essa è stata prodotta. In tal modo è possibile disinnescare la pericolosa e diffusa convinzione secondo la quale, dal momento che persone molto più intelligenti di noi erano convinte, per dire, della reale esistenza dell’etere, noi dovremmo essere disposti a concedere un minimo di credibilità a qualunque bizzarria si presenti come alternativa alla “scienza ufficiale”. L’erroneità di tale convinzione, infatti, appare non appena dalla mera constatazione del fatto che vi fu un tempo in cui la comunità scientifica credette all’esistenza del flogisto si passi a considerare perché vi credette. La scienza, in conclusione, non sarà, come diceva Churchill, la forma di conoscenza perfetta, ma di sicuro è la più certa e oggettiva che abbiamo; conviene, perciò, che ce la teniamo stretta.

114

La scienza che fu

BIBLIOGRAFIA

La presente bibliografia deve essere intesa come un insieme di consigli di lettura per chi volesse approfondire gli argomenti trattati nel libro, non come una bibliografia esaustiva né come una sintesi delle ricerche storiografiche sui temi affrontati, e pertanto non include i numerosi e validi articoli apparsi in riviste specialistiche. Il lettore interessato potrà trovare ulteriori e ampi riferimenti bibliografici nei testi sotto elencati. Abbri, Ferdinando, Elementi, principi e particelle. Le teorie chimiche da Paracelso a Stahl, Torino, Loescher, 1980. Abbri, Ferdinando, Le terre, l’acqua, le arie: la rivoluzione chimica del Settecento, Bologna, il Mulino, 1984. Baron, Margaret E., The Origins of Infinitesimal Calculus, Oxford, Pergamon Press, 1969. Bartocci, Claudio e Odifreddi, Piergiorgio (a cura di), La matematica. I luoghi e i tempi, Torino, Einaudi, 2007. Bellone, Enrico, Caos e armonia. Storia della fisica, Torino, UTET, 2004. Bencivenga, Ermanno, I passi falsi della scienza, Milano, Garzanti, 2001. Beretta, Marco (ed.), Lavoisier in Perspective, Munich, Deutsches Museum, 2005. Beretta, Marco, La rivoluzione culturale di Lucrezio. Filosofia e scienza nell’antica Roma, Roma, Carocci, 2015. Beretta, Marco, Storia materiale della scienza. Dal libro ai laboratori, Milano, Bruno Mondadori, 2002. BIBLIOGRAFIA

115

Beretta, Marco, The Enlightment of Matter: The Definition of Chemistry from Agricola to Lavoisier, Sagamore Beach MA, Science History Publication/USA, 1993. Boyer, Carl B., Storia della matematica, Milano, Mondadori, 1980. Braccesi, Alessandro, Al di là dell’intuizione. Per una storia della fisica del ventesimo secolo. Relatività e quantistica, Bologna, Bononia University Press, 2008. Brague, Rémi, La Sagesse du monde. Histoire de l’experience humaine de l’Univers, Paris, Fayard, 1999. Bucciantini, Massimo - Camerota, Michele - Roux, Sophie, Mechanics and Cosmology in the Early Modern Period, Firenze, Leo S. Olschki, 2007. Bucciantini, Massimo, Galileo e Keplero. Filosofia, cosmologia e teologia nell’Età della Controriforma, Torino, Einaudi, 2000. Bucciantini, Massimo - Camerota, Michele - Giudice, Franco, Il telescopio di Galileo. Una storia europea, Torino, Einaudi, 2012. Bührke, Thomas, Sternstunden der Physik: von Galilei bis Heisenberg, München, C.H. Beck, 2003. Cajori, Florian, A History of Mathematical Notations, 2 vols., Chicago, Open Court Pub. Co., 1928-1929. Cantor, Geoffrey N. - Hodge, Michael J.S., Conceptions of Ether. Studies in the History of Ether Theories 1740-1900, Cambridge, Cambridge University Press, 1981. Caspar, Max, Kepler, New York, Dover, 1993. Ciardi, Marco, Breve storia delle teorie della materia, Roma, Carocci, 2003. Cirino, Raffaele, Dal movimento alla forza. Leibniz: l’infinitesimo tra logica e metafisica, Soveria Mannelli, Rubbettino, 2006. Clagett Marshall, The Science of Mechanics in the Middle Ages, Madison, the University of Wisconsin Press, 1959. Clericuzio, Antonio, Elements, Principles, and Corpuscles: A Study of Atomism and Chemistry in the Seventeenth Century, Dordrecht, Kluwer, 2000. 116

La scienza che fu

Close, Frank, Nothing. A Very Short Introduction, Oxford, Oxford University Press, 2009. Cohen, Bernard I. - Smith, George E. (eds.), The Cambridge Companion to Newton, Cambridge, Cambridge University Press, 2002 Crease, Robert P., The Prism and the Pendulum: the Ten most Beautiful Experiments in Science, New York, Random House, 2003. Cushing, James T., Philosophical Concepts in Physics: the Historical Relation between Philosophy and Scientific Theories, Cambridge, Cambridge University Press, 1998. Darrigol, Olivier, Worlds of Flow. A History of Hydrodynamics from the Bernoullis to Prandtl, Oxford, Oxford University Press, 2005. Dascal, Marcelo and Boantza, Victor D. (eds.), Controversies Within the Scientific Revolution, Amsterdam/Philadelphia, John Benjamins Publishing Company, 2011. De Pace, Anna, Niccolò Copernico e la fondazione del cosmo eliocentrico, Milano, Bruno Mondadori, 2009. Dear, Peter R., The Intelligibility of Nature: how Science Makes Sense of the World, Chicago, the University of Chicago Press, 2006. Dijksterhuis, Eduard J., The Mechanization of the World Picture, Oxford, Clarendon Press, 1961. Djebbar, Ahmed, Storia della scienza araba. Il patrimonio intellettuale dell’Islam, Milano, Raffaello Cortina, 2002. Duhem, Pierre, La théorie physique: son objet, sa structure, Paris, Vrin, 1981. Duhem, Pierre, Sozein ta Phainomena. Essai sur la notion de théorie physique de Platon à Galilée, Paris, Vrin, 1989. Floris Cohen, Hendrik, The Scientific Revolution: A Historiographical Inquiry, Chicago, University of Chicago Press, 1994. Floris Cohen, Hendrik, How the Modern Science Came into the World: Four Civilizations, One 17th-Century Breakthrough, Amsterdam, Amsterdam University Press, 2010. BIBLIOGRAFIA

117

Gal, Ofer - Chen-Morris, Raz, Baroque Science, Chicago and London, The University of Chicago Press, 2013. Galluzzi, Paolo, Momento. Studi galileiani, Roma, Edizioni dell’Ateneo e Bizzarri, 1979. Galluzzi, Paolo, Tra atomi e indivisibili. La materia ambigua di Galileo, Firenze, Leo S. Olschki, 2011. Gaukroger, Stephen, The Collapse of Mechanism and the Rise of Sensibility: science and the Shaping of Modernity,1680-1760, Oxford, Clarendon Press, 2010. Gaukroger, Stephen, The Emergence of a Scientific Culture: Science and the Shaping of Modernity: 1210-1685, Oxford, Clarendon Press, 2006. Ghirardi, Gian Carlo, Un’occhiata alle carte di Dio. Gli interrogativi che la scienza moderna pone all’uomo, Milano, il Saggiatore, 1997. Gillispie, Charles C., The Edge of Objectivity: An Essay in the History of Scientific Ideas, Princeton, Princeton University Press, 1960. Giudice, Franco, Lo spettro di Newton. La rivelazione della luce e dei colori, Roma, Donzelli, 2009. Giusti, Enrico, Bonaventura Cavalieri and the Theory of Indivisibles, Roma, Cremonese, 1980. Grant, Edward, The Foundations of Modern Science in the Middle Ages. Their Religious, Institutional, and Intellectual Context, Cambridge, Cambridge University Press, 1996. Heilbron, John L., Ernest Rutherford: and the Explosions of Atoms, Oxford, Oxford University Press, 2003. Heilbron, John L., Galileo, Oxford, Oxford University Press, 2010. Holton, Gerard and Roller, Duane H. D., Foundations of Modern Physical Science, Reading, Addison-Wesley, 1958. Hunt, Bruce J., The Maxwellians, Ithaca and London, Cornell University Press, 1991. Hunt, Bruce J., Pursuing Power and Light. Technology and Physics from James Watt to Albert Einstein, Baltimore, The Johns Hopkins University Press, 2010. 118

La scienza che fu

Janiak, Andrew, Newton as Philosopher, Cambridge, Cambridge University Press, 2008. Kline, Morris, Storia del pensiero matematico, 2 volumi, Torino, Einaudi, 1991. Koestler, Arthur, The Sleepwalkers, London, Hutchinson & Co Ltd, 1959. Koyré, Alexandre, Études d’histoire de la pensée scientifique, Paris, Presses Universitaires de France, 1966. Koyré, Alexandre, Études galiéennes, Paris, Hermann, 1966. Koyré, Alexandre, La révolution astronomique: Copernic, Kepler, Borelli, Paris, Hermann, 1961. Kuhn, Thomas S., The Copernican Revolution. Planetary Astronomy in the Development of Western Thought, Cambridge MA, Harvard University Press, 1957. Kuhn, Thomas S., The Structure of Scientific Revolutions, Chicago, The University of Chicago Press, 1967. Lerner, Michel-Pierre, Le monde des sphères. Genèse et triomphe d’une représentation cosmique, 2 vols., Paris, Les Belles Lettres, 2008. Levere, Trevor H., Trasforming Matter: a History of Chemistry from Alchemy to the Buckyball, Baltimore, The Johns Hopkins University Press, 2001. Longair, Malcolm, Maxwell’s Enduring Legacy. A Scientific History of the Cavendish Laboratory, Cambridge, Cambridge University Press, 2016. Maccagni, Carlo e Freguglia, Paolo (a cura di), La storia delle scienze, Busto Arsizio, Bramante, 1989. Maier, Anneliese, On the Threshold of Exact Science: Selected Writings of Anneliese Maier on Late Medieval Natural Philosophy, Philadelphia, University of Pennsylvania Press, 1982. Maiocchi, Roberto, Storia della scienza in Occidente dalle origini alla bomba atomica, Scandicci, La Nuova Italia, 1995. Mamiani, Maurizio, Storia della scienza moderna, Roma-Bari, Laterza, 1998. Maracchia, Silvio, Storia dell’algebra, Napoli, Liguori, 2005. BIBLIOGRAFIA

119

Mark, Harry H., c. The Speed of Light. A Tale of Scientific Blunder, Bloomington, iUniverse, 2010. McEvoy, John G., The Historiography of the Chemical Revolution: Patterns of Interpretation in the History of Science, London and New York, Routledge, 2010. Mehl, Edouard (ed.), La physique céleste. Autour de l’Astronomia Nova (1609), Paris, Les Belles Lettres, 2011. Osler, Margaret J., Reconfiguring the World. Nature, God, and Human Understanding from the Middle Ages to Early Modern Europe, Baltimore, The Johns Hopkins University Press, 2010. Pais, Abraham, “Subtle is the Lord…” – The Science and Life of Albert Einstein, Oxford, Oxford University Press, 1982. Partington, James R., A History of Chemistry, vol. 3, London and Basingstoke, MacMillan, 1962. Partington, James R., Historical Studies on the Phlogiston Theory, New York, Arno Press, 1981. Pedersen, Olaf, A Survey of the Almagest. With Annotation and New Commentary by Alexander Jones, New York/Dordrecht/Heidelberg/London, Springer, 2011. Peruzzi, Giulio, Vortici e colori: alle origini dell’opera di James Clerk Maxwell, Bari, Dedalo, 2010. Principe, Lawrence M., The Secrets of Alchemy, Chicago and London, The University of Chicago Press, 2013. Reeves, Richard, A Force of Nature: the Frontier Genius of Ernest Rutherford, New York, Atlas Books, 2008. Rocke, Alan J., Chemical Atomism in the Nineteenth Century: from Dalton to Cannizzaro, Columbus, Ohio State University Press, 1984 Rossi, Paolo, La nascita della scienza moderna in Europa, Roma-Bari, Laterza, 1997. Schofield, Robert E., The Enlightened Joseph Priestley: A Study of His Life and Work from 1773 to 1804, University Park, the Pennsylvania State University Press, 2004. Shapin, Steven, Never Pure: Historical Studies of Science as if it was produced by People with Bodies, situated in Time, Space, 120

La scienza che fu

Culture and Society, and Struggling for Credibility and Authority, Baltimore, The Johns Hopkins University Press, 2010. Shapin, Steven, The Scientific Revolution, Chicago, The University of Chicago Press, 1996. Siegel, Daniel M., Innovations in Maxwell’s Electromagnetic Theory: Molecular Vortices, Displacement Current, and Light, Cambridge, Cambridge University Press, 1991. Siegfried, Robert, From Elements to Atoms: a History of Chemical Composition, Philadelphia, American Philosophical Society, 2002. Sorabji, Richard (ed.), Philoponus and the Rejection of Aristotelian Science, London, Duckworth, 1987. Tibbetts, Gary C., How the Great Scientists Reasoned: the Scientific Method in Action, Amsterdam, Elsevier, 2013. Tugnoli Pattaro, Sandra, La teoria del flogisto: alle origini della rivoluzione chimica, Bologna, CLUEB, 1983. Villani, Giovanni, La chiave del mondo. Dalla filosofia alla scienza: l’onnipotenza delle molecole, Napoli, CUEN, 2001. Vincent, Jullien (ed.), Seventeenth-Century Indivisibles Revisited, Cham, Birkhäuser, 2015. Voelkel, James R., The Composition of Kepler’s Astronomia Nova, Princeton, Princeton University Press, 2001. Weichenhan, Michael, «Ergo perit coelum…». Die Supernova des Jahres 1572 und die Überwindung der Aristotelischen Kosmologie, München, Franz Steiner Verlag, 2004. Weill-Parot, Points aveugles de la nature. La rationalité scientifique médiévale face à l’occulte, l’attraction magnetique et l’horreur du vide (XIIIe – milieu du XVe siècle), Paris, Les Belles Lettres, 2013. Wertheim, Margaret, Physics on the Fringe. Smoke Rings, Circlons, and Alternative Theories of Everything, New York, Walker & Company, 2011. Whittaker, Edmund T., A History of the Theories of Aether and Electricity: from the Age of Descartes to the close of the Nineteenth Century, London and New York, Longmans, 1910. BIBLIOGRAFIA

121

Whyte, Lancelot L., Essay on Atomism: from Democritus to 1960, Middleton, Wesleyan University Press, 1961. Wiechowski, Siegfried, Geschichte Des Atoms, Güterlsch, Bertelsmann Verlag, 1963. Zeilinger, Anton, Einsteins Schleier. Die neue Welt der Quantenphysik, München, Verlag C. H. Beck oHG, 2003.

122

La scienza che fu

INDICE DEI NOMI

Alberto Magno 29 Alhazen 78 Alighieri, Dante 29 Apollonio di Perga 14 Archimede 44-48 Aristotele 15, 17, 20, 29-37, 41, 49, 83, 96, 99 Averroè 30 Avicenna 34 Bacon, Francis 70 Banks, Joseph 99 Barrow, Isaac 55 Bartholin, Rasmus 84 Becher, Johann Joachim 63-66 Berthollet, Amédée-Barthélemy 63 Berzelius, Jöns Jacob 101 Black, Joseph 63, 71 Bohr, Niels 110 Boneto, Nicola 34 Boscovich, Ruggero 96, 101 Boyle, Robert 70, 96 Bradley, James 92 Brahe, Tycho 23, 25, 82 Bruno, Giordano 96 Bunsen, Robert 100 Buridano, Giovanni 34-41

Canova, Antonio 61 Cantor, Georg 50 Cavalieri, Bonaventura 51-56, 60 Cavendish, Henry 63 Churchill, Winston 113-114 Copernico, Niccolò 19-26 D’Alembert, Jean-Baptiste le Rond 83, 89, 90 Dalton, John 97-101, 110 Darcet, Jean 63 Democrito 95 Descartes, René (Cartesio) 57, 78, 80, 82, 111 Duhem, Pierre 40 Einstein, Albert 93-94 Empedocle 64 Epicuro 95 Eratostene 14 Erone 14 Euclide 14, 37 Eudosso di Cnido 16, 20, 45, 47 Euler, Leonhard 102 Faraday, Michael 101, 105 FitzGerald, George Francis 109 INDICE DEI NOMI

123

Francesco di Marchia 34 Fresnel, Augustine-Jean 85-86, 95 Galilei, Galileo 42, 48-50, 55, 56, 60, 78, 87, 90, 96 Gemino di Rodi 15 Giovanni Duns Scoto 38 Giovanni Filopono 33-34, 41 Goethe, Johann Wolfgang von 61 Gogol, Nikolaj Vasil’evic 8 Goldoni, Carlo 61 Grimaldi, Francesco Maria 84 Guernicke, Otto von 70 Guldin, Paul 54 Hales, Stephan 70 Hegel, Georg Wilhelm Friedrich 99 Hellot, Jean 63 Helmholtz, Hermann von 102-103 Henckel, Johann 63 Holman, Silas Whitcomb 107, 109 Hooke, Robert 80-82, 86 Huygens, Christiaan 81-82, 84 Ipparco di Nicea 17 Jeans, James Hopwood 110 Juncker, Johann 63 Kant, Immanuel 61 Kepler, Johannes 23-28, 42, 4345, 48, 51, 53-54, 61, 78 Kirchoff, Gustav 100 Kirwan, Richard 63, 75 Klaproth, Martin-Heinrich 63

124

La scienza che fu

Lagrange, Joseph-Louis 102 Laplace, Pierre Simon de 62 Lavoisier, Antoine-Laurent de 72-76, 93, 97-98 Leibniz, Gottfried Wilhelm von 55, 58-60 Lenard, Philipp 110 Leucippo 95 Lindemann, Ferdinand von 46 Lorentz, Hendrik Antoon 92-94 Mach, Ernst 93 Malus, Étienne-Louis 85 Margraff, Sigmund 63 Maxwell, James Clerk 86, 90, 104-106, 111 Mayer, Alfred Marshall 107 Mendeleev, Dmitrij Ivanovic 108 Mengoli, Pietro 55 Michelson, Abraham 91-93 Morley, Edward 91-93 Mozart, Wolfgang Amadeus 61 Nagaoka, Hantaro 110 Navier, Claude-Louis 107 Newton, Isaac 41-42, 55-60, 61-63, 68-70, 77-86, 90, 94, 96, 99, 111 Nicola d’Autrecourt 96 Oresme, Nicolas 39-41, 49 Otelbaev, Mukhtarbaray 107 Paracelso, Philippus Aureolus Teophrastus Bombastus von Hohenheim detto 64-65

Pascal, Blaise 55, 56 Pietro Lombardo 38 Platone 15, 37 Pope, Alexander 77 Popper, Karl 72 Priestley, Joseph 63, 71, 75-76 Proust, Joseph Louis 98 Réamur, René-Antoine Ferchault de 63 Richter, Jeremias-Balthazar 63 Roberval, Gilles Personne de 55, 56 Rømer, Ole Christiansen 78 Rutherford, Daniel 63, 71 Rutherford, Ernest 110 Scheele, Carl Wilhelm 63 Schott, George Adolphus 110 Seralgedin, Ismail 13 Sibiuda, Raimondo 11 Simplicio 15 Stahl, Georg Ernest 64-76 Stark, Johannes 110 Stokes, George Gabriel 107 Strutt, John William 110

Tait, Peter 104, 108 Tartaglia, Niccolò 37 Thomson, Joseph John 110 Thomson, William (Lord Kelvin) 101-109 Tito Lucrezio Caro 95 Tolomeo I 13 Tolomeo II 13 Tolomeo, Claudio 14-21, 25 Tommaso d’Aquino 29 Torricelli, Evangelista 55, 56, 96 Van Helmont, Jan Baptist 70 Van Royen, Willebrod Snell 78 Viete, François 57 Volta, Alessandro 99-100 Voltaire, François Marie Arouet detto 62 Wallis, John 55, 57 Witelo, Erasmus Ciolek 78 Young, Thomas 84-85, 95

INDICE DEI NOMI

125