136 26 2MB
Italian Pages [258] Year 2021
a cura di Marco Bernardoni
Cinque parole della scienza Memoria e previsione, dato e informazione, tempo
Marco Bernardoni Cinque parole della scienza
Daniele Menozzi – Pierangelo Sequeri Stella Morra – Paolo Benanti Angelo Vincenzo Zani – Kurt Appel
Cinque parole della scienza Profezia di Francesco Memoria e previsione, dato e informazione, tempo
Traiettorie di un pontificato a cura di
Marco Bernardoni Prefazione di Marcello neri
EDIZIONI DEHONIANE BOLOGNA
Questo e-book contiene materiale protetto da copyright e non può essere copiato, riprodotto, trasferito, distribuito, noleggiato, licenziato o trasmesso in pubblico, o utilizzato in alcun altro modo ad eccezione di quanto è stato specificatamente autorizzato dall’editore, ai termini e alle condizioni alle quali è stato acquistato o da quanto esplicitamente previsto dalla legge applicabile. Qualsiasi distribuzione o fruizione non autorizzata di questo testo così come l’alterazione delle informazioni elettroniche sul regime dei diritti costituisce una violazione dei diritti dell’editore e dell’autore e sarà sanzionata civilmente e penalmente secondo quanto previsto dalla Legge 633/1941 e successive modifiche. Questo libro elettronico/e-book non potrà in alcun modo esser oggetto di scambio, commercio, prestito, rivendita, acquisto rateale o altrimenti diffuso senza il preventivo consenso scritto dell’editore. In caso di consenso, tale libro elettronico non potrà avere alcuna forma diversa da quella in cui l’opera è stata pubblicata e le condizioni incluse alla presente dovranno essere imposte anche al fruitore successivo. Edizione digitale: © 2021 Centro editoriale dehoniano via Scipione Dal Ferro, 4 – 40138 Bologna www.dehoniane.it EDB®
Questo e-book è realizzato in collaborazione con l’Associazione Nuovo SEFIR In copertina: foto di Brankospejs, iStockphoto ISBN pdf: 978-88-10-961254 Impaginazione e redazione: Edimill s.r.l.
Prefazione
I testi presentati in questo libro digitale sono stati raccolti dall’Associazione Nuovo SEFIR1, costituitasi formalmente a fine ottobre 2019, ma richiamantesi all’esperienza di una pre-esistente area di ricerca SEFIR conclusa il 31 dicembre 2018. L’acronimo SEFIR sta per «Scienza E Fede sull’Interpretazione del Reale». L’Associazione intende infatti «coagulare un gruppo interdisciplinare di studiosi qualificati che, sotto la propria responsabilità, esprimano valutazioni su aspetti significativi della realtà contemporanea, mettendo in dialogo le proprie competenze scientifiche e una certa sapienza della vita maturata da tradizioni plurisecolari dell’umanità, religiose o meno, in primis il cristianesimo» (dall’articolo 2 dello Statuto). I soci e gli altri amici dell’Associazione sono in prevalenza studiosi di scienze formali e naturali, di ingegneria, di filosofia e di teologia. Si tratta di persone che per lo più svolgono la loro attività in atenei ed enti di ricerca, statali e non statali, alcune molto affermate, altre più giovani, parecchie cattoliche, altre no. I soci di Nuovo SEFIR e i loro amici da tempo prestano molta attenzione a quelle che chiamano «le parole della scienza». Qui la scienza cui si fa riferimento è quella di matematica, informatica, fisica, biologia ecc. Le parole che interessano sono invece quei termini di particolare rilevanza nel discorso scientifico ma che risuonano in maniera significativa anche in altri contesti, in primis quelli filosofico e teologico. C’è infatti la consapevolezza che certi vocaboli Per informazioni sull’Associazione Nuovo SEFIR cf. http://www.nuovo-sefir.it/
1
6
Cinque parole della scienza
sono utilizzati con significati diversi e occorre rendersene ben conto per un proficuo dialogo interdisciplinare e magari transdisciplinare. Questo libro digitale contiene articoli che i soci di Nuovo SEFIR e i loro amici hanno elaborato in anni recenti in relazione a cinque particolari parole della scienza: memoria e previsione, dato e informazione, tempo. Esse sono legate da un unico filo conduttore che potrebbe definirsi quello di uno sviluppo successivo. L’attività scientifica procede dalla memoria dell’accaduto (almeno una memoria parziale) alla previsione del futuro (al tentativo di una previsione). Procede dall’accumulo di dati all’estrazione di informazioni. E ovviamente si colloca in una dimensione temporale. Pertanto una scelta di cinque parole sì particolare, ma non disorganica. Va precisato che gli articoli sono stati quasi tutti completati un anno fa, prima dell’esplosione della pandemia di Covid-19. A seguire una veloce carrellata sui testi presentati. Sull’accoppiata memoria e previsione, compaiono quattro contributi. Un testo di biologia umana sul come e dove della memoria, un testo sull’applicabilità delle due parole agli animali non umani, un testo sul loro uso nell’ambito informatico, e una riflessione filosofico-teologica sui due termini. Sull’accoppiata dato e informazione, ci sono due articoli. Una chiarificazione di taglio matematico sulle due parole e il contesto in cui si collocano, con una digressione teologica finale, e un articolo sul ruolo dei Big Data nelle ricerche biomediche. Sulla parola tempo sono raccolti quattro testi, rispettivamente di taglio antropologico, biologico, informatico e psicoanalitico. C’è poi un articolo su Angelo Secchi e il suo tempo, motivato dal recente bicentenario della nascita di tale rilevante figura del dialogo tra scienza e fede.
Marzo 2021
Memoria e previsione
Il come e il dove della memoria Carlo Cirotto
1. Introduzione1 In ognuno di noi c’è una facoltà di così vitale importanza che, se venisse a mancare, avremmo il crollo irreparabile della nostra stessa identità: la memoria. Noi non siamo una congerie di fatti, eventi e processi indipendenti l’uno dall’altro né semplicemente organizzati secondo un prima e un dopo, ma ogni istante della nostra esistenza è una ricapitolazione del passato. Io non sono semplicemente colui che sta scrivendo al computer questa relazione. Sono un distillato delle mie esperienze passate, delle mie emozioni, delle cose che ho capito, delle mete che ho raggiunto o mancato, delle persone con cui ho interagito, dei miei valori. Io sono la mia stessa storia. E se tutto questo finisse, potrei dirmi ancora “io”? È la memoria a mettere insieme i pezzi del puzzle del nostro passato aiutandoci a dar loro significato per affrontare meglio le incognite del futuro. Questo vivere a mezz’aria fra eventi passati noti ed eventi futuri sconosciuti è al centro della nostra struttura mentale. Una delle prerogative più evidenti e di maggior fascino del nostro cervello è quella di assorbire informazioni dall’ambiente – sia esterno che interno – conservarle e recuperarle al momento opportuno. È l’apprendimento il processo che permette al sistema nervoso di acquisire nuove informazioni. L’insulto del tempo, però, le cancellerebbe immediatamente e definitivamente se non intervenissero i dispositivi della memoria a fissarle, conservarle ed evocarle. Apprendimento e memoria, tuttavia, non sono sufficienti ad assicurare l’acquisizione e la disponibilità dell’informazione. Infatti, Carlo Cirotto, già docente di Citologia e Istologia, Università di Perugia.
1
10
Cinque parole della scienza
di tutti gli stimoli che il nostro cervello riceve, solo pochi sono appresi e memorizzati; la maggior parte viene cancellata o immediatamente o in tempi successivi. L’oblio è il terzo formidabile protagonista nel proteggere la mente da una sovrabbondanza di dati che potrebbe essere dannosa quasi quanto l’assenza di apprendimento e di memoria. L’oblio poi, insieme alla memoria, consente alla mente di ricostruire continuamente se stessa2. Ognuno di noi è convinto di essere uno scrupoloso custode delle proprie memorie e di conservarle immutate nel tempo. Il solo dubbio che possano subire modificazioni verrebbe considerato un colpo mortale inferto alla coerenza del nostro io e delle nostre personali esperienze. La realtà però è totalmente diversa. Le memorie sono soggette ad oblio, cambiano nel tempo, si riorganizzano inglobando continuamente nuove esperienze e nuovi ricordi. Memoria ed oblio, insomma, sono due processi conflittuali e complementari allo stesso tempo. Se è vero che la memoria è una funzione fondamentale per la vita, è anche vero che se non dimenticassimo non potremmo apprendere cose nuove, innovare vecchi schemi e, soprattutto, attribuire nuovi significati alle esperienze. Inoltre, se la memoria non andasse incontro a un continuo processo di ristrutturazione, la nostra mente sarebbe affollata di ricordi in conflitto tra loro. I racconti autobiografici, raccolti a distanza di anni, dimostrano che la permanenza nel tempo dei ricordi, anche quelli considerati “pietre miliari” della vita, è tutt’altro che stabile. Lo stesso evento viene raccontato in modo diverso; cambiano i particolari, cambia il significato, come se il contenuto mnemonico, invece di somigliare ad una “fotografia” della realtà, assomigli piuttosto ad un pezzo di plastilina che, a poco a poco, si rimodella. «La memoria assomiglia più alla fusione e al ricongelamento di un ghiacciaio piuttosto che a un’iscrizione su di una roccia», affermano Edelman e Tononi3. Apprendimento, memoria e oblio, saldamente legati l’uno all’altro, sono dunque i processi fondamentali attraverso i quali gli Cf. A. Oliverio, Esplorare la mente. Il cervello tra filosofia e biologia, Raffaello Cortina, Milano 1999. 3 G.M. Edelman – G. Tononi, Un universo di coscienza. Come la materia diventa immaginazione, Einaudi, Torino 2000, p. 111. 2
Il come e il dove della memoria
11
eventi della vita plasmano la nostra mente. Non stupisce quindi che la loro comprensione costituisca uno degli obiettivi primari delle neuroscienze, né stupisce che sia impossibile studiarne uno senza tener conto degli altri. Il tema “memoria” non potrà essere approfondito senza tener presenti anche l’apprendimento e l’oblio.
2. Memoria o memorie? Per molti anni il pensiero scientifico è stato dominato dalla convinzione che la memoria fosse una facoltà unitaria ma con il passare del tempo dubbi sempre più motivati hanno indotto gli scienziati ad optare per l’ipotesi opposta: l’esistenza di sistemi di memoria molteplici. A determinare un tale orientamento fu soprattutto la scoperta che lesioni in aree circoscritte del cervello potevano causare gravi danni a determinati tipi di memoria senza coinvolgerne altri. I criteri che hanno ispirato le classificazioni più condivise sono due: il criterio temporale-oggettivo, che tiene conto del periodo di durata dei ricordi e il criterio qualitativo-soggettivo, che distingue i diversi tipi di memoria sulla base della natura delle informazioni ricordate4.
3. Memorie lunghe, memorie brevi È convinzione condivisa che esistano due tipi di memoria, una relativa agli eventi recenti e una riservata a quelli vecchi di anni e decenni. Evidentemente, a fondare questa convinzione hanno influito i ricordi degli anziani, tradizionalmente vividi per le vicende passate ma spesso traballanti per quelle più recenti. Anche gli uomini di scienza hanno fatto proprio questo modo di classificare la memoria riconoscendo l’esistenza di una memoria a breve termine e una a lungo termine ma, almeno agli inizi, senza preoccuparsi troppo di definire i confini temporali dell’una e dell’altra. In questi Per una chiara e schematica presentazione delle diverse tipologie di memoria cf. A. Gasbarri – C. Tomaz, La memoria. Aspetti neurofisiologici, EdiSES, Napoli 2005. 4
12
Cinque parole della scienza
ultimi anni, grazie al perfezionamento dei metodi di osservazione e all’affinamento della strumentazione di laboratorio, è stato però possibile distinguere tipi diversi di memoria sulla base della durata del ricordo. Detengono il primato della brevità le memorie sensoriali relative a immagini visive e stimoli acustici. Estremamente labili, hanno una durata non superiore a 1/10 di secondo e sono chiamate memorie “iconiche”, se basate sul senso della vista, e memorie “ecoiche”, se basate sul senso dell’udito. Rispetto a queste due brevissime memorie, quella che per gli scienziati è la memoria a breve termine ha una durata maggiore. Va da pochi secondi ad alcuni minuti. Un’informazione contenuta nella memoria a breve termine viene di solito dimenticata se non è trasferita, attraverso l’esercizio, alla memoria a medio e lungo termine, dove rimane per un tempo prolungato. Alla traccia fisica lasciata nel cervello dall’operazione di memorizzazione viene dato il nome di “engramma” e rappresenta l’informazione immagazzinata nel sistema nervoso centrale che si rafforza ogni volta che viene utilizzata. Il fatto che la memoria a breve termine non sia un’acquisizione definitiva dell’informazione non significa che essa sia di secondaria importanza. È vero il contrario. È solo grazie ad essa se possiamo tenere a mente più nozioni contemporaneamente e ragionarci sopra. La memoria a medio termine è un tipo di memoria con caratteristiche intermedie tra la memoria a breve e quella a lungo termine. Ad esempio, ricordiamo facilmente i fatti avvenuti durante le ultime 24 ore ma troviamo cancellati dall’oblio gli eventi analoghi avvenuti nei giorni o nelle settimane precedenti. Chi ricorda in quale punto ha parcheggiato l’auto per la spesa settimanale di quindici giorni fa? La memoria a lungo termine contiene informazioni che possono essere conservate per settimane, mesi e anni. Il passaggio di una informazione dalla memoria a breve termine a quella a lungo termine avviene con il processo di “consolidamento” che si ottiene con la rivisitazione frequente del ricordo. La memoria a lungo termine si differenzia dalle altre forme di memoria non solo per i tempi di conservazione, molto più prolungati, ma anche per il numero delle informazioni che può trattene-
Il come e il dove della memoria
13
re. Si pensi, ad esempio, alla capacità di riconoscere centinaia o migliaia di volti, scene, oggetti e voci. E che dire poi di coloro che conoscono più di una lingua e, quindi, hanno ampliato il proprio patrimonio con un numero grandissimo di informazioni su vocaboli, grammatica e frasi idiomatiche. Si stima che apprendere una lingua significhi far propri circa 100.000 nuovi elementi di conoscenza. Nonostante l’enormità della capacità della memoria a lungo termine, è esperienza comune che le informazioni acquisite possano anche essere dimenticate e che i ricordi possano diventare imprecisi. Molte ricerche hanno messo in evidenza che le tracce della memoria a lungo termine possono sbiadire anche a causa della sovrapposizione di informazioni apprese prima o dopo la loro formazione. Altri studi hanno dimostrato che tutte le volte che la traccia di memoria viene attivata va incontro a cambiamenti. Con il succedersi delle attivazioni, quindi, essa può allontanarsi sempre più dalla sua forma originaria. Inoltre, le nuove informazioni che sono a disposizione al momento del richiamo, possono aggiungere nuovi particolari per cui è probabile che l’ultima evocazione attivi non solo le tracce più recenti, ma anche quelle più vecchie, producendo ricordi distorti o falsati.
4. Memorie dell’osservatore e memorie dell’attore Sebbene i contenuti dei sistemi di memoria siano patrimonio esclusivo di ciascun individuo e quindi siano tutti diversi, la loro organizzazione segue tuttavia uno schema abbastanza regolare. La maggior parte degli studiosi distingue le memorie soggettive in due categorie principali: quelle esplicite, dette anche dichiarative, e quelle implicite, dette anche procedurali. La memoria dichiarativa riunisce quelle informazioni che possono essere esplicitate verbalmente, “dichiarate” appunto. Nel momento in cui affermiamo che sotto casa c’è la fermata di una certa linea di autobus ricorriamo alla memoria dichiarativa. Ma quando andiamo in bicicletta o nuotiamo o guidiamo l’automobile utilizziamo la memoria procedurale, una conoscenza che è quasi impossibile tradurre in termini linguistici.
14
Cinque parole della scienza
Non si impara in astratto ad andare in bicicletta o a guidare l’auto. Così come è impossibile tradurre in parole l’esperienza del nuoto. La memoria procedurale è la memoria del “come”; è il tipo di memoria preminente negli animali, coinvolta nelle abitudini, nei condizionamenti, nelle memorie di tipo motorio mentre la memoria dichiarativa è di tipo cognitivo, esprime significati ed è legata a un codice linguistico. La memoria procedurale permane fino alla tarda età ed è l’ultima a essere colpita dalle malattie degenerative del cervello tipiche della vecchiaia. Al contrario, la memoria dichiarativa, che dipende dal buon funzionamento della corteccia cerebrale, può andare incontro a insufficienze con l’avanzare dell’età. È opportuno sottolineare come la memoria dichiarativa abbia un carattere più oggettivo, distaccato, freddo, mentre quella procedurale abbia un carattere più soggettivo, con connotazioni emotive, calde. Queste due dimensioni della memoria fanno parte di due diversi aspetti del ricordo, il punto di vista dell’osservatore e il punto di vista dell’attore. All’interno di queste due principali tipologie di memoria, i neuroscienziati inseriscono poi ulteriori suddivisioni. La memoria procedurale viene distinta in: (1) rappresentazione percettiva, che gioca un ruolo importante nell’identificare parole e oggetti sulla base della loro struttura e (2) memoria di lavoro adatta a conservare una limitata quantità di materiale di rapida accessibilità. La memoria dichiarativa comprende: (1) la memoria episodica, che conserva le esperienze personali proprie di ciascun individuo e (2) la memoria semantica, che riguarda conoscenze generali di fatti e concetti e non è legata a tempi o luoghi particolari. Come si può notare, tutte le classificazioni della memoria sopra riportate hanno basi eminentemente operative, comode ma provvisorie: esse potrebbero essere modificate o persino svuotate di significato dalle ricerche future.
5. Neuroni e cervello L’organo preposto alla formazione e alla conservazione dei ricordi è, al di là di ogni ragionevole dubbio, il cervello. Questa affer-
Il come e il dove della memoria
15
mazione tuttavia, pur essendo vera, è troppo generica perché possiamo dircene soddisfatti. Il cervello, infatti, è la struttura più complessa dell’universo conosciuto. È esso stesso un universo. Che cosa avviene, dunque, all’interno di questo universo quando memorizziamo qualcosa? E quando la evochiamo? Non è sempre facile pensare che il cervello sia un organo corporeo come gli altri, come il fegato, ad esempio, o il cuore. Eppure, proprio come il fegato e il cuore, anch’esso è costituito da numerosissime cellule che sono connesse tra loro a formare un tessuto dalla specifica architettura. È anche vero però che il cervello esibisce proprietà che non è esagerato definire straordinarie: esso è il fondamento biologico della mente, che è il nucleo del “sé” di ognuno di noi. Che tipo di differenze strutturali e funzionali ci sono, allora, tra il cervello e gli altri organi del corpo che siano in grado di giustificare prestazioni tanto diverse5? Torniamo all’esempio del cuore e del fegato. Il cuore è un muscolo formato da cellule che sono capaci di contrarsi in risposta a uno stimolo nervoso. Poiché lo stimolo arriva a tutte in contemporanea e poiché ognuna è saldamente ancorata alle vicine, è il muscolo cardiaco nel suo complesso a contrarsi. L’entità globale della contrazione è data dalla “somma” delle micro-contrazioni individuali delle singole cellule. Il fegato è una particolare ghiandola che secerne la bile, miscela di sostanze indispensabili alla digestione. Ognuna di queste sostanze è secreta da un gruppo specializzato di cellule del fegato e la funzione globale è descritta, anche in questo caso, dalla “somma” delle attività secretorie delle singole cellule. Anche il sistema nervoso umano, e quindi anche il cervello, è formato da miliardi di cellule, i “neuroni”; ma le sue proprietà funzionali non derivano dalla somma delle attività delle singole cellule. Le sue non sono proprietà “additive”, come quelle degli altri organi, ma “moltiplicative”. Non c’è speranza, quindi, di trovare nel cervello cellule o gruppi di cellule autocoscienti, o capaci di apprendimento simbolico, o di conservare la memoria di singoli fat5 Per una accessibile descrizione del cervello e delle sue proprietà cf. C. Umiltà, Il cervello, Il Mulino, Bologna 2011; P.M. Churchland, Il motore della ragione, la sede dell’anima, Il Saggiatore, Milano 1995.
16
Cinque parole della scienza
ti o esperienze – è famosa la ricerca, ovviamente fallimentare, del “neurone della nonna”, quello che dovrebbe contenere i particolari del volto dell’amata vecchietta – tali che, per semplice somma delle loro capacità, sia possibile giustificare le caratteristiche globali della mente umana. Eppure è a livello della struttura e del funzionamento dei neuroni che possiamo trovare la via d’accesso alla comprensione del cervello. Quali sono, allora, le caratteristiche che fanno speciali le cellule nervose? È la loro struttura a rendere possibile un funzionamento del tutto particolare. Come tutte le cellule, i neuroni sono formati da un “corpo”, nel quale risiedono il nucleo e gli organelli che assicurano i processi vitali fondamentali. Il corpo cellulare poi si prolunga in moltissime appendici corte e ramificate – dette “dendriti” perché assomigliano alla ramificazione di un albero – e in un’unica appendice molto più lunga, l’“assone”. I materiali gelatinosi che formano il corpo cellulare e le appendici sono contenuti all’interno di una sottile membrana che li separa dall’ambiente circostante. Lungo questa membrana si propagano, come onde, gli impulsi elettrici che sono la caratteristica funzionale dei neuroni. Ogni stimolo, esterno o interno al corpo, è trasformato in segnali elettrici (gli impulsi nervosi) che si propagano a senso unico, dai dendriti al corpo cellulare e all’assone, ad una velocità media di 345 Km/h. Ogni neurone entra in comunicazione con gli altri avvicinando le parti terminali del proprio assone ai dendriti (o al corpo cellulare) dei partner fin quasi a toccarli. È attraverso questi punti di quasi-contatto, le “sinapsi”, che gli impulsi nervosi passano da un neurone all’altro. Poiché le membrane dei due neuroni non si toccano, non può stabilirsi tra loro nessun contatto diretto di tipo elettrico e quindi nessuna trasmissione dell’impulso nervoso per cortocircuito. Nel microscopico spazio sinaptico il contatto cambia, per così dire, natura: si trasforma in contatto chimico. L’onda elettrica, giunta nella parte terminale dell’assone, stimola l’emissione di piccole e speciali molecole, i “neurotrasmettitori”, che diffondono velocemente attraverso la fessura sinaptica, colpiscono la membrana del neurone successivo e vi scatenano un nuovo impulso di natura elettrica che, a sua volta, corre lungo la membrana fino a raggiungere le parti terminali dell’assone e così via. L’intensità dell’impul-
Il come e il dove della memoria
17
so nervoso che attraversa ogni neurone dipende dagli impulsi che giungono da tutte le sinapsi. Poiché ogni neurone è mediamente in contatto, attraverso le sue sinapsi, con altri 10.000 neuroni, nel cervello si instaura una rete fittissima di contatti inter-neuronali che costituisce lo specifico del tessuto nervoso cerebrale e che è la ragione della complessità moltiplicativa delle sue funzioni6. I numeri che caratterizzano la rete non possono che destare una meraviglia specialissima. Il cervello umano, che occupa un volume di poco superiore al mezzo litro, contiene 100 miliardi di neuroni, dendriti ed assoni per una lunghezza complessiva di 165.000 Km – più di 4 volte la lunghezza dell’equatore – 100 mila milioni di miliardi di connessioni sinaptiche modificabili7. Se assumiamo (con un ampio margine di cautela) che l’intensità di azione di ogni connessione sinaptica possa essere compresa entro una scala di valori che va da 1 a 10, il cervello ha a sua disposizione un numero totale di possibili configurazioni che è 10 elevato a centomila miliardi. Per farsi un’idea della grandezza di questa cifra, basta confrontarla con quei miseri 10 elevato a 87 metri cubi che rappresentano la stima corrente del volume dell’intero universo astronomico8. La poetessa americana Emily Dickinson scrisse una poesia, molto amata dai neuroscienziati, che iniziava così: «Il cervello – è più vasto del cielo»9. Come darle torto? Questa strabiliante struttura a rete è, inoltre, profondamente dinamica; non ha nulla di fisso e subisce costanti modificazioni. Le sinapsi, come risposta agli stimoli ambientali, non vanno solo incontro a variazioni nell’intensità della loro attività ma cambiano anche di numero: se ne formano sempre di nuove mentre ne scompaiono altre, attive in precedenza. Al momento della nascita, nel nostro cervello è disponibile un’innumerevole serie di possibili schemi di contatti inter-neuronali. Il modo effettivo in cui alcuni di essi si realizzano è determinato dalle caratteristiche dell’ambiente in cui ci troviamo a vivere: Cf. G. Caldarelli – M. Catanzaro, Scienza delle reti, Egea, Milano 2016. H. Pringle, Le origini della creatività, in «Le Scienze», maggio 2013, p. 40. 8 P.M. Churchland, Il motore della ragione, la sede dell’anima, p. 17. 9 Citato da S. Rose, Il cervello del ventunesimo secolo, Codice, Torino 2005, p. 6 7
108.
18
Cinque parole della scienza
l’organizzazione del cervello, fino ai livelli microscopici, viene letteralmente plasmata dall’ambiente di vita. Questo è il nostro cervello! È qui, in questo oceano di complessità, che la neurobiologia cerca di identificare i circuiti deputati ai diversi tipi di memoria: non può destare meraviglia che il suo procedere sia lento e quanto mai difficoltoso.
6. Il “dove” della memoria La vita è cambiamento e il cervello è la sede dove i mutamenti vengono appresi e registrati. Ma qual è la natura dei cambiamenti neurali che sono a fondamento dell’apprendimento e della memoria? La maggior parte dei neuroscienziati è del parere che modificazioni nella capacità di connessione sinaptica siano alla base dell’apprendimento e che la memoria sia la fissazione e la conservazione di questi cambiamenti nel tempo. La domanda allora è: in quale maniera l’esperienza modifica concretamente le sinapsi, e che cosa fa sì che i cambiamenti perdurino nel tempo? Nei primi anni Cinquanta il neurofisiologo canadese Donald Hebb propose un’ipotesi, detta “della doppia traccia”, che nei decenni successivi avrebbe orientato la maggior parte delle ricerche sulle basi biologiche della memoria10. Secondo Hebb ogni esperienza ha, come primo impatto sui circuiti nervosi cerebrali, un’alterazione dell’attività di conduzione elettrica circoscritta ad alcuni neuroni o a sistemi di neuroni. Questa prima codificazione dell’informazione è, però, instabile, con sopravvivenza di pochi secondi o, al massino, qualche minuto; è legata alla memoria a breve termine. A questa prima codificazione può subentrarne un’altra, duratura, capace di conservarsi per mesi o anni, dipendente da modifiche definitive della struttura stessa dei neuroni o dei circuiti nervosi. Riguarda la memoria a lungo termine. L’ipotesi di Hebb, quindi, giustifica i due tipi di memoria con due diverse tipologie di modificazioni neuronali; la memoria a breve termine è supportata dalle modificazioni funzionali dei neuroni e delle sinapsi nervose, la memo A. Oliverio, Esplorare la mente, pp. 110-113.
10
Il come e il dove della memoria
19
ria a lungo termine si fonda su modificazioni strutturali, permanenti, sia a carico delle sinapsi che dei neuroni stessi. Si deve notare che la teoria di Hebb implica il fatto che i neuroni siano plastici, che possano cioè subire alterazioni funzionali o morfologiche tali da comportare delle ristrutturazioni, anche profonde, delle reti nervose. Questo particolare risvolto della teoria, cioè la supposta plasticità neuronale, ha raccolto nel tempo innumerevoli conferme sperimentali11. Per quanto riguarda il meccanismo del consolidamento dei ricordi, invece, oggi si ritiene che abbia molto di vero, ma che non si possa essere totalmente sicuri che le cose stiano proprio in questi termini. Non sono molte, oggi, le acquisizioni sui meccanismi della memoria che possiamo considerare definitive. Tra queste ce ne sono due: (1) la distinzione tra memoria a breve termine e memoria a lungo termine; e (2) l’importanza dell’ippocampo – una delle strutture della corteccia cerebrale filogeneticamente più antiche – nel processo di trasferimento dei ricordi conservati nella memoria a breve termine in quella a lungo termine. Queste due affermazioni trovano giustificazione nell’esistenza di svariate patologie che riguardano i ricordi immagazzinati nella memoria a lungo o a breve termine e di altre patologie che interessano il passaggio dei ricordi dal compartimento a breve termine a quello a lungo termine. Anche gli studi più recenti basati su tecniche di neuroimaging comprovano le due affermazioni. Un certo tipo di eventi traumatici o di interventi chirurgici porta all’incapacità di richiamare i ricordi contenuti nella memoria a lungo termine senza per nulla interferire con i meccanismi della memoria a breve termine. Questa forma di amnesia, detta “retrograda”, colpisce i ricordi dei fatti avvenuti prima della crisi che ha causato il disturbo, mentre lascia abbastanza indenni i ricordi di quelli avvenuti nei tempi successivi. Un’altra forma di amnesia, di segno opposto alla precedente, è l’amnesia “anterograda”. La presentano alcuni pazienti che hanno 11 Cf. I.H. Robertson, Il cervello plastico. Come l’esperienza modella la nostra mente, Rizzoli, Milano 1999; G. Denes, Plasticità cerebrale. Come cambia il cervello nel corso della vita, Carocci, Roma 2016.
20
Cinque parole della scienza
lesioni a carico di strutture cerebrali particolari come l’ippocampo. Si tratta di pazienti che conservano intatta la memoria degli eventi passati ma non riescono a memorizzare nessun fatto nuovo; non sono più capaci di aggiornare la collezione dei loro ricordi. Quello che ricordavano prima dell’incidente continuano a ricordarlo, ma non apprendono niente di nuovo. Uno di questi pazienti può conversare normalmente con una persona finché è presente, ma se l’interlocutore esce dalla stanza e vi rientra dopo poco tempo, non viene riconosciuto e si deve ricominciare tutto daccapo. Quando poi si dice che le persone anziane ricordano meglio le cose del lontano passato che quelle più recenti, ci si riferisce proprio al fatto che, in presenza di un indebolimento complessivo delle facoltà mnemoniche, i ricordi recenti vengono più colpiti di quelli remoti. Nei pazienti affetti da amnesia anterograda quello che appare compromesso è il meccanismo deputato a trasferire i ricordi dalla memoria a breve termine a quella a lungo termine. La natura di questo meccanismo resta a tutt’oggi sconosciuta, nonostante il numero enorme di ricerche di cui è stata fatta oggetto12. È abbastanza certo comunque che le aree anatomiche e i meccanismi implicati nell’acquisizione della memoria a breve termine sono diversi da quelli coinvolti nel passaggio dei ricordi da questa a quella a lungo termine, e che questi meccanismi sono diversi a loro volta da quelli implicati nella conservazione della memoria a lungo termine. Un caso clinico molto studiato perché emblematico delle diverse dimensioni della memoria, è quello di un paziente conosciuto come HM, le iniziali del suo nome13. In seguito a un ictus, HM era stato sottoposto ad un intervento chirurgico che gli aveva procurato una grave lesione cerebrale. L’intervento non sembrava aver danneggiato la sua capacità di percepire gli eventi, di ragionare, di parlare e di ricordare gli episodi più recenti. Anche la sua memoria semantica era, almeno in parte, salvaguardata. Risultava invece compromessa la capacità di ricordare gli eventi che si erano verificati prima dell’operazione e, purtroppo, anche quelli del periodo E. Boncinelli, Il cervello, la mente e l’anima, Mondadori, Milano 1999, p. 203. J. LeDoux, Il sé sinaptico. Come il nostro cervello ci fa diventare quelli che siamo, Raffaello Cortina, Milano 2002, pp. 138-146. 12 13
Il come e il dove della memoria
21
successivo: la sua amnesia di tipo episodico quindi era sia retrograda che anterograda. La situazione era però strana. Il vuoto di memoria non coinvolgeva l’intero arco della vita: gli anni “scomparsi” erano circa una decina, quelli più recenti. L’amnesia era invece molto meno grave quando il giovane cercava di rievocare gli anni dell’infanzia o della prima adolescenza. Queste peculiarità dell’amnesia di HM fecero riflettere numerosi neuroscienziati: la “regione temporale media” (ippocampo, amigdala, corteccia temporale), che era stata asportata nell’operazione, non doveva essere la “sede della memoria”, altrimenti insieme al blocco della formazione di nuovi ricordi sarebbero dovuti scomparire anche tutti i ricordi del passato. HM conservava invece i ricordi più antichi, quelli consolidati, evidentemente localizzati nei circuiti nervosi della corteccia cerebrale risparmiati dall’ablazione chirurgica. Qual è allora l’influenza della regione temporale media sulla formazione della memoria a medio e lungo termine? Si sa che occorre un periodo di ore, mesi o anche anni perché le esperienze siano codificate, scomposte in categorie, connotate sulla base del loro significato e distribuite nelle varie regioni del cervello, corteccia cerebrale in primo luogo. La regione temporale media potrebbe svolgere questa funzione. Con una metafora, si potrebbe attribuire alla corteccia cerebrale la funzione di archivio dei ricordi e alla regione temporale media quella di archivista. Quest’ultima iscrive le esperienze, trasformandole da memorie fragili in memorie durature rimuginandole per ore, mesi o persino anni e svolgendo un minuzioso lavoro di classifica, paragone e generalizzazione. Questa parte del cervello è uno snodo essenziale per paragonare tra di loro le esperienze, consentire di tracciare analogie, ristrutturarle in termini di significati. Una volta terminato questo lungo lavoro, che può durare anche anni, l’archivista dispone di una mappa e possiede la chiave per andare a cercare nei posti “giusti” le diverse componenti dei ricordi, per ricostruire da un insieme di tessere il puzzle della memoria. Se l’archivista manca, come nel caso di HL, la mappa e le chiavi non sono più disponibili; forse i ricordi sono depositati da qualche parte nel cervello ma sono inaccessibili. Restano invece a disposizione della mente le memorie più antiche, quelle ormai catalogate in maniera
22
Cinque parole della scienza
stabile nei circuiti corticali, memorie talmente evidenti che balzano agli occhi, o alla mente, anche senza l’intervento dell’archivista. A seguito degli studi condotti su HM e sui rapporti tra regione temporale e memoria, molte ricerche hanno preso in considerazione le diverse strutture nervose candidate ad essere coinvolte nel processo mnemonico. Ne è risultato che la regione temporale, e l’ippocampo in particolare, sono in connessione con il diencefalo (parte del cervello situata in corrispondenza della base cranica) e con tutta la corteccia cerebrale in una sorta di “rete della memoria”. Queste strutture svolgono il loro ruolo nella memoria esplicita che implica un riconoscimento cosciente dei ricordi. Sensazioni o esperienze, per essere trasformati in memorie esplicite, devono prima passare per la regione temporale, dove vengono “etichettati” (memorie spaziali, emotive ecc.), e devono poi raggiungere il diencefalo dove sono “assemblati”. Pare essere questo il circuito che consente di connettere tra di loro le diverse componenti degli episodi della vita quotidiana (sensazioni, immagini mentali, emozioni, valutazioni della realtà ecc.) per trasformarli in memoria episodica, in eventi della storia individuale. Ma queste strutture paiono giocare anche un ruolo nella memoria semantica come l’imparare nuovi nomi, registrare in modo stabile numeri di telefono, apprendere nuovi vocaboli. Come si vede, il condizionale è d’obbligo nella descrizione dei meccanismi della memoria. In questo tipo di indagini non solo non abbiamo raggiunto la metà del guado, ma ci siamo semplicemente bagnati i piedi.
Memoria e previsione: il punto di vista dell’informatica Stefano Crespi Reghizzi - Angelo Montanari
Illustreremo il punto di vista dell’informatica sulle nozioni di memoria e previsione. Dopo una breve introduzione di carattere generale, forniremo un quadro aggiornato delle tecnologie della memoria dei sistemi di calcolo. Dal sostrato tecnologico ci sposteremo verso i modelli astratti e concreti di gestione della memoria, quali nastri, pile, code e dischi. A seguire, ci soffermeremo su tre declinazioni fondamentali della nozione di memoria in informatica: memoria e scienza dei dati, spaziando dalle basi di dati ai data warehouse e ai Big Data; memoria e complessità computazionale; memoria e (teorie dell’)informazione, con particolare riferimento alla teoria di Shannon e alla complessità di Kolmogorov. Della nozione di previsione ci occuperemo, in modo diretto o indiretto, in varie parti del testo. Alcune considerazioni finali concluderanno l’articolo.
1. Introduzione1 L’impiego di memorie esterne a quella biologica è andato di pari passo con lo sviluppo intellettuale e sociale dell’umanità, a cominciare dai dipinti e dalle incisioni rupestri che testimoniano il desiderio di preservare e comunicare le proprie esperienze da parte dei nostri lontani antenati. In seguito, l’invenzione della scrittura manuale, con i necessari supporti fisici (argilla, cera, papiro, pergamena e poi carta) ha agevolato e consolidato la trasmissione delle Stefano Crespi Reghizzi, informatica, Politecnico di Milano. Angelo Montanari, informatica, Università di Udine. 1
24
Cinque parole della scienza
opere letterarie da una generazione all’altra, trasmissione che prima di allora era affidata alla sola memoria orale individuale. Un contributo fondamentale è stato dato dall’istituzione e dall’organizzazione delle biblioteche, veri depositi culturali. Tuttavia, fino all’invenzione della stampa, l’elevato costo dei manoscritti ne limitava la fruizione a pochi privilegiati e ostacolava la diffusione del sapere e della stessa alfabetizzazione. Essendo poche le copie disponibili di ogni opera, molti testi antichi vennero a perdersi a causa delle distruzioni dovute a eventi disastrosi, come l’incendio della biblioteca di Alessandria. Qualcuno ha osservato che i circa 200.000 papiri di quella che era la maggiore collezione dell’epoca oggi starebbero nella memoria a chiavetta di un telefonino (32 gigabyte, pari a 32 miliardi di numeri binari a otto cifre)2. Come tutti sanno, l’invenzione della stampa ha provocato un forte aumento della produzione e della fruizione delle opere scritte anche illustrate. Ciò nonostante, l’intero patrimonio librario finora prodotto ha dimensioni ben piccole rispetto alla capacità delle memorie elettroniche attuali. Una stima della memoria necessaria per tutti i libri finora stampati è stata fatta da Hal Varian e dai suoi collaboratori dell’Università della California: nella storia dell’umanità sarebbero stati prodotti tra 75 e 175 milioni di libri. Assumendo che ogni libro richieda un mega di memoria, sono necessari in totale 175 tera di memoria. Nel 2015, un disco con tale capacità costava circa cinquemila euro, una spesa ben piccola a fronte dell’intera produzione libraria dell’umanità. A partire dalla loro invenzione nel secolo scorso, lo sviluppo delle memorie artificiali (elettroniche, magnetiche, ottiche) è stato e continua a essere concomitante e strumentale a quello delle tecnologie dette dell’informazione. Queste ultime sono spesso indicate come le tecnologie abilitanti della cosiddetta terza rivoluzione industriale e sono destinate a giocare un ruolo fondamentale negli scenari industriali futuri (Industria 4.0). Forniremo un quadro sin L’unità di misura della capacità delle memorie è il bit, ossia una cifra binaria. Il byte vale 8 bit e si abbrevia in B. Un codice di un byte può rappresentare un carattere dell’alfabeto. I multipli del byte sono kilo = 1.000; mega = 1.0002, giga = 1.0003, tera = 1.0004 e poi, sempre moltiplicando per 1.000, peta, exa, zetta, yotta. 2
Memoria e previsione: il punto di vista dell’informatica
25
tetico delle proprietà fondamentali delle memorie e della loro classificazione funzionale nella prossima sezione. Prima, però, vogliamo fare alcune osservazioni preliminari di natura generale. 1.1. I diversi significati della parola “memoria” Poiché la parola “memoria” ha molteplici significati, prima di concentrarci su quelli di natura tecnica propri dell’informatica, vogliamo evidenziare altri significati, anch’essi associati alla nozione di memoria, ma con una connotazione più umana. Con il termine memoria viene innanzitutto designata la funzione psichica e organica che consente di riprodurre nella mente l’esperienza passata e le conoscenze apprese. Tale funzione lascia delle tracce nel sistema nervoso, che pure sono chiamate memoria, ma in senso cerebrale. Il secondo senso è quello della memoria genetica (DNA), ossia il ruolo del genoma nella trasmissione dell’informazione genetica dai genitori ai figli. Un terzo significato del termine memoria è quello dell’apprendimento e della ripetizione fedele di un certo contenuto/comportamento, non necessariamente legati a una comprensione corretta e completa. L’imparare a memoria qualcosa come una poesia, senza comprenderne il senso, è una forma molto riduttiva di uso della memoria psichica, che per certi versi assomiglia alla memorizzazione di una serie di dati in una memoria artificiale senza riferimento al loro valore informativo. Sull’importante distinzione tra dati e informazioni torneremo nel prossimo punto. 1.2. Memoria naturale vs memoria artificiale Se, dunque, la memoria è il supporto che consente di conservare le conoscenze e quando necessario di riattivarle, nella memoria psichica tali conoscenze assumono, per definizione, la forma completa dell’esperienza umana. Nella memoria elettronica, invece, esse rappresentano delle informazioni più o meno ricche, sempre derivate all’origine da esperienze umane e spesso raccolte e organizzate in modo tale da rispondere a specifiche finalità pratiche. In informatica si fa un’importante distinzione tra dati ed informazioni. I dati sono insiemi (sequenze) di simboli (al livello di astrazione più basso, zeri e uni) attraverso i quali viene codifica-
26
Cinque parole della scienza
ta l’informazione. I dati non sono informativi di per sé. È attraverso l’organizzazione e l’elaborazione dei dati che viene prodotta informazione. Un primo modo per attribuire un significato a dei dati è di stabilire delle relazioni fra di essi. Ma soltanto mediante la loro elaborazione, finalizzata al raggiungimento di un determinato obiettivo, possiamo estrarre da essi delle vere e proprie informazioni. Il caso delle basi di dati è paradigmatico. I dati in esse contenuti diventano informazione quando vengono restituiti in risposta ad una data interrogazione (un’interrogazione altro non è che una procedura per l’elaborazione dei dati utilizzata per rispondere ad una specifica richiesta di informazioni). Possiamo allora qualificare come procedurale una tale memoria con i dati in essa contenuti. Una dimensione essenziale della memoria procedurale sta nell’impossibilità di separare i dati dalle procedure necessarie per la loro elaborazione, che sole consentono di ottenere le informazioni volute. Ciò vale sicuramente per le memorie artificiali, ma ci sembra anche per quelle naturali. 1.3. Memoria e algoritmi I dispositivi di memoria oggi servono da archivio per i saperi presenti nella Rete, intesi in senso allargato. Si pensi, ad esempio, ai cataloghi, ai dati finanziari o medici, alle informazioni geografiche, ai film e alla musica. Per quanto meno evidente al grande pubblico, le memorie hanno anche un’altra funzione fondamentale, indispensabile per l’esecuzione degli algoritmi che realizzano le procedure applicative (le cosiddette app). Se dobbiamo dividere due numeri un po’ grandi, il calcolo mentale diventa difficile e si deve ricorrere a carta e matita per memorizzare i risultati intermedi del calcolo; così fa anche l’algoritmo dell’applicazione “macchina calcolatrice”, ma invece della carta usa una memoria elettronica. Ovviamente, gli algoritmi non eseguono soltanto l’aritmetica, ma svolgono innumerevoli altri compiti di assistenza alle più diverse attività umane. Secondo la tesi di Church-Turing, ogni funzione che può essere attuata da un uomo e che sia definita in modo esatto può essere svolta anche da un dispositivo di calcolo automatico, di cui il modello astratto più semplice è la macchina di Turing. Di questa e delle re-
Memoria e previsione: il punto di vista dell’informatica
27
lazioni che intercorrono tra le dimensioni delle memorie e la complessità dei problemi e degli algoritmi che li risolvono parleremo estesamente più avanti. Il resto del lavoro è organizzato nel seguente modo. Nella Sezione 2, forniremo un quadro sintetico delle tecnologie e delle funzionalità delle memorie artificiali. Nella Sezione 3, presenteremo dei modelli astratti e concreti per la gestione della memoria del calcolatore. Nella Sezione 4, ci occuperemo di scienza dei dati, spaziando dalle basi di dati tradizionali ai Big Data. Nella Sezione 5, analizzeremo il ruolo della memoria nell’esecuzione degli algoritmi, in particolare il suo utilizzo come misura della complessità computazionale di un problema e degli algoritmi che lo risolvono. Nella Sezione 6, approfondiremo il rapporto tra memoria e informazione così come stabilito dalle teorie matematiche dell’informazione, soffermandoci, in particolare, sulla teoria di Shannon e sulla nozione di complessità proposta da Kolmogorov. Concluderemo il lavoro con alcune considerazioni finali nella Sezione 7.
2. Le memorie artificiali: tecnologie e funzionalità In questa sezione forniremo un quadro sintetico delle principali caratteristiche tecnologiche e funzionali dei dispositivi elettronici di memoria3. Abbiamo già rilevato come la natura fisica dei dispositivi usati per memorizzare composizioni intellettuali e artistiche di ogni tipo si sia modificato in modo radicale nel tempo: iscrizioni incise nella pietra o nell’argilla, manoscritti cartacei, dischi di vinile, ottici e magnetici, memorie elettroniche a semiconduttore, ma non solo. Ogni genere di dispositivo si differenzia rispetto alle modalità di scrittura (in senso lato) dei dati e di accesso in lettura ai medesimi. Ad esempio, la fatica e il tempo necessari per scolpire la stele di Rosetta sono ben maggiori rispetto alla scrittura a mano o dattilografica dello stesso testo. Sempre in senso lato, possiamo parlare della
Per ulteriori informazioni si rimanda al sito: https://hblok.net/blog/storage/
3
28
Cinque parole della scienza
lettura intesa anche come ascolto di un brano musicale e come visione di una pittura o di un film. Il mezzo utilizzato per la memorizzazione influenza diverse altre importanti proprietà, quali, ad esempio, la durevolezza (persistenza nel tempo), la trasportabilità, il costo per la conservazione, la facilità di copiatura, la protezione da modifiche arbitrarie e la riservatezza. Le seguenti due tabelle mostrano le caratteristiche essenziali dei dispositivi elettronici di memoria.
Parametri tecnologici e funzionali dei dispositivi di memoria – 1 Capacità quanti byte (= 8 bit) contiene; esempio: Compact Disc = 650 megabyte; memoria di un uomo = 2,5 petabyte (stimata grossolanamente) Capacità mondiale 2,6 exabyte (1986) 295 exabyte (2006) Internet: traffico mensile 1 exabyte (1986) 1 zettabyte(2016, stimato) Volatilità volatile se perde il contenuto quando cade l’alimentazione; è volatile la memoria centrale DRAM del PC; non volatili: dischi ottici/magnetici, chiavette Modalità d’accesso in sola lettura (come un disco musicale in vinile); in lettura e scrittura
Parametri tecnologici e funzionali dei dispositivi di memoria – 2 Velocità byte/sec (quanti byte si leggono o scrivono in un secondo) Gerarchia - piccola e velocissima (la memoria CACHE del processore); - media e veloce (la memoria centrale DRAM del PC); - grande e meno veloce (la memoria esterna non volatile, ad esempio, memoria a disco/nastro/elettronica) Latenza ritardo tra l’invio del comando di lettura di una cella di memoria e la disponibilità del dato letto Blocco di memoria una “pagina” di più byte viene letta/scritta in un solo passo; in tale pagina, il processore selezionerà la “parola” voluta Protezione da errori si aggiungono dei bit a ogni dato per controllare se in memoria o nel transito da/ verso la memoria il dato si è corrotto Sicurezza e segretezza dati cifrati prima della memorizzazione per controllare se il programma che vuole accedervi ha la necessaria autorizzazione Durata e longevità esempio: le chiavette sopportano più letture che scritture; obsolescenza tecnologica (il caso dei dischi floppy). Principio fisico distinzione fra memorie magnetiche o elettriche o ottiche; distinzione tra memorie rotanti/stazionarie Stato di una cella l bit è rappresentato da tensione alta/bassa, da carica elettrica/magnetica, dallo stato fisico cristallino o amorfo ecc. Densità quanti bit per unità di superficie o per unità di volume di silicio o altro materiale; la cella si rimpicciolisce anno dopo anno: 300 terabyte per pollice cubo nel 2014
30 Energia
Costo Capacità mondiale Scambi
Cinque parole della scienza quanti joule si consumano per leggere/ scrivere un bit oppure, se la memoria è volatile, per conservarlo. Il consumo dei grandi centri (“server” di Internet) è un problema ecologico ambientale Il costo di produzione storicamente scende in modo esponenziale 1986-2007: il rapporto tra capacità mondiale delle memorie e popolazione ha raddoppiato ogni 40 mesi 1986-2007: il rapporto tra capacità mondiale dei canali di comunicazione e popolazione ha raddoppiato ogni 34 mesi
Vediamo ora più da vicino le caratteristiche dei dispositivi di memoria, con particolare attenzione alla loro evoluzione negli anni. 2.1. Capacità di memoria e traffico di rete La capacità di una memoria è la quantità di dati che essa può contenere. Come già osservato, l’unità di misura di tale capacità è il bit, ma per ragioni pratiche vengono abitualmente usati dei suoi multipli: il byte, che corrisponde a otto bit; a seguire, i kilo, mega, giga, tera, peta, exa, zetta e yotta, ciascuno ottenuto moltiplicando per mille l’unità precedente. Ad esempio, il gigabyte, abbreviato giga, corrisponde a mille milioni di byte. Un comune disco ottico (compact disc, abbreviato CD) contiene 650 mega. Secondo alcune stime plausibili, la capacità complessiva mondiale delle memorie artificiali elettroniche nell’anno 1986 era di 2,6 exa; vent’anni dopo, nel 2006, era salita a 295 exa. Pur non disponendo di una stima precisa, è ragionevole immaginare che con l’odierna diffusione dei telefonini e dei servizi di rete tale valore sia aumentato in modo estremamente significativo negli ultimi anni. Per avere un termine di confronto, la capacità della memoria di un uomo sarebbe di 2,5 peta (secondo alcune stime certamente discutibili basate sulla durata della vita e sulla quantità di informazione raccolta dagli organi di senso).
Memoria e previsione: il punto di vista dell’informatica
31
È interessante osservare come la stessa unità di misura, il bit e i suoi multipli, venga utilizzata anche per esprimere la velocità di trasmissione. Ad esempio, mediante l’utilizzo della rete 3G un telefonino può trasmettere più di una decina di mega al secondo. Non è un caso che lo studio quantitativo dei dati sia storicamente iniziato con le telecomunicazioni e abbia trovato la sua prima formulazione rigorosa nella teoria dell’informazione di Shannon sul finire degli anni Quaranta del secolo scorso. Oggi si stima che la quantità di dati, ossia il traffico, trasmesso in un mese attraverso la rete Internet (anno 2016) sia pari a 1 zetta. Tale massa di dati proviene da una molteplicità di dispositivi diversi, quali telefoni, PC e bancomat, dispositivi che devono essere dotati di opportune memorie per conservare i dati prima dell’invio e dopo la ricezione. 2.2. Modalità di accesso e volatilità. Fra le caratteristiche operative delle diverse memorie riveste un ruolo essenziale la distinzione tra dispositivi che consentono la sola lettura e dispositivi che supportano lettura e scrittura. Le memorie comunemente dette “a sola lettura” non permettono la registrazione di nuovi dati oltre a quelli inseriti al momento della costruzione o del rilascio al pubblico. Un esempio ben noto di tali dispositivi è quello dei dischi musicali in vinile e della loro equivalente, ma ben più capace, versione ottica, i CDROM. Una distinzione altrettanto importante è quella tra memorie volatili e memorie non volatili. I dischi in vinile, i dischi ottici, i dischi magnetici e le chiavette usate per conservare fotografie o altro sono tutti esempi di memorie che mantengono i propri dati per un tempo indefinito, senza la necessità di alcuna alimentazione di natura elettrica e, quindi, senza alcun dispendio energetico (memorie non volatili). Altre memorie, invece, perdono il proprio contenuto se viene a mancare l’alimentazione (memorie volatili). È volatile, ad esempio, la memoria centrale a semiconduttori (DRAM) presente in tutti gli elaboratori elettronici così come nei telefonini. Non si tratta, ovviamente, di una scelta, ma di una necessità: per realizzare le memorie ad accesso rapidissimo richieste dai microprocessori i bit vengono rappresentati fisicamente me-
32
Cinque parole della scienza
diante delle grandezze elettriche che decadono se non sono rinfrescate frequentemente. 2.3. Gerarchia della memoria, velocità e latenza In riferimento alla velocità di lettura o scrittura, ossia al numero di byte letti o scritti in un secondo, la gamma dei dispositivi tecnologici disponibili è caratterizzata da una relazione inversa tra la capacità e la velocità: a parità di prezzo, tanto più una memoria è veloce tanto minore è la sua capacità. Tale gamma, nota col nome di “gerarchia della memoria”, si ritrova nelle varie memorie che equipaggiano ogni sistema di elaborazione. La gerarchia della memoria di un tipico computer ha almeno quattro livelli, dal più veloce al più lento: la memoria a registri dell’unità centrale, per gli operandi delle istruzioni del microprocessore; la cosiddetta cache, per conservare i dati usati più di recente; la memoria centrale RAM dinamica, per tutti i dati del programma in esecuzione; e la memoria esterna non volatile (disco magnetico o memoria RAM statica), per tutto il resto. Uno stesso dato può essere presente in una o più di queste memorie. L’intervallo di tempo necessario per ottenere un dato dalla memoria comprende, oltre al tempo di lettura, anche il ritardo tra l’invio del comando di lettura di una cella di memoria e la disponibilità del dato da leggere. Tale ritardo è chiamato latenza. Un’illustrazione intuitiva della latenza è la seguente. Immaginiamo di voler cercare il termine “Bretagna” nell’enciclopedia che sta sugli scaffali della nostra biblioteca. La latenza misura il tempo necessario per alzare il braccio, afferrare il volume e individuare la pagina e la riga della voce “Bretagna”. Il tempo di lettura del testo di detta voce, dipendente da quanto sia veloce il lettore, si aggiungerà al tempo di latenza. 2.4 Blocco di memoria Come nei libri, anche nelle memorie elettroniche i dati sono organizzati in pagine e righe, o meglio in blocchi, per usare un termine meno libresco. Ad ogni operazione di lettura o scrittura, il dispositivo copia un intero blocco in una memoria più veloce del microprocessore; poi, all’interno del blocco, il dispositivo dovrà localizzare il
Memoria e previsione: il punto di vista dell’informatica
33
punto in cui si trova il dato ricercato o nel quale va scritto un nuovo dato. In tal modo, la posizione di un dato nella memoria è definita dal numero del blocco e dal numero della riga entro il blocco, che in pratica costituiscono l’indirizzo del dato. Se la latenza di ogni dato è la stessa, indipendentemente dall’indirizzo del dato, la memoria viene detta ad accesso casuale (RAM). 2.5. Protezione dei dati, sicurezza, segretezza, durata e longevità Un altro insieme di caratteristiche dei dispositivi di memoria è quello relativo alle proprietà di sicurezza in senso lato. Ognuno di noi sa bene che la propria memoria non sempre conserva il ricordo fedele degli eventi passati. Quanto possiamo fidarci invece delle memorie elettroniche? Per rispondere occorre considerare le diverse possibili cause di errore. La tipologia più semplice è quella legata all’alterazione dei valori di uno dei bit del dato. Si consideri il seguente scenario. Per una causa fisica transitoria, quale ad esempio un disturbo elettrico, uno dei bit del dato, che assumiamo valga 1, si corrompe durante la lettura trasformandosi in 0. Un tale errore può, ad esempio, far sì che il byte 00001010 venga letto come 00001000, ossia che si legga il numero 8 quando il dato corretto era, invece, il numero 10. I progettisti proteggono i dispositivi da questi errori mediante il principio della ridondanza, ossia aggiungendo agli otto bit di ogni byte uno o più bit di controllo che permettono di scoprire e correggere eventuali errori. Ben più insidiosi sono gli errori provocati intenzionalmente da un attaccante che riesce a modificare i dati senza avere l’autorizzazione per farlo. Altri attacchi si limitano a leggere (spiare) i dati sensibili di persone o organismi, anziché modificarne il contenuto, per trarne un illecito vantaggio. Attacchi informatici di questo tipo possono avere conseguenze gravissime per il buon funzionamento di una nazione. Ad essi si risponde con una pluralità di misure di sicurezza. Una delle più comuni è la cifratura dei dati prima della loro memorizzazione. Vanno, infine, considerati i possibili malfunzionamenti e guasti. Se un dispositivo di memoria si guasta la perdita dei dati può essere completa e irreversibile, se non si è provveduto a duplicarli su
34
Cinque parole della scienza
altre memorie. È quindi importante conoscere la durata (in termini di numero di operazioni) e la longevità (in termini di anni) di ogni tipo di memoria. Ad esempio, la plastica dei dischi ottici CD si degrada dopo alcuni anni, specie se esposta al calore, mentre le comuni chiavette possono guastarsi dopo un numero abbastanza limitato di scritture. Anche se diversa dalle precedenti cause, l’obsolescenza di una particolare tecnologia di memoria provoca la perdita di dati, o quantomeno una difficoltà di accesso ad essi. Un caso esemplare è quello dei dischetti magnetici (floppy disk) diffusissimi fino a una ventina di anni fa, poi soppiantati da altri tipi di memoria e oggi di fatto inutilizzabili. 2.6. Principi fisici della memoria Non è possibile presentare in questa sede un quadro completo dei principi fisici alla base della rappresentazione dei bit nelle memorie e della realizzazione delle operazioni di lettura e scrittura. Un volume microscopico di materia costituisce la cella di memoria che può trovarsi in due stati fisici stabili diversi, che vengono convenzionalmente interpretati come una rappresentazione del bit 0 e del bit 1. Se la diversità tra i due stati risiede in una carica magnetica, si parla di memoria magnetica, se risiede in una proprietà ottica, si parla di memoria ottica. In sostanza, le memorie dette a stato solido rappresentano il bit mediante una proprietà elettrica, o più in generale fisica, della cella: tensione alta/bassa, carica elettrica, stato fisico cristallino/amorfo ecc. Il progresso ha permesso di ridurre enormemente le dimensioni della cella di memoria, ossia di ottenere delle densità di memoria sempre più elevate. Per fornire un termine di riferimento, nel 2014 sono entrate in produzione memorie con una densità pari a 300 tera per pollice cubo. Un’altra importante differenza fra i diversi tipi di memoria è quella tra memorie rotanti e stazionarie, che ha delle ovvie conseguenze sulla loro durata e longevità. Per portare il blocco di dati contenente le celle desiderate sotto una testina di lettura e di scrittura, le memorie magnetiche e ottiche devono ricorrere con poche eccezioni a una rotazione meccanica. Al contrario, le memo-
Memoria e previsione: il punto di vista dell’informatica
35
rie a stato solido hanno il pregio di essere prive di organi in movimento. 2.7. Consumi energetici e costi La miniaturizzazione delle celle non ha solo lo scopo di creare apparecchi sempre più compatti e potenti (come i telefoni cellulari), ma anche di ridurre l’energia necessaria per il funzionamento delle memorie, ossia il costo energetico (espresso in joule) necessario per eseguire una lettura o una scrittura, oltre che per mantenere la memoria qualora essa sia volatile. L’importanza del risparmio energetico consentito dalle memorie più recenti è facilmente comprensibile, ricordando che il consumo elettrico dei grandi centri per l’immagazzinamento dei dati (“server”) è tanto elevato da costituire un serio problema ecologico ambientale. Di pari passo con tali sviluppi, il costo di produzione delle memorie, a parità di capacità, è storicamente sceso in modo esponenziale, favorendo una rapida crescita del parco installato. I dati forniti dai produttori mostrano che tra il 1986 e il 2007 il rapporto tra la capacità mondiale delle memorie e la popolazione mondiale ha raddoppiato ogni 40 mesi. Sempre nello stesso periodo, il rapporto tra la capacità mondiale dei canali di comunicazione e la popolazione ha raddoppiato ogni 34 mesi, ossia è cresciuto ancora più in fretta. 2.8. Alcune considerazioni di natura generale Sulla scorta di questo breve inquadramento delle principali caratteristiche tecnologiche e funzionali delle memorie artificiali vogliamo svolgere due riflessioni di natura generale. La prima riguarda il rapporto tra la memorizzazione e la trasmissione dei dati e muove dall’osservazione che la stessa unità, il byte/sec (spesso nell’ambito delle telecomunicazioni vengono utilizzati il bit al secondo, bit/secondo, e i suoi vari multipli), viene utilizzata per misurare la velocità di una memoria e la capacità trasmissiva di un canale (fibra, microonde). La rappresentazione dei dati nei due casi è ovviamente diversa: nelle memorie i dati sono rappresentati dallo stato fisico di una cella materiale, mentre nello spazio tra due antenne i dati viaggiano con le onde elettromagne-
36
Cinque parole della scienza
tiche che portano il segnale, non sono localizzati e non c’è trasporto di materia. Ciò nonostante, non sembra improprio parlare della trasmissione dei dati come di un’altra forma di memoria artificiale (la trasmissione come memoria)4. L’idea di una coesistenza tra queste due forme di memoria è di recente emersa anche in ambito filosofico in riferimento alla memoria psichica, che si immagina articolata in una componente materiale, collocata nel cervello, e in forme non localizzate5. La seconda riflessione riguarda le (poche) somiglianze e le (tante) differenze tra le memorie artificiali e le memorie naturali. La distinzione tra memorie artificiali volatili e non volatili può essere messa in corrispondenza con la distinzione tra la memoria psichica, che è – o sembra essere – volatile, e la memoria genetica, che è decisamente meno volatile. Analogamente, la distinzione tra le “modalità di funzionamento” a breve e a lungo termine della memoria psichica presenta dei punti di contatto con le differenze fra i diversi livelli della gerarchia delle memorie artificiali. Per quanto riguarda le differenze, osserviamo fondamentalmente come sia difficile ridurre il ricordo di un episodio vissuto all’attivazione di un blocco di memoria. In particolare, il ricordo è quasi sempre soggettivo e parziale, ed è selettivamente orientato da associazioni6.
3. Modelli astratti e concreti della memoria Dopo aver dato uno sguardo alle tecnologie costruttive delle memorie fisiche, vediamo ora il modo in cui l’informatica modella e organizza le memorie per servirsene nelle tante sue applicazio4 A conferma di tale affermazione, uno dei primi modelli di memoria, presto abbandonato, utilizzava una linea di trasmissione chiusa ad anello sulla quale il dato circolava in continuazione. 5 Si veda, ad esempio, Alva Noë, Out of our heads. Why you are not your brain, and other lessons from the biology of consciousness, Hill and Wang, New York 2009; tr. it. Perché non siamo il nostro cervello. Una teoria radicale della coscienza, Raffaello Cortina, Milano 2010. 6 Osserviamo, per inciso, come alcune strutture dei dati proposte in ambito informatico cerchino di simulare quest’ultima caratteristica delle memorie psichiche.
Memoria e previsione: il punto di vista dell’informatica
37
ni. Il discorso potrebbe essere articolato in diversi modi; abbiamo scelto di iniziare da una prospettiva teorica, per poi passare all’organizzazione che il sistema operativo crea per facilitare l’uso della memoria da parte dei programmi. Nel capitolo seguente prenderemo in considerazione la prospettiva delle applicazioni che gestiscono e analizzano masse sempre più gigantesche di dati sparsi su tutta la rete. 3.1. Modelli astratti La fisica, per studiare la realtà, fa uso di modelli che descrivono soltanto alcuni degli aspetti misurabili del reale e astraggono da altri. Ciò allo scopo di semplificare lo studio, mantenendo soltanto le proprietà indispensabili per lo scopo cui il modello è rivolto. Anche al di fuori della fisica il metodo di studio mediante astrazioni è molto diffuso. Un esempio è proprio il modo in cui l’informatica studia le funzioni essenziali che una memoria deve fornire agli algoritmi e alle applicazioni (in verità, lo studio astratto delle memorie precede di molti anni il riconoscimento non solo dell’informatica come scienza, ma anche l’invenzione del calcolo elettronico). I matematici e i logici che nella prima metà del Novecento hanno cercato di spiegare quale sia la natura essenziale d’un procedimento matematico, ossia di un algoritmo, hanno subito capito che esso richiede due componenti indispensabili: il programma delle operazioni (o istruzioni) da eseguire e una memoria, dove inizialmente l’algoritmo trova i dati del problema e poi, via via che procede, memorizza i risultati intermedi del calcolo e, infine, le risposte al termine del procedimento. L’idea fondamentale, dunque, è che ogni procedimento ripetibile sistematicamente possa essere svolto da un automa capace di eseguire soltanto un repertorio limitato di operazioni di lettura, modifica e scrittura di un dato alla volta, su una memoria che può avere capacità illimitata. Tale idea fu declinata in diversi modelli astratti da vari scienziati, ad esempio da Alonzo Church, mediante le funzioni ricorsive. Ma il modello più diffuso e comprensibile anche al profano è senza dubbio quello della macchina (in senso astratto) di Alan Turing.
38
Cinque parole della scienza
3.2. La macchina di Turing La macchina di Turing potrebbe essere facilmente realizzata con carta, matita e gomma e, per chi sa programmare, anche mediante un PC o un cellulare. Qui possiamo solo descriverla. La macchina usa due tipi diversi di memoria per contenere le istruzioni del programma e per contenere i dati. Ogni istruzione occupa una riga di una tabella, cioè di una memoria avente la capacità necessaria per contenere un particolare programma. La macchina, conoscendo il numero della riga, può leggere in un passo l’istruzione ivi contenuta, che è quella che va eseguita. Poiché il programma è fissato in funzione dell’applicazione, la macchina non modifica le istruzioni, ma può solo leggerle. La memoria per i dati si presenta, invece, come un nastro di lunghezza idealmente illimitata suddiviso in caselle contenenti un solo carattere. La macchina può leggere una sola casella per volta, la casella che in quel momento si trova sotto la testina di lettura/scrittura. L’istruzione in esecuzione poi ordina di scrivere un carattere in quella casella, di muovere la testina sulla casella posta a sinistra o a destra e di leggere la nuova istruzione da una certa riga della tabella. È chiaro che il numero di passi per raggiungere una casella del nastro dipende dalla sua distanza dalla posizione della testina di lettura, al contrario della tabella in cui ogni riga viene letta in un solo passo. Con una terminologia a noi nota dalla tecnologia delle memorie diciamo che la memoria delle istruzioni è ad accesso casuale mentre il nastro è ad accesso sequenziale. Ma perché questa differenza? Si potrebbero, infatti, mettere anche le istruzioni nel nastro, in una zona separata da quella occupata dai dati. In effetti, ciò si fa nella macchina di Turing detta universale perché capace di eseguire qualsiasi algoritmo purché il suo programma sia caricato sul nastro all’inizio delle operazioni. Quando cambia l’applicazione, la macchina caricherà un nuovo programma al posto del vecchio. Eppure anche nella macchina universale deve essere presente una piccolissima memoria ad accesso casuale che contiene il programma necessario per andare a cercare le istruzioni del programma specifico che cambia da un’applicazione all’altra. Confrontiamo mentalmente il numero di passi che faranno la macchina universale e la macchina specializzata, supponendo che
Memoria e previsione: il punto di vista dell’informatica
39
entrambe eseguano lo stesso compito. È evidente che mentre la macchina specializzata fa un’operazione sul nastro, la testina della macchina universale farà molti passi percorrendo lunghi tratti del nastro per prendere l’istruzione da eseguire e poi per riportarsi sulla casella del dato su cui deve agire. Questo è il costo che una macchina generica deve pagare rispetto a una macchina specializzata. 3.3. Lunghezza del nastro Il nastro della macchina di Turing non è altro che una scritta in cui la “gomma” e la “matita” dell’operatore possono modificare una lettera alla volta spostandosi a destra od a sinistra. Dopo tanti spostamenti a sinistra, la matita toccherà la prima lettera del testo, la quale è riconoscibile essendo preceduta da caselle bianche. Se necessario, la matita potrà scrivere anche in queste caselle, allungando così il testo; analogamente, potrà scrivere nelle caselle bianche che seguono la fine del testo. La lunghezza del nastro effettivamente utilizzato quando si esegue un certo algoritmo viene spesso presa come una misura della complessità spaziale, ossia della quantità di memoria necessaria, dell’algoritmo medesimo, ma di questo parleremo più avanti. 3.4. Nastri particolari: la pila Il nastro, benché in apparenza rudimentale, permette in linea di principio alla macchina di Turing di eseguire ogni algoritmo che l’uomo abbia finora escogitato. Molti problemi, però, non richiedono una macchina così potente e possono essere trattati in modo più semplice, usando dei meccanismi di memoria più limitati. Un esempio significativo è quello del nastro di memoria detto “a pila” perché, se disegnato in verticale, rappresenta una pila di piattini, corrispondenti ai caratteri del testo. Soltanto il carattere in cima alla pila può essere letto e modificato dalle operazioni di questa macchina, che si chiama automa a pila. Essa può deporre un nuovo piattino sulla pila mediante un’operazione che corrisponde alla scrittura nella casella bianca che segue la fine del nastro della macchina di Turing. Come detto, questo automa non può leggere una lettera che giace all’interno della pila se non dopo aver cancellato tutte le lettere sovrastanti affinché la casella voluta venga a tro-
40
Cinque parole della scienza
varsi in cima a quello che resta della pila. Tali cancellazioni alla fine svuoteranno la pila rendendo visibile il fondo su cui essa appoggia. La pila vuota non può, però, crescere verso il basso, ma soltanto verso l’alto, mediante la deposizione di nuovi piattini. Vediamo una proprietà caratteristica che dà il secondo nome con cui la memoria a pila è nota. Il lettore immagini di depositare sulla pila vuota gli elementi α, β, γ in questo stesso ordine; poi immagini di leggere ed estrarre dalla pila il primo, secondo e terzo elemento, partendo necessariamente da quello in cima alla pila, cioè da γ. L’ordine di uscita dalla pila è dunque γ, β, α, ossia l’inverso dell’ordine di entrata degli elementi nella pila. Per questo la pila viene spesso detta espressivamente una memoria del tipo last-in-firstout, in breve LIFO. Ma in quali ambiti servono le memorie LIFO/pila? Un primo caso comunissimo è quello dei sottoprogrammi (procedure o subroutine) che s’incontrano ad ogni passo non solo nel software, ma anche nel comportamento umano (e in generale degli animali superiori). Ecco un esempio. Ho in programma d’andare a Parigi. Per realizzarlo, devo avviare altri sottoprogrammi: la ricerca dell’orario e l’acquisto del biglietto, la preparazione della valigia ecc. Ma se scopro che la valigia non chiude, devo sospendere il lavoro e avviare il sottoprogramma che ha lo scopo di comprare una nuova valigia, il che richiede l’avvio di una nuova procedura per prendere l’autobus e così via in una serie di livelli di sottoprogrammi potenzialmente illimitata. Dovrebbe essere chiaro che l’ordine in cui i diversi sottoprogrammi iniziano è l’inverso di quello in cui essi terminano. Si tratta quindi di un altro esempio dello schema LIFO. La memoria degli animali ha, dunque, la capacità di coordinare l’esecuzione di più sottoprogrammi che si “chiamano” tra loro. Anche la linguistica ben illustra l’utilità della memoria a pila, con la diffusissima teoria delle grammatiche non contestuali di Noam Chomsky. Un costrutto linguistico molto comune consiste di una proposizione principale contenente anche delle proposizioni subordinate, ognuna delle quali può includere a sua volta complementi, sostantivi e attributi e altre subordinate. Tale costrutto è come una struttura a scatole cinesi. Esso è più semplice da descrivere astraendo dalla particolare lingua
Memoria e previsione: il punto di vista dell’informatica
41
considerata, se si pensa a un testo fatto di sole parentesi (tonde, quadre e graffe) che possono essere incassate le une nelle altre a piacere, pur di rispettare la ben nota regola che ogni parentesi aperta deve essere poi chiusa da una parentesi del medesimo tipo. Un testo è sintatticamente corretto se non contiene né una parentesi aperta ma non chiusa, né una parentesi chiusa che non sia stata prima aperta. Ciò è facile da controllare per mezzo di un automa a pila, che scandisce il testo dall’inizio alla fine, scrive sulla pila inizialmente vuota ogni parentesi aperta incontrata e cancella l’elemento posto in cima alla pila ogniqualvolta incontra la parentesi chiusa del medesimo tipo. Se al termine la pila si svuota, allora il testo è corretto. L’importanza che una memoria a pila sembra avere per tanti comportamenti umani, linguistici e non, ha spinto gli studiosi del cervello a ricercarvi i meccanismi che potrebbero realizzare la modalità di accesso LIFO. Ma finora non sembrano esservi risultati accertati. Certo è che nell’agire degli smemorati si notano spesso delle “parentesi aperte” che non si chiudono, ossia dei sottoprogrammi iniziati ma non portati a termine, come se tale memoria interiore a pila perdesse delle informazioni. 3.5. I contatori Un contatore è una memoria capace di conservare un numero intero. Consideriamo, ad esempio, il numero 10. Si vede facilmente che per memorizzarlo si può usare il nastro della pila, scrivendovi una dopo l’altra dieci lettere eguali. Se si vuole, però, che più numeri siano contemporaneamente disponibili al programma, una sola pila non basta e si devono usare altrettante pile. La macchina di Turing, invece, è in grado di rappresentare più numeri in zone diverse del nastro e non ha bisogno di ricorrere a più nastri separati: questa è un’altra dimostrazione della sorprendente potenza del modello pur così semplice pensato da Turing. 3.6. Dalla pila alla coda e oltre Che cosa sia una coda tutti lo sperimentiamo quando richiediamo un servizio a uno sportello affollato. Nella società, le code
42
Cinque parole della scienza
servono a regolare in modo equo l’erogazione dei servizi, funzione che viene sempre più spesso delegata alle procedure informatizzate che prendono il posto degli impiegati. Per l’informatica, una coda è un nastro in cui gli elementi da memorizzare entrano sempre dal capo (immaginiamo sinistro), accodandosi agli elementi già presenti. Soltanto l’elemento posto all’estremo destro del nastro, ossia in testa alla coda, può essere letto e tolto dal nastro. Questa modalità di gestione dà il nome di FIFO (first-in-first-out) alla memoria a coda. Il contrasto tra la gestione LIFO della pila e quella FIFO della coda è evidente: se l’impiegato allo sportello servisse i clienti in attesa in ordine LIFO, chi arriva prima passerebbe sempre dopo gli ultimi ritardatari e scoppierebbe una rivolta! La presenza del modello di memoria a coda non è però limitata alla gestione delle richieste di servizi. Esempi del tipo FIFO si ritrovano infatti, pur se in forme meno facili da spiegare, anche nelle strutture sintattiche di certi linguaggi naturali e perfino nella struttura del “linguaggio della vita”, ossia nelle sequenze del DNA. In entrambi i casi, le sequenze delle parole o delle lettere presentano sia tratti aventi una struttura FIFO sia tratti con struttura LIFO. La presenza di tratti dei due diversi tipi è correlata con le spire e le pieghe presenti nella disposizione fisica spaziale del gomitolo del DNA. Per concludere, i modelli astratti delle memorie sono preziosi per presentare in modo essenziale, ma semplificato, le strutture dei dati che servono a descrivere certi sottosistemi naturali o artificiali. Ma è insito nella natura di ogni modello astratto di non essere fisicamente realizzabile, perché esso prescinde da certe limitazioni fisiche. Ad esempio, nella macchina di Turing si immagina che il nastro possa avere lunghezza illimitata, cosa fisicamente impossibile. Nel caso dei numeri interi rappresentati come contatori, il numero di caratteri necessari risulta esponenzialmente più grande rispetto alla comune rappresentazione in base dieci; ciò richiederebbe dei nastri di lunghezza improponibile. Se tutti i precedenti modelli astratti trascurano ogni aspetto di fisica realizzabilità perché non hanno una finalità pratica, i modelli che ora vedremo, ancora più brevemente, sono quelli praticamente impiegati in tutti i sistemi informatici, quali i PC, i telefonini, tablet e i grandi server della Rete.
Memoria e previsione: il punto di vista dell’informatica
43
3.7. Gestione della memoria delle macchine Le memorie fisiche, illustrate nella Sezione 2, forniscono all’elaboratore dei comandi semplici per scrivere o leggere un blocco di byte, localizzato a un certo indirizzo all’interno di una certa memoria, detta primaria o secondaria a seconda che si trovi sul processore o all’esterno di esso. Al processore appartiene poi la memoria rapidissima a cache che contiene i dati più frequentemente usati in un certo momento. L’architettura degli apparecchi digitali moderni dispone di un certo numero di processori operanti simultaneamente (architettura multi-core), ai quali si aggiunge un processore specializzato per l’elaborazione delle immagini del video (GPU), anch’esso dotato di memoria. Processori e memorie comunicano fra loro attraverso una rete localizzata sul chip di silicio. Mettiamoci ora dal punto di vista delle app, cioè dei programmi applicativi. Questi operano su strutture di memoria più organizzate di quelle fisiche, perché devono rappresentare i propri dati. Si pensi, ad esempio, alla rubrica dei contatti, contenente nomi, telefoni, indirizzi e altre informazioni, il tutto organizzato in modo da facilitare le ricerche per nome, per gruppo di appartenenza o in altri modi. Evidentemente, né il progettista della app né tanto meno l’utente finale vogliono e possono farsi carico di decidere su quale memoria (e di quale processore) collocare i dati di uno o dell’altro contatto e quando convenga spostarli da una memoria all’altra. Infatti, gli stessi dati devono continuamente muoversi, vuoi per ragioni di efficienza, in modo da avvicinarsi al processore che li sta elaborando, vuoi per garantirne la permanenza, trasferendoli in una memoria secondaria non volatile. A togliere d’impiccio gli sviluppatori delle app provvede il sistema operativo (abbreviato SO), che è un programma fornito insieme all’apparecchio. Esso gestisce, oltre alle memorie, le altre risorse di calcolo, cioè i processori, le unità periferiche (schermo, tastiera, audio, scansore ecc.) e le comunicazioni con le reti esterne. L’insieme delle memorie dell’elaboratore è gestito dal SO come una risorsa unitaria a disposizione di tutte le applicazioni. Questo modello di gestione della memoria risale ai primi grandi elaboratori IBM degli anni Sessanta e ha raggiunto un ottimo livello di maturità. Esso va
44
Cinque parole della scienza
sotto il nome di memoria virtuale, perché trasforma agli occhi delle app un parco di memorie fisiche eterogenee in un unico spazio uniforme, dove memorizzare i propri dati senza preoccuparsi della posizione né dei conflitti con i dati delle altre applicazioni. Di volta in volta, il SO trasferisce i dati realmente necessari dalla memoria secondaria alla memoria primaria e alla cache veloce; viceversa, trasferisce altrove quei dati che sono stati creati o aggiornati nella memoria primaria, per garantirne la conservazione fino a nuovo uso e per liberare spazio nella memoria primaria, che essendo più piccola rappresenta un collo di bottiglia. Grazie alla memoria virtuale un programma potrà semplicemente richiedere al SO l’indirizzo di un blocco abbastanza grande per contenere i propri dati. Tale blocco sarà liberato dal SO quando il programma richiedente avrà terminato. Alcune app, come la rubrica del telefonino, non terminano mai e i loro dati permangono nella memoria, a meno che l’utente non decida di cancellarli. A forza di creare nuovi dati si può dunque arrivare alla spiacevole situazione in cui l’intero spazio di memoria è saturato dai dati, pur se certuni hanno perso ogni interesse e attualità. Più frequente è il caso in cui la memoria, pur se non satura, è frammentata in tante zone occupate separate da zone libere troppo piccole per accogliere i blocchi richiesti dalle app. In tal caso, il SO interviene in diversi modi: per compattare le zone occupate, e di conseguenza anche quelle libere, o, più radicalmente, per recuperare gli “scarti”, intesi come quelle aree di memoria occupate da dati che sono obsoleti e non interessano più a nessuno. Qui nasce una domanda interessante: come si fa a riconoscere se un certo blocco di memoria contiene dati utili (informazioni), oppure spazzatura? Per il SO, che conosce esattamente le app installate sulla macchina, è solitamente possibile riconoscere i dati eliminabili. Se anziché una singola macchina si considera però una rete con tanti apparecchi digitali indipendenti, intercomunicanti e con tanti utenti diversi e sconosciuti, la risposta non è né netta né facile e richiede molti distinguo. Vi accenneremo nella Sezione 6, parlando dell’informazione associata ai dati. I criteri seguiti dal SO per gestire le memorie sono dunque piuttosto articolati e non è questa la sede per esporli; ci sembra
Memoria e previsione: il punto di vista dell’informatica
45
però interessante menzionare almeno il criterio di località. Esso afferma che se un programma all’istante t ha usato un certo dato, allora è probabile che lo stesso dato, e anche i dati aventi qualche tipo di associazione con esso, saranno utilizzati negli istanti successivi. Di conseguenza, per evitare di perdere tempo in seguito, il SO, ricevendo dal programma la richiesta di un dato, lo trasferirà nella memoria primaria insieme al blocco di memoria contenente i dati ad esso correlati, e farà il possibile per mantenervelo per qualche tempo. Il criterio di località ben riflette un accorgimento che ogni persona sensata adotta nelle proprie attività: se per piantare un chiodo mi serve il martello, andando nel box a prenderlo avrò l’accortezza di prendere tutta la cassetta dei ferri e non la riporrò fino a quando non sarò certo di aver finito il lavoro. L’informatica è fatta di sistemi che partono dalle dimensioni microscopiche dei transistori integrati sul chip e – passando per telefonini, PC e reti locali domotiche e d’ufficio – raggiungono le dimensioni globali della Rete. Gli schemi organizzativi per la gestione delle memorie, nati per apparecchiature di dimensione ben maggiore, sono stati spesso adottati anche sui chip, dove l’integrazione dei componenti elettronici ha permesso di realizzare sistemi digitali tanto complessi quanto le apparecchiature di prima generazione. Così, la piccola rete degli otto processori del mio portatile, con annesse memorie, assomiglia al parco delle macchine connesse in rete locale, comprendente PC, stampanti e un server che fornisce una memoria capace, affidabile e protetta alla comunità degli utenti del mio ufficio. Più in grande, di recente, si è sviluppata l’offerta commerciale di servizi remoti di memorizzazione per conservare i dati di aziende o di enti pubblici. Con un’arguta metafora, si dice che tali servizi sono su una nuvola, forse perché non se ne conosce l’esatta posizione geografica, che del resto avrebbe poco interesse, tranne che in caso di guerre o catastrofi naturali.
4. Memoria e scienza dei dati In questa sezione, ci occuperemo degli strumenti informatici sviluppati specificamente per la gestione di ampie collezioni di dati.
46
Cinque parole della scienza
Partiremo dalle basi di dati, di fatto presenti in ogni sistema informatico, per poi passare a strumenti più avanzati necessari per trattare quantità di dati impensabili fino a pochi anni fa. 4.1. I sistemi di basi di dati Come abbiamo visto nella sezione precedente, la gestione della memoria è una componente necessaria per ogni applicazione informatica di una certa complessità. Vi sono però dei sistemi che trovano la loro ragion d’essere nell’organizzazione e nella gestione di grandi insiemi di dati, i quali sono il principale campo di interesse per il sistema. È questo il caso dei sistemi di basi di dati, che sono parte essenziale dei sistemi informativi comunemente usati. Un sistema di basi di dati comprende due parti: una collezione di file interconnessi (blocchi di dati) e un insieme di programmi che consentono di accedere e modificare tali file. Vi è, però, un aspetto importante che tale definizione non fa emergere. Un sistema di basi di dati contempla i dati con tre livelli di astrazione: il livello fisico (o interno), il livello logico e il livello esterno. A ciascun livello corrisponde una diversa vista sui dati e dunque una modalità distinta di interazione con il sistema. Al livello fisico, la base di dati viene descritta come un insieme di elementi registrati nella memoria secondaria attraverso appropriate disposizioni fisiche per la loro memorizzazione. Al livello logico, i dati sono organizzati secondo il loro contenuto informativo utilizzando i costrutti messi a disposizione da uno specifico modello dei dati. Tale modello consente di descrivere la struttura di ciascun dato e i legami esistenti tra dati diversi. Il modello di gran lunga più utilizzato è il modello relazionale che organizza i dati in un insieme di tabelle opportunamente collegate fra loro. Al livello esterno vengono create viste diverse (di porzioni) della base di dati di interesse per specifiche classi di utenti. Si pensi al caso della base di dati di un’università. Uno studente iscritto al corso di laurea in biologia vedrà le informazioni relative agli insegnamenti di tale corso, al proprio piano di studi e agli esami sostenuti. Un docente, invece, avrà accesso a tutte le informazioni di carattere generale relative al dipartimento cui afferisce, ai corsi di laurea in cui insegna e agli studenti che frequentano i suoi inse-
Memoria e previsione: il punto di vista dell’informatica
47
gnamenti, ma non potrà vedere i voti degli studenti nel caso di insegnamenti da lui non tenuti. Tre sono le caratteristiche distintive delle basi di dati gestite da tali sistemi: persistenza, mole e globalità dei dati. Per garantire la persistenza dei dati nel tempo, la base di dati risiede stabilmente nella memoria secondaria ed esiste indipendentemente dai programmi che interagiscono con essa per ottenere le informazioni di interesse o per aggiornare la base dei dati con inserimenti, cancellazioni e modifiche. La seconda caratteristica è l’utilizzo per la gestione di grandi quantità di dati, dove il termine grande ha un significato ben preciso: una quantità di dati che supera la capacità della memoria primaria. Per il buon funzionamento, senza ritardi, il sistema deve continuamente decidere quali dati caricare e mantenere nella memoria primaria e deve eseguire in modo efficiente le frequenti operazioni di trasferimento dei dati da memoria secondaria a memoria primaria e viceversa. Si noti che, nonostante la crescita della capacità delle memorie a stato solido usate come memoria primaria, il problema dei trasferimenti tra le memorie sussiste, perché negli stessi anni è avvenuto un aumento delle dimensioni delle basi di dati, determinato in buona misura dalla natura sempre più complessa dei dati da gestire (immagini, audio, filmati…). La terza caratteristica è la globalità dei dati: i dati sono di interesse per una pluralità di utenti/programmi e occorre disciplinarne l’utilizzo. In particolare, devono essere specificati e gestiti i diritti di accesso ai dati e garantita la privatezza dei dati sensibili. Devono inoltre essere risolti i possibili conflitti fra utenti diversi che vogliano operare nello stesso momento sui medesimi dati. Oltre alle caratteristiche proprie ve ne sono altre di natura generale, che accomunano un sistema di basi di dati ad un qualunque altro sistema informatico e sono necessarie per un suo buon utilizzo. La più ovvia è la facilità d’uso. L’utente deve poter interagire con il sistema in modo semplice ed intuitivo. Nei sistemi di basi di dati ciò si traduce nell’affiancamento di semplici interfacce grafiche accanto ai comandi testuali, di solito preferiti dagli utenti più esperti. Più importante, però, è la proprietà che rende del tutto trasparente all’utente (persona o programma) l’effettiva organizzazione dei dati a livello fisico e le procedure utilizzate a tale livello per l’accesso e la
48
Cinque parole della scienza
manipolazione dei dati. Il pieno soddisfacimento di tale proprietà ha rappresentato la vera chiave di svolta dal punto di vista della diffusione dei sistemi di basi di dati. Essa permette di mantenere inalterata la visione dei dati da parte dell’utente (livello logico e livello esterno) al variare dalla realizzazione fisica del sistema (livello fisico). Nel caso del modello relazionale, ciò significa che un utente può operare sulle tabelle della base di dati senza dover conoscere il modo in cui esse sono effettivamente memorizzate (per righe piuttosto che per colonne o in un qualsiasi altro modo). Fra le molte ricadute positive di tale proprietà vi è la possibilità di utilizzare una base di dati su piattaforme diverse e di distribuire fisicamente una base di dati sulle macchine di una rete. Un’altra caratteristica essenziale è la rapidità delle operazioni di accesso ai dati (interrogazione della base di dati). Diversi fattori concorrono alla realizzazione di tale proprietà. Un ruolo fondamentale è svolto da alcune strutture dati ausiliarie, dette di indicizzazione o semplicemente indici, utilizzate per l’accesso ai dati in memoria secondaria. Il loro funzionamento ricorda da vicino gli indici analitici dei libri. L’indice analitico, come il libro, è un testo ma è molto più breve e quindi più veloce da scorrere. Esso si compone di una lista di termini ordinati alfabeticamente, ciascuno accompagnato da una lista (ordinata) dei numeri di pagina ove il termine compare. La ricerca di un termine nell’indice può essere effettuata esattamente come la ricerca di una parola in un vocabolario (ricerca dicotomica) e risulta assai rapida grazie all’ordinamento dei termini e alla dimensione ridotta dell’indice. Una volta trovati i numeri di pagina associati a un certo termine, si accede direttamente alle corrispondenti parti del libro. Nel contesto delle basi di dati, un indice è una struttura-dati ausiliaria affiancata al file dei dati. Quando viene richiesto un certo dato, il sistema esegue inizialmente un numero limitato di accessi all’indice, necessari per localizzare successivamente il dato di interesse nel file dei dati. Nelle realizzazioni più semplici (indici di singolo livello), un indice è un file ordinato, contenente tutti i valori del campo (o attributo) utilizzato per la ricerca: ad esempio, i numeri di matricola degli studenti di una determinata università. Ad ogni valore sono associati i puntatori ai corrispondenti elementi del
Memoria e previsione: il punto di vista dell’informatica
49
file dei dati dove stanno le informazioni disponibili per quello studente. Nelle realizzazioni più perfezionate e più diffuse (indici multilivello statici o dinamici), l’indice è una struttura ad albero, che permette di raggiungere in modo molto veloce la posizione dei dati di interesse, all’interno della base di dati. Un terzo requisito, più difficile da definire ma non meno importante, è l’efficacia. Per risultare veramente conveniente un sistema di basi di dati deve contribuire al miglioramento complessivo del sistema in cui viene inserito. Se l’aggiunta di tale componente complica o appesantisce eccessivamente il sistema, rendendone l’utilizzo più difficoltoso, il progetto è destinato al fallimento. Numerosi sono i fallimenti registrati nei più diversi ambiti applicativi per il mancato soddisfacimento di tale requisito. Per operare con una base di dati sono stati progettati dei linguaggi (come SQL negli anni Settanta) che permettono di selezionare i dati desiderati e anche di manipolarli. I sistemi di basi di dati sono organizzati in modo da rendere l’esecuzione di tali comandi (transazioni) efficiente e affidabile e vengono allora chiamati sistemi per la gestione “in linea” dei dati (On Line Transaction Processing, abbreviato OLTP). L’accumulo progressivo da parte delle aziende di dati circa le attività dai loro clienti, siano essi gli acquisti effettuati presso una catena di supermercati o i dati riguardanti le operazioni eseguite presso filiali bancarie, ha fatto emergere un nuovo punto di vista sulla gestione e l’utilizzo dei dati. Tali raccolte di dati crescono nel corso degli anni e costituiscono un patrimonio la cui analisi sistematica può fornire delle informazioni davvero utili per le scelte strategiche aziendali (business intelligence). 4.2. I data warehouse La necessità di disporre di strumenti in grado di analizzare quantità voluminosissime di dati e di fornire in tempi brevi le risposte desiderate, ha portato allo sviluppo di una nuova classe di sistemi, detti sistemi OLAP (On Line Analytical Processing). Infatti, il tentativo di utilizzare per tali analisi i precedenti sistemi di basi di dati OLTP si è rivelato presto impraticabile, perché i requisiti della
50
Cinque parole della scienza
gestione in linea dei dati e quelli dell’analisi dei dati non sono compatibili come ora diremo. Nei sistemi OLTP l’organizzazione logica dei dati è molto più rigida dovendosi rispettare un insieme di vincoli, detti forme normali, che ne garantiscono la consistenza. I dati presenti nei sistemi OLAP sono, invece, di regola denormalizzati al fine di permetterne un’elaborazione più veloce. I sistemi OLTP hanno di norma un numero estremamente elevato di utenti e di conseguenza devono prestare particolare attenzione alle regole per l’accesso ai dati. Al contrario, i sistemi OLAP hanno un numero ristretto di utenti, spesso con competenze assai avanzate e con esigenze ben focalizzate. I dati OLTP forniscono una fotografia dello stato corrente del dominio considerato (si pensi alla base di dati dell’ufficio anagrafe di un comune); diversamente, i sistemi OLAP registrano e mettono a disposizione ogni informazione via via acquisita nel tempo anche senza che ne fosse prevista l’utilità futura. I sistemi OLAP più comunemente usati sono i data warehouse, o magazzini di dati. Essi sono in grado di integrare grandi quantità di dati provenienti da sorgenti, ossia da basi di dati diverse e spesso eterogenee, e consentono di produrre in modo semplice ed efficiente analisi e rapporti utili ai processi di decisione aziendali. In molti casi, il data warehouse è suddiviso in un insieme di archivi più semplici, detti data mart, che contengono collezioni di dati omogenei perché relativi a un certo settore o ramo aziendale al quale interessano degli specifici obiettivi di analisi. Il trasferimento dei dati dalle sorgenti al deposito è svolto da un cosiddetto sistema di alimentazione, che sfrutta un insieme di strumenti per l’estrazione, la trasformazione e il caricamento dei dati e richiede una serie di passaggi intermedi. In particolare, l’eterogeneità dei dati alla sorgente impone un processo di pulizia e uniformazione. Inoltre, per poter elaborare i dati in modo efficace, sono necessari dei processi di aggregazione rispetto a certe dimensioni geografiche, temporali, economiche ecc. Per la gestione del magazzino sono utilizzate tecnologie differenti, in particolare le due seguenti: il potenziamento del modello relazionale per mezzo di appropriate strutture di indicizzazione, che consentono di eseguire efficientemente le operazioni insiemistiche e quelle di selezione e fusione dei dati (ROLAP) e altre so-
Memoria e previsione: il punto di vista dell’informatica
51
luzioni, che permettono di memorizzare i dati direttamente in forma multidimensionale (MOLAP). Per quanto riguarda le modalità di analisi, si distingue tra l’analisi multidimensionale, in cui i dati vengono esaminati in modo interattivo attraverso operazioni di aggregazione e disaggregazione rispetto a determinate dimensioni, e il data mining, che consente di individuare ed estrarre dai dati, in modo automatico o semi-automatico, delle regolarità nascoste. Le strategie di data mining si possono suddividere poi in supervisionate, quando i valori di output dipendono dai valori di input e vengono utilizzati per effettuare delle predizioni (classificazione, propensione, analisi di serie storiche, regressione); e non supervisionate, quando si cercano generiche relazioni fra i dati tramite le tecniche di clustering e l’individuazione di regole di associazione tra i dati. Nell’analisi vengono spesso utilizzati strumenti di statistica descrittiva. 4.3. I Big Data La recente vertiginosa crescita dei dati disponibili in una pluralità di contesti quali, ad esempio, i sistemi di monitoraggio delle reti idriche o energetiche, i file di log, che tengono traccia degli accessi ai siti web, le informazioni scambiate sulle reti sociali e i testi inseriti nei blog, ha reso i sistemi OLAP inadeguati in molti ambiti applicativi, facendo nascere l’esigenza di nuove tecnologie e di nuovi strumenti. L’espressione Big Data viene comunemente usata per indicare un’enorme collezione di dati (dell’ordine degli zettabyte, ovvero miliardi di terabyte) che per dimensioni, eterogeneità e dinamicità richiede metodi, tecniche e strumenti di analisi più mirati. In particolare, la forte presenza di dati con strutturazione sintattica parziale (dati semistrutturati) o assente (ad esempio, le audioregistrazioni) rende inutilizzabile il tradizionale modello relazionale. Inoltre, vi sono conclusioni che si possono trarre soltanto dall’analisi della totalità dei dati, essendovi informazioni che l’analisi indipendente delle singole parti in cui l’insieme completo dei dati può essere suddiviso non è in grado di dare. Il trattamento dei Big Data si articola in alcuni processi primari, in parte analoghi a quelli già visti per i magazzini dei dati. Nella
52
Cinque parole della scienza
fase di acquisizione sono tipicamente presenti processi di pulizia dei dati, processi di integrazione di dati provenienti da sorgenti differenti e processi di arricchimento di quei dati che furono raccolti insieme a informazioni di contesto. Per quanto concerne l’analisi, essa comprende i processi di ritrovamento dei dati mediante ricerche non, o poco, strutturate (information retrieval), i processi di estrazione di conoscenza (data mining e statistica inferenziale) e i processi di apprendimento automatico (machine learning). Un ruolo particolare è svolto dai metodi di predizione, nei quali trovano ampio spazio tecniche di natura statistica. Essi consentono di analizzare i dati disponibili al fine di individuare le caratteristiche/dimensioni più utili dal punto di vista della previsione di scenari futuri o alternativi (feature selection). Infine, assumono una considerevole importanza le tecniche e gli strumenti di visualizzazione dei dati, che forniscono una descrizione sintetica e di facile lettura del loro contenuto informativo. Dal punto di vista tecnologico le caratteristiche dei Big Data impongono l’uso di strumenti avanzati per l’organizzazione (sistemi detti noSQL), la memorizzazione (distribuzione dei dati, cloud computing, virtualizzazione) e l’elaborazione (high performance computing) dei dati. In particolare, nell’ambito della cosiddetta business analytics, sono stati proposti dei nuovi schemi di rappresentazione e manipolazione dei dati che contemplano la loro distribuzione e replicazione su più nodi (computer) interconnessi, al fine di gestire più velocemente tali enormi moli di dati mediante le elaborazioni in parallelo di una molteplicità di depositi di dati. Tale organizzazione risponde bene alla crescita della mole dei dati (scalabilità) e meglio resiste agli eventuali guasti di singoli sottosistemi. L’architettura di calcolo al momento più diffusa (ma lo scenario è in continua evoluzione) è basata sul paradigma di programmazione MapReduce, che si articola in tre passi fondamentali: la decomposizione di un problema/compito in più sottoproblemi, distribuiti su più nodi; l’esecuzione su tali nodi dei diversi compiti in parallelo (funzione map) e la raccolta, integrazione e restituzione dei risultati ottenuti (funzione reduce). Due sistemi di successo sono MapReduce di Google e Hadoop MapReduce della Apache Software Foundation.
Memoria e previsione: il punto di vista dell’informatica
53
Concludiamo la sezione dando conto di una posizione ideologica abbastanza diffusa, non solo fra coloro che operano nell’area dei Big Data ma anche all’interno della comunità scientifica in senso lato. La scienza dei dati sarebbe un nuovo paradigma della conoscenza “guidato dai dati”, destinato a soppiantare quello classico basato sulla formulazione di teorie e modelli a partire dalle osservazioni e sulla loro validazione/verifica sperimentale. L’assunto fondamentale ritiene che disponendo di una quantità sufficiente di dati – dotati di adeguata garanzia di significatività statistica – sarebbe possibile estrarre da essi, mediante algoritmi di apprendimento e/o di analisi statistica, leggi e modelli di valore generale. Sui punti di forza e di debolezza di tale posizione ritorneremo nelle considerazioni finali.
5. Spazio di memoria e tempo di calcolo Ci siamo occupati sin qui delle memorie fisiche, di quelle astratte e di quei sistemi, quali le basi di dati, i data warehouse e i sistemi per i Big Data, che hanno quale compito principale la gestione efficiente della memoria. La nozione di memoria riveste però un ruolo concettuale importante anche in altri ambiti dell’informatica verso i quali indirizzeremo la nostra attenzione in questa e nella prossima sezione. Cominciamo dall’uso della memoria quale misura di complessità di un problema o di un algoritmo. 5.1. Memoria e complessità computazionale Il concetto di algoritmo è universalmente riconosciuto come la nozione centrale dell’informatica7. Un algoritmo può essere definito come la descrizione finita, non ambigua, di una sequenza di passi che permette di risolvere un determinato problema. Della caratterizzazione dei problemi per i quali ha senso cercare un algoritmo 7 Per un’analisi più articolata di alcuni termini centrali dell’informatica, quali algoritmo, modello di calcolo, decidibilità e complessità, rimandiamo il lettore al contributo di A. Montanari, Per un vocabolario filosofico dell’informatica, in G. Cicchese – A. Pettorossi – S. Crespi Reghizzi – V. Senni (edd.), Scienze informatiche e biologiche. Epistemologia e ontologia, SEFIR-Città Nuova, Roma 2011, pp. 82-106.
54
Cinque parole della scienza
in grado di risolverli (problemi algoritmici), e dell’esistenza o meno di un algoritmo risolutivo per un dato problema algoritmico, si è occupata la ricerca in ambito logico-matematico nella prima metà del secolo scorso. La risposta alla domanda se possa esistere un algoritmo risolutivo per ogni problema (algoritmico) è negativa. L’esistenza di problemi (algoritmici) per i quali non esistono algoritmi in grado di risolverli si mostra facendo vedere che esistono certe funzioni matematiche per le quali non esiste un algoritmo in grado di computarle. L’argomentazione sfrutta il cosiddetto metodo della diagonale di Cantor e mostra che esistono più funzioni che nomi per designarle e algoritmi per computarle (si ricordi che una caratteristica essenziale di ogni algoritmo è il poter essere descritto in modo finito). Fra i problemi che non ammettono algoritmi risolutivi vi è anche il cruciale problema della terminazione, ossia il problema di stabilire se, dati un qualsiasi algoritmo e un suo possibile input, l’esecuzione dell’algoritmo sullo specifico input termina o meno. Tale risultato negativo fu dimostrato da Turing in un suo lavoro degli anni Trenta. La suddivisione dei problemi (algoritmici) in quelli per i quali esiste o non esiste un algoritmo risolutivo non è l’unica distinzione significativa per l’informatica. S’incontrano, infatti, problemi che ammettono una soluzione algoritmica, ma il calcolo è troppo costoso rispetto alle risorse necessarie; quindi, di fatto, risulta impraticabile. La classificazione dei problemi sulla base della quantità di risorse richieste per la loro soluzione mediante un qualche modello di calcolo (come la macchina di Turing) prende il nome di teoria della complessità computazionale. Per misurare la complessità di un problema (ma anche di un algoritmo che lo risolve) sono stati proposti parametri diversi. Quelli più comunemente utilizzati sono due: il numero di passi di esecuzione per risolvere quel problema, identificabile con il tempo di calcolo sotto l’ipotesi che ogni passo richieda un tempo finito; e lo spazio di memoria necessario per risolvere lo stesso problema. Negli ultimi anni si è iniziato a considerare quale parametro anche il consumo energetico. Affinché l’analisi della complessità sia significativa occorrono alcune precisazioni. Innanzitutto, il tempo e lo spazio necessari dipendono in generale dalla dimensione dell’input. L’ordinare un in-
Memoria e previsione: il punto di vista dell’informatica
55
sieme di 1.000.000 elementi è ovviamente più oneroso, dal punto di vista sia del tempo sia dello spazio, dell’ordinare un insieme di 1.000 elementi. Per tale ragione, il tempo e lo spazio richiesti vengono valutati al crescere della dimensione dell’input. Inoltre, a parità di dimensione, la complessità può dipendere dallo specifico input. Immaginiamo di dover ordinare in modo crescente una lista di n numeri. Uno degli algoritmi di ordinamento più semplici che possiamo usare, denominato bubble sort, procede collocando il numero più grande nella posizione corretta (l’ultima), poi il secondo numero più grande nella posizione corretta (la penultima), fino ad arrivare a collocare il numero più piccolo in prima posizione. Per collocare il numero più grande in ultima posizione l’algoritmo inizia confrontando i numeri in prima e seconda posizione, scambiandoli di posizione qualora il numero in prima posizione sia più grande di quello in seconda; successivamente, confronta i numeri in seconda e terza posizione, scambiandoli, se necessario, di posizione, fino ad arrivare a confrontare i numeri in penultima e ultima posizione. Al termine di tale sequenza di operazioni (n-1 confronti e, al più, n-1 scambi di posizione), avremo collocato in posizione corretta il numero più grande e potremo ripetere il procedimento limitatamente ai primi n-1 numeri, e così via. Il numero di scambi necessario all’algoritmo per generare la lista ordinata dipende pesantemente dalla disposizione dei numeri nella lista ricevuta in input: è pari a 0 se la lista è già ordinata in modo crescente; è massimo (pari a n-1 + n-2 +... + 1 = n·(n-1)/2) se la lista è ordinata inversamente (numero più grande in prima posizione, secondo numero più grande in seconda posizione,...). È il caso peggiore quello che di regola viene preso in considerazione. Per completare il quadro, resta da chiarire la differenza tra la complessità di un problema e quella di un algoritmo. La complessità di un algoritmo esistente che risolve un dato problema stabilisce un limite superiore alla complessità del problema: non permette di escludere l’esistenza di algoritmi migliori, ossia in grado di risolvere il problema consumando meno risorse, ma dimostra, per il solo fatto di esistere, che è possibile risolvere il problema con un algoritmo di quella complessità. Ad esempio, l’algoritmo bubble sort fornisce un limite superiore quadratico alla complessità del proble-
56
Cinque parole della scienza
ma dell’ordinamento (la complessità del problema è in realtà inferiore). D’altra parte, i limiti inferiori non banali alla complessità di un problema sono, in generale, difficili da determinare. Essi fissano un limite invalicabile alla complessità minima degli algoritmi per la risoluzione del problema. Un semplice esempio di limite inferiore è quello relativo al problema di determinare il massimo di un insieme di n numeri distinti: è possibile mostrare che per risolvere tale problema un algoritmo deve eseguire (in modo esplicito o implicito) almeno n-1 confronti, in quanto un numero per poter essere scartato deve uscire sconfitto dal confronto con un altro. La complessità esatta di un problema può essere stabilita se si conosce un limite inferiore per il quale esista un algoritmo di pari complessità (algoritmo ottimale). 5.2. Complessità temporale e complessità spaziale a confronto Abbiamo detto che il tempo di calcolo e lo spazio di memoria sono le due misure più diffuse per misurare la complessità di un problema/algoritmo e che entrambe vengono espresse in funzione della dimensione dell’input. Ad esempio, l’algoritmo bubble sort visto in precedenza esegue un numero di operazioni elementari (confronti e scambi) quadratico nella dimensione dell’input. Vogliamo ora esplorare brevemente i legami esistenti tra le due misure di complessità temporale e spaziale. Per inquadrare la questione consideriamo il problema di stabilire se due numeri interi positivi siano uguali o meno. Un algoritmo elementare è il seguente: si scandiscono entrambi i numeri da destra a sinistra (cioè dalla cifra meno significativa a quella più significativa) confrontando la prima cifra del primo numero con la prima del secondo, la seconda con la seconda, fino a quando viene rilevata una differenza o uno dei due numeri ha esaurito le sue cifre e l’altro no (nel qual caso possiamo concludere che i due numeri sono diversi), o la scansione delle cifre dei due numeri termina insieme (nel qual caso possiamo concludere che i due numeri sono uguali). È interessante confrontare il tempo di calcolo e lo spazio di memoria richiesti dall’algoritmo. Il tempo cresce linearmente con la dimensione dell’input in quanto il numero di operazioni di confron-
Memoria e previsione: il punto di vista dell’informatica
57
to necessarie è al più pari al numero di cifre dell’intero più piccolo. Lo spazio di memoria è, invece, costante ossia indipendente dalla lunghezza dell’input; infatti non serve memorizzare l’intero input ma basta lo spazio necessario per confrontare le due cifre che si trovano nella posizione correntemente analizzata. Può essere utile confrontare questo algoritmo con l’algoritmo di ordinamento bubble sort. Quest’ultimo ha bisogno dello spazio necessario per memorizzare la lista di numeri ricevuta in input (spazio lineare) e opera direttamente su tale lista (algoritmi con tale caratteristica vengono detti algoritmi in situ o in place). Esso, inoltre, necessita di memorizzare la lunghezza del prefisso della lista che resta da ordinare e la posizione della coppia di numeri che si sta analizzando (spazio costante). In entrambi gli algoritmi considerati, la complessità spaziale risulta essere inferiore a quella temporale: costante contro lineare nel primo caso, lineare contro quadratica nel secondo. È possibile mostrare che non si tratta di un caso: la complessità temporale è sempre almeno pari a quella spaziale. Assumiamo quale modello di calcolo di riferimento la macchina di Turing. Per semplicità, immaginiamo un alfabeto binario (0,1), al quale va aggiunto il simbolo che sta per una casella bianca del nastro. Indichiamo con k il numero (finito) di stati della macchina, con n la lunghezza della stringa di input (la porzione finita di nastro contenente l’input), con t(n) il tempo di esecuzione (numero di passi) massimo e con s(n) il massimo spazio di memoria (numero di celle) utilizzato. È facile vedere che in ogni macchina di Turing (trascurando i casi degeneri) il numero di celle utilizzate s(n) mai eccede il numero di passi compiuti t(n) (la macchina deve leggere ogni elemento dell’input). È anche possibile mostrare che il numero di passi compiuti t(n) è limitato dal numero di possibili configurazioni diverse della macchina di Turing su uno spazio massimo utilizzato di dimensione s(n) (che è pari a k·s(n)·3s(n)). In molti anni di ricerche si è ottenuta la classificazione dei problemi più importanti e dei loro algoritmi in base alla loro complessità. A seconda della velocità di crescita della funzione che definisce la complessità temporale (o spaziale) di un algoritmo rispetto alla dimensione dell’input, si parla di tempo (o spazio) logaritmico, polinomiale, esponenziale, e così via. Una distinzione importante
58
Cinque parole della scienza
è quella tra gli algoritmi (buoni) che richiedono un tempo polinomiale, o inferiore, e gli algoritmi (cattivi) che richiedono un tempo esponenziale, o superiore (trascuriamo, per semplicità, ciò che sta nel mezzo). Un problema per il quale esiste una soluzione algoritmica buona è detto trattabile; un problema che ammette solo soluzioni algoritmiche cattive è detto intrattabile. L’insieme dei problemi trattabili contiene la classe chiamata PTIME, ossia i problemi che possono essere risolti in un numero di passi polinomiale nella dimensione dell’input8. È stato dimostrato che la classe PTIME è contenuta nella classe dei problemi PSPACE, che sono quelli risolubili usando uno spazio di dimensione polinomiale nella dimensione dell’input (PTIME ⊆ PSPACE). Concludiamo questa sezione con una discesa di rigore espositivo, additando una divertente concordanza tra certe indicazioni provenienti dalla complessità computazionale e quelle del senso comune, ben espresse ad esempio da Voltaire (riprendendo in ciò Pascal) quando scrisse: «Vi scrivo una lunga lettera perché non ho tempo di scriverne una breve». Possiamo modellare lo scrivere una lettera come un procedimento in due fasi, la raccolta delle cose che vorrei comunicare all’amico, e poi la verbalizzazione delle stesse nello scritto sulla carta, cioè su una memoria esterna. Se la capacità della memoria per comunicare il messaggio è piccola, un solo foglietto, quanta fatica, quanto tempo e quante brutte copie dovrò spendere fino ad ottenere un testo conciso e leggibile!
6. Informazione e memoria In questa sezione esploreremo i legami tra memoria e informazione. Esistono sicuramente molteplici nessi tra le nozioni di memoria e di informazione, ma essi sono difficili da elucidare e in molti casi sono controversi. Secondo Pieter Adriaans, autore della voce «Information» della Stanford Encyclopedia of Philosophy, la storia del termine informazione e delle varie nozioni correlate è com8 È doveroso osservare come problemi con complessità espresse da polinomi di grado elevato o con costanti molto grandi non siano in pratica così trattabili come il nome suggerisce!
Memoria e previsione: il punto di vista dell’informatica
59
plessa e resta ancora in massima parte da scrivere. Riproduciamo dalla stessa voce la definizione iniziale: «Il termine informazione nel linguaggio comune è oggi prevalentemente usato come sostantivo non numerabile per denotare una qualsiasi quantità di dati, di codici o di testi memorizzati, inviati, ricevuti o elaborati tramite un mezzo fisico di qualsiasi natura». Si tratta di una definizione condivisibile per il senso comune del termine, ma è arduo approfondirne il significato senza scontrarsi con il fatto che esso cambia a seconda del contesto culturale, scientifico e prammatico in cui viene usato. Rileggendo la definizione proposta il concetto di informazione potrebbe sembrare più astratto di quello di memoria. I dati che costituiscono informazione possono, infatti, risiedere in una memoria fisica o essere in transito su un canale di trasmissione. Tale apparente distinzione tra informazione e memoria, però, sfuma se – come già osservato nella Sezione 2 – lo stoccaggio dei dati su una linea o un canale di trasmissione viene assimilato a una fra le tante possibili tecniche per realizzare le memorie. Della (non) coincidenza delle nozioni di informazione e dato ci siamo già occupati in precedenza. Qui vogliamo rendere conto di due importanti sforzi scientifici per rendere quantitativo il concetto di informazione. 6.1. Teorie matematiche dell’informazione La prima e fondamentale teoria dell’informazione, dovuta a Claude Shannon9, analizza alcuni aspetti quantitativi della comunicazione che si manifestano nei sistemi di telecomunicazione. Per Shannon comunicare significa «riprodurre in una certa località, esattamente o approssimativamente, un messaggio selezionato in un’altra località». La quantità di informazione associata a un testo, o più in generale a un “oggetto” numerico quale, ad esempio, una foto, dipende – afferma Shannon – non solo dal testo stesso ma anche dall’insieme di tutti i testi che potrebbero essere comunicati, nonché dalla loro distribuzione probabilistica. Tale affermazio C.E. Shannon, A Mathematical Theory of Communication, in «The Bell System Technical Journal», vol. 27 (1948), pp. 379-423, 623-656. 9
60
Cinque parole della scienza
ne si può esprimere con la seguente formalizzazione che può essere saltata dal lettore che ha meno dimestichezza con la notazione matematica. Il testo da trasmettere è modellato come una variabile casuale definita in un dominio enumerabile (tale è l’insieme delle sequenze dei caratteri di un alfabeto). Sia X una variabile casuale definita in un dominio Xd, con distribuzione probabilistica data dalla probabilità P(X = x) che per brevità scriviamo come px. L’entropia di Shannon è un numero reale definito dalla seguente sommatoria (per x ∈ Xd): H(X) = Σ px · log 1/px Tale grandezza può essere interpretata come una misura delle due seguenti quantità: (1) la quantità di informazione che il ricevitore (o l’osservatore) ottiene dopo aver ricevuto la comunicazione che la variabile X vale x; (2) la lunghezza (media), Lm, misurata in bit, delle codifiche più concise possibili che rappresentano le cifre (o i caratteri) che compongono il testo. Tra tale lunghezza Lm e l’entropia H(X) vale la diseguaglianza seguente: H(X) ≤ Lm ≤ H(X) + 1 Prima di comunicare, colui che trasmette e colui che riceve il testo devono ovviamente accordarsi sulla codifica scelta (un esempio storico è il codice Morse), altrimenti il messaggio risulterebbe indecifrabile. È noto che le codifiche mediamente più concise sono quelle che assegnano dei codici più corti a quei caratteri che statisticamente sono più frequenti, come la lettera “e” nella lingua inglese. La teoria di Shannon è fondamentale nelle telecomunicazioni, specie per ottimizzare i codici per la trasmissione. Per le applicazioni quali la crittografia e la compressione dei dati, sviluppatesi più
Memoria e previsione: il punto di vista dell’informatica
61
tardi con l’informatica, tale teoria non è però sufficiente. Infatti, altri risultati teorici, basati sui concetti dell’algoritmica e della complessità del calcolo (si veda la sezione precedente), sono stati sfruttati per meglio rispondere alle nuove esigenze. Alla base del modello di Shannon vi sono alcune ipotesi che poco si adattano alla straordinaria varietà dei dati oggi in circolazione, fruibili nei più diversi modi sul web. Come è possibile conoscere la distribuzione probabilistica dei libri, degli scritti, del parlato, della musica, delle immagini fisse o in movimento, dei dati multimediali e di tutti i saperi presenti nella Rete? Parimenti impossibile è prevedere come e quando, da chi e con quale autorità, una certa informazione verrà inserita, letta, copiata o trasformata. Inoltre, dato che la potenza di calcolo e la quantità di memoria dei dispositivi oggi interconnessi sono enormemente maggiori delle scarse risorse dei sistemi di telecomunicazione dell’epoca di Shannon, i dati della Rete possono essere rappresentati, elaborati e organizzati in modo da raggiungere le finalità più diverse, senza perdere in efficienza. Prendendo spunto da una recente analisi di Gruenwaldt e Vitanyi vogliamo evidenziare due specifiche lacune della teoria di Shannon. Apriamo un romanzo di Umberto Eco e tentiamo di calcolarne la quantità di informazione secondo Shannon. Per farlo dovremmo vedere il libro come una variabile aleatoria, ossia come un elemento dell’insieme di tutti i possibili libri, esistenti o futuri, e di tale insieme dovremmo conoscere la distribuzione probabilistica. Se, invece dell’informazione di un libro, volessimo calcolare l’informazione ereditaria codificata nel DNA di una particolare specie animale, tale informazione dovrebbe essere considerata come un elemento avente una probabilità nota all’interno dell’insieme di tutte le immaginabili forme animali; un punto di vista chiaramente insostenibile! È evidente che le ipotesi di Shannon non si possono applicare al mondo della produzione letteraria o della genetica. In secondo luogo, l’interpretazione dell’entropia come il numero di bit necessari per rappresentare i testi non dà conto della compressione che si può ottenere nella rappresentazione se si fa uso di algoritmi che colgono e sfruttano la struttura individuale di ogni testo. Vediamolo con un esempio. Supponiamo che la distribuzione di probabilità sia uniforme e l’insieme dei possibili testi sia banal-
62
Cinque parole della scienza
mente l’insieme delle sequenze binarie lunghe 9999999999999999 bit, ossia 1016. Tale insieme contiene dunque le seguenti stringhe binarie, da quella fatta di soli zero fino a quella fatta di tutti uno: 9999999999999999 bit
9999999999999999 bit
9999999999999999 bit
{0... 00}
{0... 01}
{0... 10}
9999999999999999 bit (...)
{1... 11}
Per Shannon servono 9999999999999999 bit per rappresentare ciascuna stringa. Ora, i metodi di compressione dei dati permettono di ridurre molto di più certe stringhe: un caso estremo è quello della stringa di tutti uno (la stringa {1... 11}), che consiste nella ripetizione del bit 1 per un numero di volte che, rappresentato come numero binario, richiede circa 50 bit. Qualche bit in più occorre per segnalare a chi deve decodificare la stringa se essa è rappresentata in modo naturale o compresso. In totale bastano poco più di 50 bit invece dell’enorme numero precedente! In modo simile, anche la descrizione di molte altre stringhe che presentano delle regolarità meno vistose della stringa di tutti uno può essere fortemente compressa. Ovviamente il miglioramento funziona a patto che chi riceve la stringa conosca l’algoritmo per decodificarla. 6.2. Teoria algoritmica dell’informazione La teoria algoritmica dell’informazione non ha un solo padre, ma è stata indipendentemente sviluppata negli anni Sessanta da Kolmogorov (1965), Solomonoff (1964) e Chaitin (1969), ed è spesso associata al nome del primo. Il concetto centrale della teoria è la complessità di Kolmogorov di un testo, ossia di una stringa di bit. A differenza della teoria di Shannon non si richiede di definire la distribuzione probabilistica di tutti i testi possibili. L’intuizione alla base della teoria può essere espressa nel seguente modo: un testo è semplice se può essere descritto concisamente in poche parole ed è complesso se non ammette una descrizione concisa. Un testo può essere ovviamente descritto in tanti modi: così la stringa 01010101 010101010101010101010101 può essere definita semplicemente
Memoria e previsione: il punto di vista dell’informatica
63
come quella avente 16 ripetizioni di “01”. Al contrario non si vede come descrivere in modo conciso una stringa generata casualmente quale, ad esempio, la stringa 110010000110000111011110111 01100. Fino a prova contraria, la più breve rappresentazione di tale stringa è la stringa stessa. La prima stringa ha dunque una complessità di Kolmogorov K ben inferiore a quella della seconda. Non occorre dire che le descrizioni che si considerano devono poter essere decodificate tramite un algoritmo che, in base alla tesi di ChurchTuring (si veda la Sezione 1), possiamo identificare con una macchina di Turing. Per procedere nella comprensione di questa teoria, immaginiamo che il testo x abbia come sua possibile descrizione la stringa binaria p, che viene data in ingresso a una macchina di Turing, ovvero a un algoritmo T. La macchina effettuerà in un certo numero di passi la decodifica e ricostruirà così il testo originale. In altre parole, il testo è visto come la funzione x = T(p). La complessità di Kolmogorov del testo x è allora definita come la lunghezza l(p) della più corta descrizione: KT (x) = min {l(p) tale che T(p) = x} p
Dato che esistono tante diverse macchine di Turing che realizzano lo stesso algoritmo, la complessità appena definita sembrerebbe dipendere dalla scelta della macchina, cosa che introdurrebbe dei margini di arbitrarietà. Si risponde a tale critica facendo ricorso alla cosiddetta macchina di Turing universale U, che sostanzialmente neutralizza tale arbitrarietà, nel senso che anche cambiando di macchina il valore ottenuto per la lunghezza l(p), e dunque per la complessità di Kolmogorov, varierebbe di poco. È noto che una macchina di Turing è universale se può simulare qualsiasi algoritmo. Lo specifico algoritmo da simulare è rappresentato mediante una stringa contenente una serie di istruzioni da eseguire (un programma). Il programma deve essere memorizzato sul nastro di ingresso della macchina. Nel nostro caso, il nastro di ingresso della macchina U contiene soltanto, come detto sopra, la descrizione p del testo originale x. Pertanto, è giusto e suggestivo
64
Cinque parole della scienza
pensare che tale stringa p sia essa stessa il programma che permette alla macchina di ricostruire il testo x. Si vede così che la complessità di Kolmogorov di un testo x ha un senso profondo e rivelatore: essa è la dimensione del più piccolo programma o algoritmo p capace di generare il testo x. Questa è la ragione per cui tale definizione di complessità è detta algoritmica. Non è difficile ora cogliere l’analogia, spesso ricordata dai sostenitori di questa teoria, tra la complessità di Kolmogorov e il criterio di Occam: entrambi esprimono un principio di economia che mira a trovare la spiegazione o descrizione più semplice. Vogliamo ora evidenziare due aspetti critici di tale concetto di complessità. Primo: dato un testo non esiste un metodo generale per calcolare la sua complessità il che, in termini logici, si esprime dicendo che il valore K(x) non è calcolabile. Infatti, come potremmo essere certi, in generale, che non esista un algoritmo, più astuto di quello a noi noto, capace di generare con un numero minore di istruzioni lo stesso testo x? Secondo: la teoria algoritmica originale, nonostante il nome, trascura il numero di passi eseguiti, ossia il tempo di calcolo impiegato per passare dalla descrizione p al testo x. Alcuni sviluppi successivi, per il momento non conclusivi, hanno tentato di rimediare a questa deficienza. Fin qui abbiamo parlato soprattutto della complessità di un testo, ossia di una stringa di numeri binari, essa stessa interpretabile come un numero. Ma è evidente che tale formalizzazione copre ogni tipo di dato informatico per quanto complessa sia la sua struttura. Si pensi, ad esempio, a un file nel linguaggio Autocad che specifica il progetto architettonico di un palazzo. Potremmo così confrontare la complessità alla Kolmogorov di due diversi progetti, ma è molto dubbio che tale confronto sarebbe significativo per calcolare la parcella degli architetti o valutare la loro bravura! Infine, la teoria di Kolmogorov può, in verità, essere applicata anche ai numeri reali e al continuo con un accorgimento. Per Kolmogorov una funzione che calcola numeri reali viene approssimata, quando possibile, da una macchina di Turing capace di calcolarla con accuratezza specificata. Tale accuratezza è espressa da un numero intero, fornito come ulteriore input alla macchina.
Memoria e previsione: il punto di vista dell’informatica
65
Per concludere il discorso sulle teorie formali dell’informazione possiamo dire che Shannon e Kolmogorov quantificano l’informazione in due modi molto diversi ma aventi in comune la misura della quantità di informazione mediante il numero di bit di una stringa, il che equivale a misurare l’informazione mediante le dimensioni di una memoria. La complessità di Kolmogorov è stata proposta, certo troppo entusiasticamente, come misura della complessità degli organismi viventi, delle opere d’arte e dell’ingegno e in definitiva di ogni entità descritta da un insieme di dati. Non essendo la complessità calcolabile ci si è accontentati spesso di prendere come sua approssimazione la misura del testo compresso mediante gli algoritmi comunemente usati per comprimere i dati e i messaggi digitali (come ad esempio zip). Le scale di complessità così ottenute non sempre rispondono all’idea intuitiva di complessità che possiamo avere. 6.3. Informazione e previsione Vogliamo, infine, accennare al modo in cui il problema della previsione è stato affrontato dalle teorie dell’informazione. La nozione di riferimento è quella di inferenza induttiva proposta da Solomonoff. Scegliere un’ipotesi (o una legge) consistente con i dati fenomenici noti e capace di prevedere i prossimi è come estrapolare da una serie, o stringa di numeri, il valore del prossimo numero (si pensi a certi test psicologici per misurare il quoziente di intelligenza). Si tratta di un processo continuo di apprendimento che procede attraverso la falsificazione e poi la correzione dell’ipotesi corrente alla luce dei nuovi dati pervenuti. Solomonoff pone tale processo in un contesto probabilistico bayesiano. Si noti come le ipotesi possibili possano essere infinite, ma comunque devono essere enumerabili. L’ipotesi corrente può essere vista come una macchina di Turing in grado di accettare l’intera serie passata e di enumerare (ossia di prevedere) i dati futuri. Per quanto riguarda il criterio di scelta dell’ipotesi si può far ricorso, in un certo senso, al criterio di Occam: viene scelta la macchina di Turing più semplice, ossia quella descritta dal numero minimo di bit (Kolmogorov). Tale macchina fornisce una descrizione compressa dei dati sfruttando certe regolarità in essi presenti. Ap-
66
Cinque parole della scienza
prendere corrisponderebbe allora a comprimere i dati grezzi. Non è detto, però, che in tal modo l’ipotesi scelta descriva davvero gli aspetti significativi presenti nei dati. Come abbiamo già sottolineato, la complessità di Kolmogorov ignora infatti la distinzione tra diversi generi di informazione, ad esempio, la distinzione tra informazione significativa (o interessante) e non. 6.4. Ciò che manca è il significato Già Shannon avvertiva che «i messaggi hanno un significato (...) ma gli aspetti semantici della comunicazione sono irrilevanti per il problema ingegneristico [della trasmissione]». Lo stesso monito sembra valere per la teoria di Kolmogorov. La conoscenza dell’algoritmo più piccolo che permette di generare una certa informazione è utile da un punto di vista pratico all’ingegnere che vuole minimizzare la memoria, ma non è detto che riveli proprietà valide per comprendere il significato dell’informazione stessa. Si può dunque essere d’accordo con quanti vedono nelle diverse teorie formali dell’informazione (fra le quali spiccano quelle di Shannon e Kolmogorov sinteticamente illustrate sopra) il comune sforzo di rendere misurabili alcune proprietà estensionali delle conoscenze umane. Tuttavia, nessuna delle due teorie prende in considerazione il significato dell’oggetto rappresentato, né tanto meno si domanda se l’informazione rappresentata sia corretta, coerente o vera. Tali formalizzazioni della nozione di informazione restano pertanto ben al di sotto non solo della nozione di conoscenza umana, ma persino dei criteri applicati in informatica per il progetto delle basi di dati. In uno suo recente studio, il logico J.M. Dunn (citato da Adriaans) dice bene che cosa sia l’informazione nel senso delle teorie formali di cui ci siamo occupati in questa sezione: «What is left of knowledge when one takes away belief, justification and truth».
7. Alcune considerazioni finali Come speriamo di essere riusciti a mostrare nel nostro lavoro, la nozione di memoria è uno dei concetti fondamentali dell’infor-
Memoria e previsione: il punto di vista dell’informatica
67
matica e tale è destinata a restare in futuro. Presente in una molteplicità di ambiti, che spaziano dallo hardware (le memorie del calcolatore) all’analisi delle proprietà delle computazioni (la complessità spaziale), essa svolge un ruolo essenziale già nella definizione di macchina di Turing (programma). Un programma che esegue un qualsiasi calcolo, ricerca, messa a video o traduzione, insomma una qualsiasi applicazione informatica ha infatti quale base la coppia memoria-algoritmo: la memoria contiene i dati iniziali e quelli via via calcolati; l’algoritmo è un insieme di regole (la logica) che consente di assegnare un nuovo valore ai dati in funzione del loro valore corrente. La coppia memoria-algoritmo, sotto forme apparentemente diverse, è stata e continua a essere lo strumento che l’informatica utilizza per risolvere problemi di natura più varia, dalla elaborazione delle immagini al ragionamento automatico, dal calcolo scientifico alla bioinformatica. La memoria è anche, da sempre, un presupposto necessario della previsione. La formulazione di una legge, la definizione di un modello matematico e la sintesi di un programma di simulazione (di un dato modello) sulla base delle conoscenze disponibili dalle esperienze precedenti sono strumenti ben noti per effettuare previsioni. La crescita in realismo e accuratezza dei modelli predittivi è sempre andata di pari passo col progresso scientifico, ossia con l’approfondimento delle conoscenze disponibili. Questo paradigma consolidato è stato in qualche modo messo in questione dall’irruzione dei Big Data. In questi anni, è diventata sempre più evidente la possibilità di disporre di enormi quantità di dati in tanti ambiti (economico, meteorologico, farmacologico...), e con essa è cresciuta la convinzione di poter estrarre da essi in modo automatico leggi e modelli, attraverso algoritmi di apprendimento e/o mediante analisi di natura statistica. Determinati modelli ottenuti in questo modo sono stati utilizzati per predire il comportamento di singoli o di gruppi e come testimoniano le recenti campagne elettorali sono stati capaci di influire persino sulle scelte degli elettori. Per alcuni scienziati la verifica della validità dei modelli così ottenuti non richiederebbe più alcun lavoro sperimentale, essendo i dati già disponibili ben più ricchi di quelli che si potrebbero misurare sperimentalmente con costi e dif-
68
Cinque parole della scienza
ficoltà spesso impraticabili. Sulla sostenibilità o meno di tale posizione si sono scatenate accese discussioni. Esemplare è stato il confronto tra le posizioni di Noam Chomsky e Peter Norvig, direttore di ricerca presso Google e figura di primo piano della ricerca nell’ambito dell’Intelligenza Artificiale. In occasione del centocinquantesimo anniversario del MIT, in un simposio dedicato al tema «Cervelli, menti e macchine», Chomsky ha attaccato duramente la pretesa degli studiosi dell’apprendimento automatico di poter usare metodi puramente statistici per caratterizzare dei comportamenti che mimano qualche comportamento presente nel dominio di interesse, rinunciando al tentativo di comprendere il significato di tale comportamento. Egli ha ricordato come vi siano stati molti tentativi di applicare modelli di natura puramente statistica a vari problemi di linguistica, tentativi che qualche volta hanno avuto successo, ma che molto più spesso sono andati incontro al fallimento. Ha inoltre stigmatizzato una inedita nozione di successo, mai usata fino a oggi nella scienza, che interpreta il successo come un’approssimazione di dati non analizzati/studiati/compresi («success as approximating unanalyzed data»). Nel suo blog, Norvig ha replicato a Chomsky affermando che una legge non è una forma ideale eterna, ma il prodotto contingente di processi complessi e proprio questa sua natura contingente rende i modelli probabilistici i più adatti alla sua analisi. Non è questo il luogo per un approfondimento della questione, ma non ci tratteniamo dal fare un paio di considerazioni. La prima è che l’efficacia in molti scenari applicativi e ancora di più le potenzialità della scienza dei dati sono difficili da contestare. Al tempo stesso, non sembrano esservi ragioni sufficienti per le quali essa debba essere considerata il nuovo paradigma scientifico di riferimento, destinato a soppiantare tutti gli altri. Non solo per ragioni pratiche, ma anche per ragioni di principio. In particolare, la scienza dei dati sembra soffrire dei ben noti limiti del ragionamento induttivo che possiamo riassumere nella questione: può un sistema indurre delle regole (leggi) generali da usare per previsioni future sulla base delle regolarità rilevate fino ad un certo istante? Proprio per i limiti intrinseci dei metodi di apprendimento automatico e di analisi statistica appaiono più promettenti quelle ricerche rivol-
Memoria e previsione: il punto di vista dell’informatica
69
te alla possibile integrazione di tali metodi con le tecniche consolidate di verifica formale e ragionamento automatico. Vogliamo concludere il nostro contributo tornando su una problematica che abbiamo sollevato nelle prime pagine: i rapporti tra le memorie artificiali e la memoria umana. Ci sono sicuramente delle interessanti analogie e dei significativi punti di contatto, ma ancor più numerosi sono i punti di differenziazione. In particolare, ci sembra di poter affermare che, come non può esserci coscienza senza memoria (umana), così non può nemmeno esserci memoria (umana) senza coscienza. Questo legame tra memoria umana e coscienza è all’origine della sostanziale differenza tra memorie naturali e memorie artificiali (tecnologiche). Alla deliberata negazione di tale legame ci sembra di poter ricondurre la limitatezza psicologica dei modelli cognitivi umani fondati sull’analogia computazionale, proposti dai pionieri dell’Intelligenza Artificiale ed entusiasticamente e incautamente adottati da tanti psicologi.
Memoria e previsione… e quel che ne resta Antonio Sabetta
1. Memoria e previsione: attestazioni della storicità dell’essere umano1 Memoria e previsione sono due parole che descrivono, trascrivono e oggettivano il dato essenziale della storicità come connotazione ontologica fondamentale dell’essere umano. La Geschichtlichkeit è proprio dell’essere persona. Non è la contingenza a descrivere la storicità perché essere storici non vuol dire solo essere contingenti; certo, un essere storico è anche un essere contingente ma anche un artefatto o una pianta o una pietra è contingente ma non storico. Va detto che queste due parole appartengono anche al regno animale o infraumano poiché esiste uno spazio di memoria e di previsione anche nei non umani (mi vengono in mente gli esperimenti di Pavlov), ma il peso che queste due parole hanno per l’uomo mi pare piuttosto singolare. Essere “esseri storici” vuol dire che memoria e previsione appartengono a noi e a quello che specificatamente siamo. Non esiste persona senza memoria e senza l’attrattiva di ciò che sarà ma non è ancora e che cerchiamo di anticipare; questo perché passato/memoria e futuro/previsione non ci sono mai indifferenti, tanto che il passato permane come memoria e il futuro è anticipato come previsione. Il presente è il luogo in cui si costruisce questa permanenza del passato come memoria/ricordo e l’anticipazione del futuro. Pur non essendo più o non essendo ancora, fin troppo passato e futuro attraggono il presente e spesso distraggono dal presente. Del resto da come guardiamo, o dall’impor Antonio Sabetta, Teologia fondamentale, Roma.
1
72
Cinque parole della scienza
tanza che attribuiamo a memoria e previsione possiamo percepire o farci un’idea del senso della realtà o meglio soprattutto della storia. Uno sguardo anche superficiale ci dice subito che la memoria è fondamentale per l’uomo, al punto che chi perde la memoria non sa più chi è, e ciò che del passato sopravvive come memoria (consapevolmente o inconsapevolmente, poiché la memoria non vuol dire solo consapevolezza) può profondamente cambiare una persona tanto che diciamo “non è più lui, è un’altra persona”. La memoria è come il luogo in cui la persona si costruisce, il presente si raccoglie senza perdersi completamente e per sempre; non a caso in ambito poetico la memoria è stata giudicata l’unica forma di immortalità possibile all’uomo, non come memoria di sé per sé ma come memoria di sé nell’altro da sé, idea non del tutto peregrina perché in fondo dinanzi alla perdita di una persona cara, alla fine di un amore ecc., ci aggrappiamo ai ricordi perché sono gli unici che alleggeriscono il senso della perdita e ci rendono ancora labilmente presente persone o situazioni. Senza la memoria l’uomo, rispetto all’esperienza, sarebbe sempre al punto di partenza e per quanto ci ripetiamo che non impariamo da quello che ci accade, il vissuto ci costruisce sotto forma di memoria del già stato e ci permette di andare avanti senza dover sempre ricominciare. La memoria è come se ci disponesse nel mondo attraverso lo strumento dell’analogia. La non sovrapponibilità di situazioni fa sì che per gestirle non da sprovveduti occorre l’orizzonte analogo presente nella memoria. E così la memoria descrive anche la fragilità dell’uomo perché è essa stessa tanto importante quanto fragile, tanto costitutiva quanto labile, al punto che il venire meno della memoria è segno di senescenza o il suo permanere come fondo fa invocare il diritto all’oblio. Discorso simmetrico si potrebbe fare per la previsione la quale rimane come finalità della memoria per certi versi. In fin dei conti, il riferirmi al già stato nella memoria è per gestire il presente che viene anticipato nella previsione come predisposizione a ciò che sta per essere, o sarà, e rispetto a cui non voglio trovarmi impreparato. Heidegger direbbe che la previsione appartiene all’uomo in quanto pro-getto: l’uomo è progetto perché è gettato nell’essere come possibilità in vista di cui poter essere se stesso (cf. i § 31 e 68 di Essere e tempo). La previsione si declina come anticipazione. In fon-
Memoria e previsione… e quel che ne resta
73
do il prevedere un fenomeno è per affrontarlo o poterne gestire le conseguenze. Penso ai fenomeni naturali: prevedere un evento climatico estremo, o un terremoto, per averci a che fare evitando o riducendo i danni. Se gli uragani si abbattessero solo nel deserto o i terremoti avvenissero solo in una terra disabitata ci interesserebbero fino a un certo punto e difficilmente si investirebbe quanto si fa oggi. Se ho ben capito l’ambito delle leggi scientifiche si basa sull’idea della previsione, o meglio la determinazione della legge è volta alla gestione, controllo e riproducibilità di un fenomeno in modo da capire cosa succederà la prossima volta e da poter condizionare o determinare un comportamento (mi viene in mente la galleria del vento per l’anticipazione dei comportamenti aerodinamici di una vettura ecc.). Nelle situazioni ordinarie della vita, e ancor di più in quelle eccezionali, ogni volta che c’è da affrontare un problema, gestire una persona o situazione, cerchiamo di prevedere le reazioni, immaginare cosa direbbe o farebbe se, neutralizzare effetti indesiderati, tentare di indirizzare la realtà verso ciò che vorremmo. Anche se a volte il fatalismo sembra farla da padrone, per la sconfitta ripetuta a cui spesso vanno incontro i nostri tentativi di curvare la realtà nella direzione che la nostra presenza di osservatore interessato vorrebbe, difficilmente la persona si rassegna e non si lascia andare al tentativo di prevedere una reazione, prevedere una situazione per affrontarla nel modo migliore, o quanto meno non da impreparato. La previsione non è tanto questione da astrologia e oroscopi ma struttura l’essere umano nella sua costitutiva progettualità che lo orienta nella sua originaria gettatezza (Geworfenheit). Ed è interessante l’intreccio con la memoria, perché la strategia della previsione dipende sempre (anche molto) dall’esperienza che permane come memoria. Certo, sappiamo tutti quanto la realtà sia spiazzante, ma non possiamo rinunciare a “programmarla” cioè a prevederla. Non ho la competenza né il tempo per illustrare il senso della memoria con riferimento, ad esempio, alle profonde riflessioni di P. Ricoeur (si veda tra le tante opere La memoria, la storia e l’oblio), ma certo quando si parla di memoria non si può non pensare a quanto Agostino scrive soprattutto nei libri X e XI delle Confessioni ecc.
74
Cinque parole della scienza
2. Memoria e previsione e visione della storia Dal punto di vista filosofico il ruolo che si attribuisce a memoria e previsione, il modo in cui vengono pensati, rimandano ad una concezione determinata del tempo e della storia. Se vige l’eterno ritorno dell’identico, la circolarità in-interrompibile, non solo nel suo essere circolare ma nei tempi e ritmi della sua circolarità, allora tutto è determinato, tutto obbedisce al destino della necessità, e di conseguenza memoria e previsione perdono valore e perdono anche il nesso con la libertà, che è la parola di riferimento di entrambe. In una visione lineare del tempo dove è possibile una storia e questa storia ha una direzione, allora memoria e previsione hanno un significato, per quanto poi in una visione lineare del tempo si tratti di stabilire se l’evento che imprime la direzione sia accaduto, oppure è di là da venire e funge da magnete attrattivo del presente. Nel primo caso, si collocano tutte quelle visioni del tempo e della storia in cui poiché il passato è il tempo della pienezza (la figura/ mito dell’età dell’oro) il presente, e a fortiori il futuro, rappresentano il tempo della decadenza, decadenza che (seppur inesorabile) può essere rallentata solo nella memoria dell’evento fondatore, cioè ancorando il presente al passato come norma ideale del presente (meno si cambia meglio è); questa posizione è antropologicamente molto diffusa nella ritrosia di tanti a cambiare anche uno iota di ciò che è stato perché la fedeltà ad un passato originario rimane garanzia per il presente (la sicurezza dell’abitudine). Quando invece la pienezza/compimento del tempo/storia è di là da venire, è come se lo sguardo in avanti privasse di valore e di senso ciò che sta dietro e quindi affrettare il futuro, anticiparlo con l’adeguare radicalmente il presente a ciò che esso richiede, diventa l’unica vera cosa che conta. Pensiamo a tutte le utopie che segnano la modernità e che nascono dal cuore stesso del moderno, dove vige l’identità tra novum e melius2. L’uomo moderno è intrinsecamente utopista e rivoluzionario e disdegna chi si volge indietro, perché chi si ancora alla “tradizione” (la sedimentazione della memoria collet Cf. come ultima pubblicazione in merito M. Cacciari – P. Prodi, Occidente senza utopie, Il Mulino, Bologna 2016. 2
Memoria e previsione… e quel che ne resta
75
tiva della storia) impedisce il progresso che è per definizione un andare avanti che tanto più avanza quanto ci si affranca dal passato. La modernità si concepisce nella rivendicazione di un’autonomia e autoreferenzialità assoluta, come crisi e frattura-rifiuto della tradizione. La “crisi” è la cifra della modernità nel preciso senso di rifiuto dell’oggettività della tradizione. Nella modernità si consuma la crisi della tradizione proprio perché l’epoca moderna è il rifiuto di ciò che stava prima e il riproporsi come un “nuovo inizio”, un ricominciare daccapo assumendo che il traditum, cioè l’orizzonte nel quale si è e che raggiunge l’uomo all’interno del suo contesto, non ha più valore (men che meno normatività); sul piano sociale, come su quello delle idee, si istituisce l’identità tra novum e melium per cui il nunc è sempre più dell’ante e sempre meno del post. Questo definisce l’idea delle “sorti progressive dell’umanità”, il cammino dell’umanità verso la pienezza: nel futuro (dimensione utopica) si riuscirà a costruire quella felicità (regnum hominis) a cui tendiamo e per cui lottiamo e questo accadrà liberando l’uomo dai lacci religiosi e culturali del passato (la tradizione) e assumendo come unica guida la ragione3. Il rifiuto della tradizione, tuttavia, storicamente si configura come l’esito di una crisi della tradizione stessa, determinata dagli eventi che hanno originato la svolta moderna. Il cambiamento di paradigma diventava uno sguardo diffidente nei confronti di una tradizione, minata nella sua pretesa di verità e nel suo essere stata l’ancoramento stabile e certo nella conoscenza e fondazione del vero. Alcuni autori hanno visto in questa ossessione della modernità per il futuro (mito del progresso) la secolarizzazione di una visione biblico-cristiana basata su un concetto lineare del tempo (creazione – alleanza – incarnazione – redenzione – compimento escatologico) e sulla categoria di Regno di Dio che, essendo sì un “già” ma soprattutto un “non ancora” (dal momento che deve veni Il paradigma della crisi-rottura costituisce la cifra della modernità. Paradossalmente, mentre il passaggio dal moderno al post-moderno incrina in maniera piuttosto radicale la categoria di progresso e la dimensione utopica, di fatto esso non ha significato un recupero autentico della tradizione. Cf. L. Boeve, Interrupting tradition. An Essay on Christian Faith in a Postmodern Context, Peeters Press, Louvain-Dudley (MA) 2003, soprattutto i capitoli 2 e 3 (pp. 37-64). 3
76
Cinque parole della scienza
re, dobbiamo chiedere che venga), sposta il compimento nel futuro, che poi, biblicamente, è la fine della storia. Mi riferisco alle note tesi di K. Löwith che tanto hanno fatto indignare H. Blumenberg. Nell’illustrare la sua tesi Löwith inizia con un confronto della concezione greca della storia con quella cristiana. Il paradigma greco della comprensione della storia era la legge cosmica del divenire e del fluire delle cose. Il fatto che ogni cosa fosse sotto la condizione dell’immutabile e del riaccadere dell’identico o dell’analogo toglieva significato al futuro. Se tutto eternamente ritorna identico o analogo, non vi è sostanziale differenza fra presente e futuro, poiché ciò che accade adesso, la singolarità dell’evento, è da sempre accaduto, è destinato a riaccadere per sempre4 e tutto è ripresentazione del passato come origine permanente5. Questo orizzonte di comprensione della storia è del tutto estraneo all’idea biblica. Per gli ebrei e per i cristiani la storia risulta essere significativa in vista del fine, tanto che il fine/meta costituisce il senso della storia. Nella visione biblico-cristiana il futuro diventa decisivo, è il vero centro di riferimento della storia, la bussola escatologica che dà un orientamento nel tempo, e questo fine è il Regno di Dio. In questa prospettiva non c’è più interscambiabilità tra passato, presente e futuro poiché il presente non è la ripresentazio4 «La concezione ciclica del tempo annulla così la consistenza dell’attimo presente: il primato del mondo delle idee finisce col comportare l’abolizione del tempo storico. (…) La corposa densità del frammento è smarrita, nessun futuro è veramente incombente e l’impermanenza del tempo, con tutta la concretezza che le inerisce, è nobilitata solo dal rimpianto e dal gesto della ripetizione del modello originario. L’uomo diventa un “caso” dell’universale il suo futuro non è che ritorno, senza vera novità o sorpresa. Il mondo arcaico, come la cultura greca, non conosceranno la dignità irripetibile della persona, soggetto unico e singolare, né l’attesa di un veniente nuovo giorno» (B. Forte, Teologia della storia. Saggio sulla rivelazione, l’inizio e il compimento, Paoline, Cinisello Balsamo 19912, p. 12). 5 «La teoria pagana è priva di speranza, perché speranza e fede sono per essenza legate al futuro e non vi può essere un vero futuro se i tempi passati e venturi sono concepiti come fasi equivalenti entro una ricorrenza ciclica senza principio né fine. Sulla base di una continua rivoluzione di cicli determinati possiamo attenderci soltanto una cieca rotazione di miseria e di felicità, di felicità illusoria e di miseria reale, ma non già un’eterna beatitudine – un’infinita ripetizione dell’identico, ma nulla di nuovo, di risolutivo, di finale» (K. Löwith, Significato e fine della storia. I presupposti teologici alla filosofia della storia, Il Saggiatore, Milano 1989, p. 189). Questa concezione si manifesta in Erodoto, Tucidide e Polibio.
Memoria e previsione… e quel che ne resta
77
ne del passato ma il luogo della promessa in vista del futuro, luogo del compimento. La ciclicità del ritorno dell’identico viene sostituita da una visione lineare e progressiva dove ogni istante della storia non è mai come gli altri ma è giudicato dal suo rapporto con l’evento decisivo. Gli eventi storici sono giustificati e significativi solo se rimandano a un τέλος che trascende i fatti. Il pensiero moderno ha “secolarizzato” il modello escatologico della fede sostituendo (là dove la sostituzione è piuttosto l’esito del processo e non l’operazione preliminare) l’attesa e la speranza nel compimento futuro, quale realizzazione del Regno di Dio, con l’idea del progresso. Tale idea moderna di progresso, come illimitato progredire verso una sempre maggiore razionalità, libertà e felicità (cifra della moderna filosofia della storia), null’altro sarebbe che la secolarizzazione dell’idea cristiana della provvidenza di un dio trascendente. I moderni avrebbero ricavato l’idea di progresso dalle nuove conoscenze scientifiche e storiche ma attraverso la mediazione del cristianesimo, che aveva usato per primo tale categoria parlando di progresso dall’Antico Testamento (AT) al Nuovo Testamento (NT). Qui emerge tutta la paradossalità di quanto è accaduto nell’età moderna. Infatti, attraverso la secolarizzazione della concezione biblico-cristiana del tempo, si è pervenuti a un’idea di progresso molto diversa dall’attesa escatologica di un compimento futuro. Certo la fede cristiana nel futuro è una scelta definita in funzione di Dio mentre la fede secolare nel progresso guarda al futuro come mondo migliore senza timore e riverenza; ma «l’idea del progresso poté diventare il motivo dominante della moderna comprensione della storia soltanto entro questo orizzonte del futuro, quale fu determinato dalla fede ebraica e cristiana contro la visione ciclica, e quindi “priva di speranza”, del paganesimo classico. Tutto lo sforzo moderno di sempre nuovi miglioramenti e progressi ha le sue radici nell’unico progresso cristiano verso il Regno di Dio, da cui la coscienza moderna si è emancipata ed è tuttavia rimasta dipendente, come uno schiavo fuggito dal suo lontano padrone»6.
K. Löwith, Significato e fine della storia, pp. 105-106.
6
78
Cinque parole della scienza
Nella prospettiva biblico-cristiana, incontriamo una visione religiosa del tempo che nell’AT ruota tutto attorno all’evento fondamentale dell’alleanza, che non è mitico ma storico, la memoria del quale è decisiva (perciò evento fondatore), in quanto la storia di Israele vive di questa memoria, e non appena Israele si dimentica dell’alleanza si allontana da Dio e si perde, cioè perde il bene che scaturisce dall’alleanza: la libertà e la terra. Come sappiamo progressivamente, dinanzi al fallimento storico della fedeltà di Israele all’alleanza, diventa decisivo il futuro come luogo di una nuova ed eterna alleanza. Tuttavia l’evento fondatore della coscienza di Israele è l’alleanza del Sinai ed è interessante che uno dei momenti più importanti dell’alleanza nel suo rituale sia il cosiddetto “prologo storico”, cioè la memoria dei fatti che Dio ha compiuto verso il popolo (liberazione dalla schiavitù in Egitto) i quali sono la ragione ultima della stipula dell’alleanza. Israele vive dell’alleanza e la memoria, come rendere di nuovo presente la centralità dell’evento si verifica anche nella liturgia con la celebrazione periodica dell’alleanza, perché gli uomini possano essere aiutati a non dimenticare. Nel NT la pienezza del tempo è l’evento Cristo nel quale non solo Dio dice se stesso ma dice tutto di sé. Cristo è presentato come il compimento e la pienezza della rivelazione, e la sua singolarità si esprime nel fatto che in lui mediatore e contenuto della rivelazione coincidono: egli non è solo il Deus revelans ma anche il Deus revelatus. Per questo motivo è compimento della promessa veterotestamentaria e anche superamento; il suo tempo inaugura la pienezza del tempo, come ci dicono Mc 1,15, Ef 1,10 e ancora Eb 9,26 e 1Pt 1,20 (cf. anche At 2,17): il presente vive dell’oggi di Cristo (in Mc il verbo è al perfetto, come a dire che di quello che è accaduto in Cristo beneficiamo noi dopo di lui), egli è pienezza tale che ogni futuro sarà futuro di questo “adesso” ed ogni avvenimento si colloca nel suo corretto significato e nella sua giusta posizione (sia del passato che del futuro) solo in riferimento a Cristo. La definitività insuperabile della rivelazione di Cristo è tale da non rendere «più possibile nessun nuovo inizio di rivelazione nel senso d’una personale automanifestazione di Dio, ma solo ancora una tradizione mediante la quale viene tramandato l’inizio, ed uno sviluppo che conduce
Memoria e previsione… e quel che ne resta
79
alla comprensione reale della “pienezza originale” (...). Ogni futuro è il futuro della rivelazione compiuta in Gesù Cristo»7. L’idea centrale che Cristo segni l’avvento della pienezza del tempo-storia è presentata e declinata in termini singolari in Gal 4,1-7. L’apostolo Paolo parla di πλήρωμα του χρόνου, dove πλήρωμα indica il sopraggiungere della pienezza – per cui il tempo diventa pieno, cioè perfetto, solo a un determinato momento – e χρόνος si riferisce al tempo oggettivo che passa, esterno all’individuo (e opposto a καιρός, il tempo personale, soggettivo). Paolo, contrariamente a quanto la sintassi di primo acchito lascia pensare, collega il compimento del tempo all’invio del Figlio, non nel senso di un tempo che in quanto giunto a pienezza permette a Dio di inviare il Figlio, ma nel senso di un tempo che entra nella pienezza quando il Figlio è inviato, come a dire che la pienezza del tempo venne quando Dio mandò il Figlio8. Naturalmente la comprensione dell’espressione passa anche per il riferimento al senso del tempo e della storia, in particolare presso la fede jahvista. In questa visione, piuttosto alternativa a quella greca, emerge l’idea di un senso degli eventi in quanto condotti da Dio, una visione universale della storia ed anche (e soprattutto) lo sbocco escatologico del tempo: il darsi nel futuro del “giorno del Signore” che inaugurerà una nuova creazione senza male (rovesciamento del mito dell’età dell’oro). Ebbene la sezione di Gal 3,15-4,7 è connotata soprattutto da una profonda tensione verso un termine/consumazione: la pienezza del tempo è il punto di arrivo di un lungo itinerario iniziato con la promessa ad Abramo, passato attraverso la legge mosaica e compiuto in Cristo. Pertanto possiamo dire che l’autore afferma la realizzazione dell’eschaton nel tempo, cioè all’interno della storia; ora, scrive R. Penna, «nulla è più paradossale di un’affermazione del genere. Essa contrasta, sia con la mentali7 H. Fries, La rivelazione, in «Mysterium salutis», vol. I, Queriniana, Brescia 1967, p. 311. 8 Cf. R. Penna, “Quando venne la pienezza del tempo…” (Gal 4,4): storia e redenzione nel cristianesimo delle origini, in Id., Vangelo e inculturazione. Studi sul rapporto tra rivelazione e cultura nel Nuovo Testamento, San Paolo, Cinisello Balsamo 2001, p. 438, che riferisce le parole di Lutero: «Non enim tempus fecit filium mitti, sed e contra missio filii fecit tempus plenitudinis».
80
Cinque parole della scienza
tà greca, che neanche conosce un vero e proprio eschaton temporale, sia con la fede giudaica, per la quale l’eschaton pone necessariamente fine alla storia»9. Si possono riprendere le parole di O. Cullmann nel suo Cristo e il tempo. Qui egli afferma che per i primi cristiani il tempo non è una realtà opposta a Dio ma il mezzo di cui Dio si serve per rivelare l’azione della sua grazia, un tempo considerato non come un circolo ma come una linea retta, avente dunque un “inizio” (principio) e una fine distinti. La Scrittura conosce la rivelazione come una storia e «poiché il tempo è concepito come una linea continua, vi diviene possibile il “realizzarsi” progressivo e completo di un piano divino e la meta finale, situata al termine della linea, può imprimere agli avvenimenti, che si attuano lungo la linea stessa, un movimento ascensionale tendente ad essa; ed, infine, il fatto centrale e decisivo, Cristo, può essere il punto fisso che orienta tutta la storia prima e dopo di lui»10. La prospettiva di Cullmann necessita anche di una precisazione; infatti una rappresentazione più congrua della historia salutis globalmente intesa è forse quella che fa ricorso alla figura della spirale, dove si dà una direzione, ma non si esclude anche una sorta di circolarità e dove ogni momento successivo include e supera quelli precedenti, sicché ad esempio l’esodo è una nuova creazione, la Pasqua di Cristo un nuovo esodo, la fine dei tempi una nuova creazione, un nuovo esodo e una nuova Pasqua11. L’evento Cristo è “una volta per tutte” ma se già accaduto tuttavia non è relegato al passato perché soprattutto nell’azione liturgico-sacramentale lungi dal riaccadere (ciò che è decisivo cessa di essere tale se riaccadesse) il presente è ricondotto all’accaduto per cui il passato si fa di nuovo presente sacramentalmente. La visione “a spirale” e l’apertura al futuro include il passato secondo un duplice movimento in cui la memoria del passato dischiude il senso del futuro e il futuro raccogliendo in sé il passato lo rende non estraneo Ibid., p. 451. O. Cullmann, Cristo e il tempo. La concezione del tempo e della storia nel cristianesimo primitivo, Il Mulino, Bologna 1965, p. 77. 11 Si veda a tal proposito quanto scrive J.S. Croatto, Storia della salvezza. Introduzione alla Bibbia, Queriniana, Brescia 1971, pp. 83-84. 9
10
Memoria e previsione… e quel che ne resta
81
al futuro ma quest’ultimo più intellegibile; la memoria, in altre parole, si fa memoriale.
3. Memoria e previsione: quel che ne resta nella contemporaneità postmoderna Facciamo un passo avanti e un’incursione nel presente chiedendoci che ne rimane oggi di memoria e previsione, ovvero come la sensibilità diffusa della contemporaneità postmoderna si relaziona a questi due ambiti nel vissuto quotidiano e ordinario. Sembra che si sia dato seguito inconsapevolmente al warning di Pascal. Lo scienziato, filosofo e apologeta francese in uno dei suoi frammenti scriveva: «Noi non ci atteniamo mai al tempo presente. Anticipiamo il futuro come troppo lento a venire, come per affrettarne il corso; oppure ricordiamo il passato per fermarlo come troppo rapido; così imprudenti che erriamo nei tempi che non sono nostri, e non pensiamo affatto al solo che ci appartiene, e così vani, che riflettiamo su quelli che non sono più nulla, e fuggiamo senza riflettere quel solo che esiste. Il fatto è che il presente, di solito, ci ferisce. Lo dissimuliamo alla nostra vista perché ci affligge; se invece per noi è piacevole, rimpiangiamo di vederlo fuggire. Tentiamo di sostenerlo per mezzo dell’avvenire, e ci preoccupiamo di disporre le cose che non sono in nostro potere, per un tempo al quale non siamo affatto sicuri di arrivare. Ciascuno esamini i propri pensieri: li troverà sempre tutti occupati dal passato e dal futuro. Il presente non è mai il nostro fine: il passato ed il presente sono i nostri mezzi, solamente il futuro è il nostro fine. In questo modo non viviamo mai, ma speriamo di vivere; e, disponendoci sempre ad essere felici, è inevitabile che non lo siamo mai»12. Non credo che l’uomo oggi abbia imparato a essere finalmente felice (la felicità permane nella sua natura insuperabilmente asintotica, avvicinabile ma mai tangibile), e comunque la storia degli ultimi cento anni lo ha costretto a ripensarsi rispetto all’approccio e alla speranza moderni. La passione per il futuro, l’ossessione uto Pensées 168, secondo l’edizione Chevalier.
12
82
Cinque parole della scienza
pica intrinseca alle ideologie – ai grand récits – si è dissolta storicamente grazie di sicuro (ma non solo) all’esperienza tragica delle due guerre mondiali; al crescente disagio dell’uomo in una società “razionalizzata” divenuta più alienante che liberante; al fallimento dell’ideale cosmopolita universalista dinanzi all’esplodere dei diritti delle minoranze e dei “particolarismi”. Soprattutto le tragedie che accompagnano l’epoca della ragione dispiegata hanno dissolto il nesso futuro-redenzione, lasciando pensare al futuro non come a un “meglio” o un “di più” di felicità, ma come insicurezza, inquietudini, catastrofi e spaesamento più che nel presente, fino all’estrema eventualità della perdita totale di ogni senso e della possibilità di autodistruzione dell’umanità13. Da qui una “desertificazione dell’avvenire” che congeda il mito moderno di una ragione foriera di progresso a prescindere. La contemporaneità postmoderna, dunque, si configura come radicale messa in discussione non solo della fiducia illuministica nel progresso (relativamente alla capacità dell’uomo di guidare la storia verso il fine del bene) ma dell’idea stessa di progresso: «Rifiuto di concepire la successione temporale in termini di “superamento” e la tesi della avvenuta “dissoluzione della categoria del nuovo” (Vattimo). Dissoluzione che implica una “rottura con l’idea di rottura” e che coincide con l’esperienza della “fine della storia”, ossia con il tramonto della maniera storicistica di pensare la realtà e con l’avvento della cosiddetta post-histoire (A. Gehelen)»14. Come abbiamo accennato l’idea di progresso catalizzava lo specifico della modernità ponendo l’uomo unico e assoluto protagonista, chiamato a realizzare una condizione di felicità e perfezione con le sue sole forze. Scrive Z. Bauman, descrivendo la carica di utopia e speranza insita in una visione moderna dove novum e melius coincidono:
13 Cf. D. Fusaro, Essere senza tempo. Accelerazione della storia e della vita, Bompiani, Milano 2010, pp. 316-318. 14 G. Fornero, Postmoderno e filosofia, in Storia della filosofia. Fondata da N. Abbagnano, vol. IV/2: La filosofia contemporanea, a cura di G. Fornero – F. Restaino – D. Antiseri, UTET, Torino 1994, pp. 395-396.
Memoria e previsione… e quel che ne resta
83
Dal punto di vista sociale, la modernità riguarda gli standard della speranza e della colpa. (...) Di solito essi promettono che il domani sarà migliore dell’oggi e lo fanno senza paura di venire smascherati. Mescolano la speranza di raggiungere la Terra Promessa al senso di colpa per la lentezza della marcia. La colpa protegge la speranza dalla delusione: la speranza bada a che la colpa non venga mai meno. (...) Sia dal punto di vista sociale che da quello psichico, la modernità è inguaribilmente autocritica; il suo è un tentativo incessante, seppure tutto sommato senza speranza, di autocancellarsi e svalorizzarsi. (...) L’oggi è solo una confusa intuizione del domani o piuttosto il misero e sbiadito riflesso di quel domani. Ciò che è viene privato in partenza di valore da ciò che deve ancora venire. Ma è proprio questo invalidamento a conferire a ciò che esiste il suo peso e significato: il suo unico significato. Modernità significa impossibilità di restare fermi. Essere moderni significa essere perennemente in cammino. Il movimento non è affatto una questione di scelta, come non lo è la stessa modernità. Si è in movimento in quanto si esiste in un mondo lacerato tra la bellezza della visione e la bruttezza della realtà: una realtà che il bello della visione rende repellente e insopportabile15.
L’avvento del postmoderno nel suo tratto specifico di post-histoire segna una sorta di “secolarizzazione della secolarizzazione”, cioè il tramonto di quegli ideali utopici che nella modernità erano sorti dalle ceneri di un cristianesimo secolarizzato. La crisi dell’idea del progresso e della fede nel progresso segna il tramonto della storia nella pretesa che essa abbia un senso; post-histoire, dunque, come “fine del senso”. Tramonta definitivamente un punto di lettura che dia senso e unità alla realtà. In altre parole, finiscono le ideologie con la loro forza e la loro pretesa di ricomposizione del reale da un punto di vista non parziale, capace di cogliere la totalità come tale, dove ricostituzione della totalità significa anche riappropriazione, per cui solo se tutto è spiegato, di tutto possiamo disporre davvero. Preconizzando la fine della storia, il postmoderno si pone al di là della concezione della storia tipica della modernità e di fatto afferma la propria irriducibilità al paradigma delle epoche, «in quanto già il ricorso alla nozione di “epoca” implica in qualche modo la Z. Bauman, Il disagio della postmodernità, Bruno Mondadori, Milano 2002, pp. 67-68. 15
84
Cinque parole della scienza
possibilità di individuazione di un senso, di un disegno complessivo o di una legge degli eventi, possibilità scomparsa con la fine della modernità»16. È opportuno notare che il dissolvimento della storia, la sua fine quanto alla possibilità di determinare un fine, registra e traduce un più originario fallimento dell’ordo rationis. La fine della storia (non solo nel senso delle tesi di Fukuyama) si traduce anche nella percezione della contemporaneità come “rovina”, senza che si riconosca e viva «il valore evocativo dei ruderi, delle tracce del passato, cioè la qualità di traditio che si deposita nelle rovine del mondo di ieri»17. È il tempo del declino (cf. l’ontologia del declino di Vattimo), dove le rovine vanno abitate senza pathos, guardando al passato con libertà, senza imporre una forma di rapporto su altre. Poiché la rovina è piena e irrecuperabile, non resta che vivere nel mondo delle rovine della metafisica e del nichilismo senza rimpianti, che non hanno ragione d’esistere18. La fine della storia porta con sé la fine dell’utopia e della tensione fra l’essere e il dover essere: tutto si consuma nell’istante poiché null’altro ha da accadere che implichi un “di più” in termini di progresso, di bene, di felicità19. L’uomo postmoderno non si infiamma 16 V. Verra, Postmoderno, poststoria e postfilosofia, in F.L. Marcolungo (ed.), Provocazioni del pensiero post-moderno, Rosenberg & Sellier, Torino 2000, p. 15. 17 M. Ferraris, Tracce. Nichilismo Moderno Postmoderno, Mimesis, Milano 2006, p. 112. 18 Cf. Ibid., pp. 116-117. 19 Di diverso parere è Bauman. A suo parere è vero che il cosiddetto postmoderno ha rovesciato i paradigmi trasformando ciò che prima era difetto in virtù e riabilitando i difetti di un tempo: «tutto quello che la modernità aveva giurato di distruggere vede oggi la sua dolce rivincita. La comunità, la tradizione, la gioia del chez soi, l’amore per ciò che è proprio, l’orgoglio per il fatto di stare con i connazionali, le radici, il sangue, la terra, la nazione: oggi nessuno condanna più tutto ciò» (Il disagio della postmodernità, p. 87); ma, si chiede Bauman, è davvero la fine della modernità oppure permanendo il progetto sono solo modificate le strategie per la sua realizzazione? In verità, «viviamo pienamente sotto il segno della modernità. Siamo moderni nel più moderno dei sensi: nel senso di sperare che le cose si possano rendere diverse e migliori da come sono, e che lo si debba fare, in quanto le cose non sono buone come dovrebbero e come potrebbero essere. (...) Non abbiamo smesso di desiderare che il compito venga eseguito: ci siamo semplicemente convinti dell’inutilità degli strumenti ai quali legavamo le nostre speranze e ne cerchiamo avidamente altri, incrociando le dita perché almeno questi si prestino a essere usati» (ibid., pp. 87-88). Perciò la civiltà postmoderna non è che una versione della civiltà moderna (cf. ibid., p. XI).
Memoria e previsione… e quel che ne resta
85
più né per la tradizione né per la rivoluzione poiché il passato e il futuro convergono nella prospettiva del “qui e ora”; dal moderno “diventa ciò che sei” si passa al postmoderno “sii ciò che sei”: «Carpe diem, no future – ciò che conta è prendere atto della pulsione madre che illumina la scena: il fatto di gioire, il meglio e il più possibile, del mondo che si dà a vedere e a vivere. La proiezione nel futuro non ha più molto senso, non ha più appeal»20. Per questo non la storia né l’avvenire ma la puntiformità dell’attimo presente costituisce l’orizzonte per l’agire dell’uomo contemporaneo. La soggettività, indebolita e decostruita, riduce la sua progettualità alla fruizione e al godimento nel presente: «Tra le ceneri spente dell’utopia l’intelligenza appare oggi incapace di produrre esperienze simboliche suscettibili di consenso e rischia di ridursi a una intelligenza cinica, che per cancellare il disagio della perdita di centri di gravità si compiace e si inebria del qui e dell’ora, del presente nella sua più puntiforme ed effimera attualità, del senso nella sua più immediata consumazione»21. Sulla celebrazione assoluta del presente (un presente privo di qualunque legame con ciò che lo precede e lo segue, perciò ab-soluto), valgono le parole di M. Augé: Il problema è che oggi sul pianeta regna un’ideologia del presente e dell’evidenza che paralizza lo sforzo di pensare il presente come storia, un’ideologia impegnata a rendere obsoleti gli insegnamenti del passato, ma anche il desiderio di immaginare il futuro. Da uno o due decenni, il presente è diventato egemonico. Agli occhi del comune mortale, non deriva più dalla lenta maturazione del passato e non lascia più trasparire i lineamenti di possibili futuri, ma si impone come un fatto compiuto, schiacciante, il cui improvviso emergere offusca il passato e satura l’immaginazione del futuro22.
Mentre il moderno, per dirla con Baudelaire, era l’epoca dell’eterno nell’istante, il postmoderno è divenuto prigioniero dell’istante e trascinato nell’eliminazione sempre più totale del senso23. Cre M. Maffesoli, Note sulla postmodernità, Lupetti, Roma 2005, p. 99. F. Volpi, Il nichilismo, Laterza, Roma-Bari 1996, p. 97. 22 M. Augé, Che fine ha fatto il futuro? Dai non luoghi al nontempo, Elèuthera, Milano 2009, p. 88. 23 Cf. A. Touraine, Critica della modernità, Il Saggiatore, Milano1993, p. 222. 20 21
86
Cinque parole della scienza
do che queste parole di Maffesoli sintetizzino bene il punto in questione: Il tempo si contrae in spazio. Tende progressivamente a predominare il presente che vivo con gli altri in un determinato luogo. In qualunque modo lo si voglia chiamare, tale presenteismo sta contaminando le rappresentazioni e le pratiche sociali, soprattutto giovanili. Si tratta del carpe diem di antica memoria, che ben traduce l’edonismo diffuso della nostra contemporaneità. La jouissance non è più connessa a qualche ipotetico “domani che canta”, non è più esperita in un paradiso da raggiungere, bensì viene vissuta, sia nel bene che nel male, nel presente. Il presente postmoderno in questo senso si riallaccia alla filosofia del kairós, che pone l’accento sulle occasioni e le buone opportunità. L’esistenza, d’altra parte, non è altro che una serie di istanti eterni che conviene vivere al meglio qui e ora (...). Nelle diverse forme in cui possono manifestarsi, la saturazione di ogni progetto e la diffidenza verso la Storia finalizzata, portano a ritrovare il senso della vita nell’atto stesso della sua esperienza e non più in un risultato lontano e ideale. La postmodernità, quindi, per la stessa ragione, non darà più nessun credito a qualsivoglia progressismo di sorta, né a ciò che tale orientamento postula come ineluttabile, mentre accorderà più importanza e centralità a una “saggezza progressiva” che conduce alla realizzazione del sé e al raggiungimento della gioia nell’istante e nel presente vissuto nella totalità della sua intensità24.
Il rifiuto del senso, cioè di una rappresentazione unitaria del mondo, ridotto a una serie di frammenti in perpetuo movimento, e il crollo dell’ordine temporale, ridotto a mero presente, conduce al paradosso nella trattazione del passato. Infatti, «rifuggendo dall’idea di progresso – scrive Harvey – il postmodernismo abbandona ogni senso di continuità e di memoria storica, mentre al tempo stesso sviluppa un’incredibile capacità di saccheggiare la storia e di assorbire, quale aspetto del presente, qualsiasi cosa vi trovi»25. Il presentismo invade anche il passato, come si evince dalle ondate della memoria. Il passato non ha più valore in sé e il presente aspira morbosamente a invadere il passato «sovraccaricandolo con i propri M. Maffesoli, Note sulla postmodernità, pp. 56-57 (corsivi nel testo). D. Harvey, La crisi della modernità, Il Saggiatore, Milano 1997, pp. 75-76.
24 25
Memoria e previsione… e quel che ne resta
87
problemi, con i propri valori e con le proprie prospettive indissolubilmente legate all’oggi e, di per sé, estranee a quel passato. Sotto questo profilo, i luoghi della memoria, che pure fingono di sottrarsi al presentismo, in realtà non fanno altro che convertire la memoria non in contenuto, ma in pura forma esteriore, secondo un movimento di continua storicizzazione del presente, che così finisce per inglobare anche il passato»26. Non solo dunque idolatria dell’istante presente nel suo mero darsi senza pro-venire e av-venire, ma anche una compressione spazio-temporale, un’accelerazione dei processi che investe ogni ambito, a partire da quello economico (accelerazione del ciclo di produzione, degli scambi e del consumo), con il crescere dei valori dell’istantaneità (fast) e immediatezza (just do it) e questa dinamica dell’“usa e getta” determina a sua volta un’accentuazione della fuggevolezza e della caducità di tutto (mode, prodotti, tecniche di produzione ecc.). Sulla necessità di una “cancellazione” della memoria e di una rinuncia alla previsione o a uno sguardo pro-teso al futuro si può considerare la prospettiva di Michel Maffesoli nella sua opera del 2000 L’istante eterno. Al contrario di una modernità in cui il tempo è lineare, monocromo, direzionato e tutto proteso verso il futuro, nell’orizzonte puntellato di una progettualità ossessiva, il postmoderno riconosce invece un tempo policromo, tragico e presenteista che anima il ritorno di un vigoroso paganesimo dello spirito segnato da vitalità e vitalismo e dal ripresentarsi dell’ombra di Dioniso. La crisi della verità come una e sempre la stessa, annuncia la ripresa di vigore del politeismo dei valori, mentre il congedo dall’istanza moderna muove verso una riconsiderazione dell’esistenza come successione di istanti eterni, senza scopo e senza progetto, immersa nel presente, l’unica dimensione della vita27. Neopagana è la dimensione destinale dell’esistenza postmoderna, ovvero il rico D. Fusaro, Essere senza tempo, p. 362. «La vita vera è senza progetto perché è senza uno scopo preciso. Da qui proviene l’aspetto lancinante delle sue manifestazioni. Da qui l’aspetto ripetitivo dei suoi rituali. Da qui l’impressione di vacuità di una vita che si esaurisce nell’atto stesso della sua creazione» (M. Maffesoli, L’istante eterno. Ritorno del tragico nel postmoderno, L. Sossella, Roma 2003, p. 14). 26 27
88
Cinque parole della scienza
noscimento del destino e l’affermazione della libertà all’interno di una necessità colma d’amore (amor fati). Dietro il tragico latente e l’edonismo ardente che segnano il nostro tempo, si collocano la verità delle azioni umane, il sentimento della precarietà e della brevità della vita, che non ci allontana dalla vita ma ci rimette in essa, nella consapevolezza che il mondo in cui siamo è il solo in cui ci è dato vivere; da qui la sostituzione della storia con il destino che si traduce in un’etica dell’istante volta ad affermare la vita nell’avvenimento che accade e non nella determinazione delle conseguenze dell’evento28. Il presente come unica realtà crea un’atmosfera di non curanza che non ci fa preoccupare per il futuro ma sostiene un desiderio di vivere nel presente con la sua freschezza, poiché l’accettazione, l’amore del destino, dona serenità, non angoscia. Le teorie fondate sul senso della storia – la visione giudaico-cristiana o hegeliano-marxista – concentrate su un’attesa parusiaca in vista di una vita laggiù, hanno finito col negare valore in sé alla vita quaggiù (innegabile l’“ombra” di Nietzsche in queste affermazioni). Al contrario la sensibilità tragica – che traduce il riconoscimento e l’abbraccio al destino – afferma l’esistenza, riconoscendo la ciclicità, poiché ciò che è ha valore in sé e non in ragione di ciò che dovrebbe o potrebbe essere. Solo così la vita può essere vissuta nel suo kairós, cogliendo le opportunità che essa offre, in contrapposizione agli apologisti del futuro o ai nostalgici del passato, e la morte che la segna non è più uno scandalo. Il presente è, dunque, unico e divino (non è forse Dio un “eterno presente”?) e ad esso va detto sì cogliendone le opportunità e riconoscendo alle cose il valore che spetta loro; il fatto poi che il presente sia precario non toglie vigore e intensità al desiderio di vivere l’istante (etica dell’istante): «Il calmo furore del presente, il pensie28 «La cultura del piacere, il sentimento del tragico, l’affrontare il destino, sono causa ed effetto di un’etica dell’istante, di un’accentuazione delle situazioni vissute per quello che sono, e che si esauriscono nell’atto stesso, senza più proiettarsi in un avvenire prevedibile e direzionabile a piacere. È questa la conseguenza della necessità nel suo senso filosofico: essa genera eroi, nuovi cavalieri della postmodernità, capaci di rischiare la propria vita per una causa che potrebbe essere, contemporaneamente, idealistica e perfettamente frivola» (M. Maffesoli, L’istante eterno, p. 26).
Memoria e previsione… e quel che ne resta
89
ro di vivere senza preoccuparsi troppo dell’avvenire, rappresentano certamente la modulazione contemporanea di quella costante antropologica che è il tragico. Quello che accadrà domani non possiede importanza visto che si può godere, qui e ora, di ciò che si presenta: una piacevole evenienza, una passione amorosa, un’esaltazione religiosa, ma anche la serenità del tempo che scorre»29. Siamo in un situazionismo generalizzato che sa vivere gli avvenimenti per ciò che sono e sa apprezzare il mondo per ciò che è: la routine ordinaria riscatta il tempo dall’inutilità e dalla linearità, e il quotidiano può essere finalmente vissuto perché non si considera più che alcune cose sono importanti e altre non lo sono. La vita, insomma, viene percepita come priva di scopo, o meglio, precisa Maffesoli, «come se non avesse uno scopo preciso al di là di sé. Così facendo, l’esistenza si trova valorizzata per ciò che è; essa è sufficiente a se stessa»30. Questa immobilizzazione del tempo è «la valorizzazione del banale, dell’ordinario, e di tutto ciò che caratterizza il quotidiano. Il presente è privilegiato come espressione della presenza della vita. Tutte cose che potremmo riassumere in una sorta di istante eterno in cui la sospensione del tempo, il rallentamento dell’esistenza, favoriscono l’intensità, l’approfondimento dei rapporti sociali, e l’apprezzamento del mondo per come è»31. L’uomo che vive così è simile all’eroe tragico della tragedia greca, il quale non discute mai con il destino ma ne accetta il decreto. All’eroe tragico si oppone la figura di Giobbe, l’eroe drammatico, che esige da Dio delle spiegazioni e non accetta le cose per ciò che sono ma vuole capire il senso. Invece l’eroe tragico accetta il destino e la morte accentuando il presente: «Vivere al presente equivale a vivere la propria morte ogni giorno; equivale all’affrontarla e all’ac-
M. Maffesoli, L’istante eterno, p. 47. Si tratta dell’avventura del presente, della vita di tutti i giorni, presente riscattato dall’essere considerato banale quotidiano: «Potremmo domandarci se i cavalieri postmoderni del Graal non siano altro, per l’appunto, che gli avventurieri del quotidiano, i quali non proiettano più le loro speranze in ipotetici e lontani ideali, ma s’impegnano a vivere, al meglio, qualitativamente, giorno per giorno, una forma di intensità esistenziale» (ibid., p. 58). 30 Ibid., p. 69. 31 Ibid., p. 70. 29
90
Cinque parole della scienza
cettarla. Termini come intensità e tragico non dicono nient’altro: ha valore solo ciò che sappiamo avrà una fine»32. In questo contesto postmoderno l’individuo innamorato del destino non è più governato unicamente dalla ragione ma è mosso anche da tutte le dimensioni non razionali: sentimenti, affetti, umori33. Piuttosto l’intrinseco relativismo postmoderno – il fatto che troviamo solo risposte approssimative, piccole verità provvisorie incapaci di valere sempre e per chiunque – ricentra l’uomo sugli affetti, perché con la loro stabilità e relatività (a luoghi, a situazioni particolari e a passioni ed emozioni), meglio declinano la presa di coscienza della brevità della vita e la sua irriducibilità all’oggettivismo tipico della modernità: «I sentimenti dominano la vita privata e pubblica, le emozioni prendono il sopravvento nella politica, il divertimento e il culto del corpo sono onnipresenti, le isterie collettive, ovviamente sportive ma anche musicali, religiose o di consumo, sono innumerevoli. Certo è possibile – ed è anche abbastanza frequente – analizzare tutto questo in termini di alienazione. Cosa che in parte corrisponde alla realtà. Ma potremmo anche considerarla come l’esperienza di un voler-vivere irreprimibile»34.
Ibid., p. 59. Cf. ibid., p. 31. 34 Ibid., p. 84. 32 33
Memoria e previsione negli animali Augusto Vitale
1. Introduzione1 Vorrei iniziare questo mio contributo sulla memoria negli animali non umani (d’ora in poi “animali”) parlando della ghiandaia. La ghiandaia (Garrulus glandarius) è un uccello appartenente alla famiglia dei Corvidae, e ha una distribuzione geografica molto estesa (si trova in Europa, Africa e Asia). Questo particolare volatile è stato studiato per anni da diversi studiosi, prima fra tutti Nicky Clayton dell’Università di Cambridge, e una sua caratteristica è quella di nascondere il cibo per un futuro consumo. La ghiandaia non si limita solo a nascondere il cibo, ma fa sfoggio di una serie di capacità sorprendenti. Ad esempio, è stato osservato che se ha nascosto un seme in presenza di un’altra ghiandaia che osserva, più tardi tornerà non osservata a cambiare il nascondiglio, per evitare che l’osservatrice le rubi il bottino (Clayton et al., 2007). Inoltre, i semi vengono nascosti in dozzine di posti differenti che la ghiandaia è in grado di ricordare perfettamente, e va a riprendere il cibo in base alla possibilità che deperisca prima (e quindi ricordando quale cibo è stato nascosto per primo…). Ad esempio, se vengono offerti semi e vermi da nascondere, i vermi saranno recuperati prima dei semi. Il comportamento di questo piccolo uccello apre una serie di domande stimolanti: quanto la memoria degli animali è simile alla
1 Augusto Vitale, ricercatore, Istituto Superiore di Sanità (Roma). L’autore desidera ringraziare il prof. Giandomenico Boffi e il gruppo di ricerca SEFIR per il continuo supporto e incoraggiamento.
92
Cinque parole della scienza
nostra? Gli animali condividono con noi la capacità di far tesoro delle esperienze passate per poter pianificare azioni future?
2. Diverse memorie nell’essere umano Possiamo definire la memoria come ciò che può determinare una variazione comportamentale a motivo dell’esperienza. L’apprendimento può essere definito di conseguenza come un processo che facilita l’acquisizione e formazione della memoria. Secondo questa definizione, si possono identificare diversi tipi di memoria. Si può affermare che alcune forme di memoria sono “presenti” nella coscienza, come ad esempio quando si ricordano eventi particolari: tale memoria è chiamata “memoria dichiarativa”. Un altro tipo di memoria, la “memoria procedurale”, non è invece qualcosa di cui si è consci e viene utilizzata per mettere in atto abilità acquisite precedentemente nel tempo. Quando si guida l’automobile, ad esempio, non è necessario ricordare ogni volta consciamente come funzionano il freno o la frizione; semplicemente si utilizzano in maniera automatica. Rimane anche in questo caso possibile migliorare con la pratica, ma su conoscenze già acquisite in passato. La memoria dichiarativa e quella procedurale sono indipendenti. Infatti, ci sono pazienti che non sono in grado di richiamare fatti avvenuti in passato nella loro vita, ma allo stesso tempo danno prova di saper usare senza problemi la memoria procedurale. Partendo da queste osservazioni, i neuroscienziati pensano che a questi due tipi di memoria corrispondano meccanismi separati che fanno riferimento ad aree del cervello differenti. L’ippocampo è considerato importante per la memoria dichiarativa, mentre il cervelletto sembra invece giocare un ruolo fondamentale per la memoria procedurale. Un dato importante è che la formazione di una memoria richiede comunque un’alterazione a livello del sistema nervoso, e molti sono d’accordo nel pensare che le sinapsi tra i neuroni siano i candidati più probabili per questo tipo di alterazioni. In poche parole: una variazione nella modalità ed efficacia di trasmissione a livello sinaptico (plasticità sinaptica) viene considerata il “luogo fi-
Memoria e previsione negli animali
93
sico” della memoria nel nostro cervello. C’è comunque ancora molto da imparare sul rapporto tra plasticità sinaptica, apprendimento e memoria. Molti progressi sono stati compiuti nello studio della memoria spaziale, e alcuni di questi studi hanno cercato di evidenziarne gli aspetti neurofisiologici, anche qui con particolare attenzione sul ruolo dell’ippocampo (Olton e Paras, 1979; Tsien et al., 1996). Questa parte del cervello è in generale importante non solo per la memoria spaziale ma anche per altri tipi di memoria, come quella a lungo termine. Ad esempio, quando l’ippocampo risulta danneggiato a causa del morbo di Alzheimer i malati mostrano una grande difficoltà a ricordare eventi passati e a formare memorie nuove. Possiamo menzionare altri tipi di memoria. La “memoria sensoriale” dà la possibilità di ricordare una sensazione legata a un particolare organo di senso dopo che lo stimolo è cessato. La formazione di questo tipo di memoria è involontario ed è indipendente dal livello di attenzione prestato a un particolare stimolo. Invece, la “memoria a breve termine” consente di richiamare un’informazione ricevuta da pochi secondi fino a un minuto prima, e la sua efficacia sembra dipendere più dal grado di attenzione che non dall’esercizio. Per questa ragione, tale memoria diventa labile quando si è distratti da qualcosa e la nostra attenzione si sposta altrove. Con la memoria a breve termine siamo in grado di ricordare fino a 4-6 numeri, ma ne possiamo ricordare di più se li raggruppiamo, come nel caso dei numeri di telefono (ad esempio, 202-456-1414). La capacità di ricordare questo tipo di informazione è relativa all’attività contingente dei neuroni situati nei lobi frontale e parietale.
3. Ma la memoria negli animali? I tipi di memoria che abbiamo menzionato sono stati studiati negli esseri umani. Che cosa sappiamo degli altri animali? Hanno una memoria simile alla nostra? Come in molti altri casi, quando si vuole fare una comparazione tra il comportamento umano e quello degli altri animali, ci si trova di fronte a differenze di grado, per le quali gli altri animali mostrano in embrione alcune capacità par-
94
Cinque parole della scienza
ticolarmente sviluppate nella nostra specie (anche se questo non significa che la nostra specie sia la più “evoluta” o necessariamente la più “complessa”). Si possono trovare in letteratura vari esempi di dati comparativi fra le capacità mnemoniche umane e quelle di altri animali (specialmente scimmie antropomorfe). La memoria a breve termine negli scimpanzé sembra essere di poco meno funzionale di quella degli esseri umani. Ambedue le specie (umani e scimpanzé) sono in grado di ricordare non più di 5-7 unità (numeri, oggetti...), e questa difficoltà rappresenta per ambedue una limitazione quando si tratta di risolvere dei problemi cognitivi. La differenza però sta nel contenuto di queste “unità”. Uno scimpanzé, adeguatamente preparato, può ricordare una sequenza di numeri da 1 a 7 (tipo: 2-6-4-3-7), mentre invece un umano può ricordare sequenze come: 21-43-96 o 1222-3299-4321, e così via. Inoltre, uno scimpanzé può ricordare cinque parole, mentre un umano può ricordare cinque frasi, cinque storie e così via (Silverberg e Kearns, 2009; ma anche Inoue e Matsuzawa, 2007). Quindi, nonostante ci siano limiti simili nell’uso della memoria a breve termine, scimpanzé e umani differiscono significativamente nella quantità di informazione che possono ricordare. Inoltre gli umani, a differenza dei cugini primati, possono sopperire ai limiti della memoria utilizzando il linguaggio scritto. Tali limitazioni, differenze e somiglianze possono avere conseguenze differenti sulla vita cognitiva di una particolare specie, in relazione al complessivo profilo mentale di un particolare individuo. In relazione alla memoria spaziale, il ruolo dell’ippocampo è stato studiato usando roditori come modelli animali. Si è visto che questa parte del cervello è essenziale per potersi muovere nello spazio e per ricordare una serie di caratteristiche spaziali dell’ambiente che, ad esempio, aiutano l’animale a fare ritorno alla tana dopo essersi allontanato alla ricerca di cibo. In letteratura si possono trovare diversi casi di specie animali che fanno buon uso della memoria spaziale. Abbiamo già citato le ghiandaie, che sono in grado di ricordare dove, quando e quale tipo di cibo hanno nascosto. Ma studi recenti hanno mostrato che anche ratti e scoiattoli possono utilizzare la memoria spaziale per ritrovare cibo nascosto in precedenza. L’utilizzo del labirinto radiale ha permesso ai ricercatori di con-
Memoria e previsione negli animali
95
trollare differenti variabili durante esperimenti sulla memoria spaziale come, ad esempio, l’influenza del tipo di cibo nascosto, dove il cibo viene nascosto e l’importanza dell’olfatto come complemento all’uso della memoria spaziale. In particolare, gli esperimenti hanno mostrato che i ratti ricordano dove e che tipo di cibo hanno messo da parte. Si è visto che essi sono selettivi sui bracci del labirinto da visitare: preferiscono andare in bracci dove hanno nascosto un cibo buono, piuttosto che in quelli dove hanno nascosto un cibo neutro, oppure dove non c’è cibo (Olton e Samuelson, 1976). Altri interessanti studi sono stati compiuti sul foraggiamento delle api da miele (Apis mellifera), le quali usano una forma sofisticata di memoria a breve termine per localizzare del cibo. Si è visto che gli effetti di una sessione di addestramento di tale senso su questi insetti possono durare giorni; dopo tre sessioni l’informazione acquisita rimane per tutta la vita (Stollhoff et al., 2005). Si è inoltre osservato che una specie di lumaca (Limax flavus) ha una memoria a breve termine che può durare un minuto e una memoria a lungo termine che può durare fino a un mese (Yamada et al., 1992).
4. Etologia e memoria negli animali Quale potrebbe essere il beneficio per un animale nel possedere diversi tipi di memoria? Alcuni autori, come Schwartz e colleghi, affermano che la memoria episodica rappresenta per gli animali un vantaggio nelle relazioni sociali e nel procacciamento di cibo (Schwartz e Evans, 2001). Ad esempio, sappiamo che in sistemi sociali complessi gli animali sviluppano sistemi di gerarchia regolati da relazioni di dominanza di diverso grado. Queste gerarchie dipendono dal tipo di relazioni sociali che gli individui intraprendono fra loro e, a loro volta, le interazioni sono influenzate dal relativo grado di dominanza dei partecipanti. In questo contesto è necessario adottare le giuste strategie comportamentali e per farlo gli individui devono ricordarsi di specifici incontri ed eventi sociali: Che cosa è successo precedentemente? Chi era coinvolto? C’è stato un cambiamento di gerarchia?
96
Cinque parole della scienza
È stato osservato, sempre nelle ghiandaie, che se un subordinato assiste alla disfatta di un dominante da parte di un nuovo individuo, il subordinato mostrerà in incontri successivi deferenza verso il nuovo membro del gruppo (Bond et al., 2004). Lo stesso studio ha dimostrato che questi uccelli in effetti «tengono a mente» i risultati delle interazioni sociali alle quali hanno assistito in precedenza (indipendentemente dal fatto che ne fossero stato coinvolti direttamente), e usano queste informazioni per decidere quale tipo di strategia adottare in futuri incontri. Per quanto riguarda il procacciamento di cibo abbiamo già visto come le stesse ghiandaie sono in grado di ricordare il nascondiglio di diverse risorse di cibo e anche di ricordare quali devono consumare per prime, prima che si deteriorino. Un altro ovvio vantaggio è il ricordarsi quando e dove sono state incontrate nell’ambiente tracce odorose di predatori (o il predatore stesso!), in modo da evitare futuri spiacevoli incontri. Altri esempi di come differenti specie animali possano trarre vantaggio dalla memoria episodica sono le alleanze sociali nelle società dei primati non umani, il parassitismo dei cuculi e la capacità di alcune specie di arvicole di ricordarsi dove possono localizzare femmine fertili. Nel caso di alleanze sociali, esempi di altruismo e cooperazione sono stati documentati nei primati non umani in diverse forme e circostanze (vedi, ad esempio, Kappeler e van Schaik, 2006). I modi in cui questi comportamenti si manifestano, le motivazioni e gli aspetti cognitivi che li accompagnano, sono continuamente oggetto di studio e di ridefinizione. In particolare, un’osservazione mossa nei confronti del meccanismo dell’altruismo reciproco (quando due individui si scambiano favori dilatati nel tempo) è particolarmente interessante e non del tutto estranea ad alcune considerazioni svolte nel presente scritto. Uno degli aspetti riconosciuti come condizione necessaria per la comparsa di fenomeni di altruismo reciproco è una memoria delle interazioni passate. Solo in questo modo si può compiere un atto altruistico verso un particolare individuo, ricordando che quell’individuo in passato è stato generoso e quindi reciprocherà in futuro. Una critica verso questa interpretazione è però fornita da diversi autori, i quali affermano che questa lettura attribuisce agli altri
Memoria e previsione negli animali
97
animali capacità cognitive forse troppo sofisticate. Si tratterebbe infatti di pianificare le proprie azioni in base a una sorta di catalogo degli atti altruistici ricevuti, o non ricevuti, dai membri del proprio gruppo sociale, che spesso ammontano a varie dozzine di individui (Schino e Aureli, 2009).
5. Evoluzione e memoria Gli animali hanno un repertorio comportamentale molto vario, dove apprendimento e predisposizioni innate interagiscono in continuazione. Il concetto di memoria filogenetica riguarda quelle informazioni che l’animale non ha bisogno di imparare perché sono patrimonio dell’evoluzione della sua specie. In questo caso si ricorda filogeneticamente. Un esempio che si può portare è il comportamento anti predatorio del coniglio selvatico (Oryctolagus cuniculus). In uno studio compiuto su questo animale sono stati presentati a soggetti di età diversa e diverso grado di esperienza anti predatoria due modelli di predatori: un predatore alato e un predatore terrestre. Essi utilizzano due strategie di caccia diverse: il predatore terrestre, come ad esempio un furetto, cattura la preda inseguendola sotto terra, mentre il predatore alato cattura le prede in superficie. Logica vuole che una risposta anti predatoria efficace da parte dei conigli sarebbe quella di diversificare la risposta secondo il tipo di predatore, vale a dire utilizzare la tana come via di fuga se incombe un rapace ma non se si avvicina un carnivoro terrestre. In questo studio si è voluto verificare la correttezza dell’ipotesi. I risultati hanno mostrato che, in generale, i conigli più piccoli usavano sempre la tana come rifugio immediato, indipendentemente dal tipo di predatore proposto. Con il crescere dell’età i conigli scappavano sottoterra più frequentemente in presenza del predatore alato che non in presenza del predatore terrestre (veniva impiegato un furetto addomesticato). Inoltre, i conigli con maggiore esperienza anti predatoria adottavano una strategia di fuga adeguata al predatore con una maggiore frequenza rispetto a conigli con minore esperienza (Vitale, 1989).
98
Cinque parole della scienza
L’esempio insegna che la scelta di come reagire alla presenza di un predatore è soggetta all’influenza di diversi fattori, come età ed esperienza, mediati da uno stretto rapporto tra istinto e apprendimento. L’esperienza non è solo quella del passato immediato, ma è anche legata a un passato, per così dire, filogenetico. È una memoria ormai entrata stabilmente a far parte delle caratteristiche comportamentali proprie di una specie, perché essenziale per la sopravvivenza della specie stessa.
6. Pianificano il futuro Un organismo vivente per raggiungere un accettabile grado di adattamento all’ambiente in cui vive deve essere in grado di prevedere eventi futuri. Deve poter prevedere la presenza di potenziali compagni con cui riprodursi, la presenza di cibo e deve saper anticipare l’arrivo di predatori. Questa abilità permette di scegliere al meglio come reagire a una certa situazione. Si tratta di una disposizione che risulta essenziale per la sopravvivenza: l’animale sceglie tra diverse possibilità di azione in maniera oculata, perchè una scelta sbagliata lo potrebbe esporre a situazioni pericolose. Numerosi esperimenti hanno mostrato che diverse specie sanno predire eventi che accadono nell’ambiente, incluse le caratteristiche e la posizione spaziale di diversi oggetti. Alcuni primati non umani, ad esempio gli scimpanzé e le scimmie cappuccine (Sapajus spp), sono in grado di utilizzare strumenti per ottenere cibo. Un’osservazione importante in questo senso è la capacità di prevedere l’uso di uno strumento, utilizzando una sorta di immagine mentale. Gli scimpanzé sono capaci di usare pietre per spaccare noci dal guscio particolarmente resistente e sono in grado di trasportare tali utensili per lunghe distanze verso zone che abbondano di noci, ma sono sprovviste di pietre adatte allo scopo (Boesch e Boesch, 1984). L’osservazione sembrerebbe indicare la capacità di questi animali di anticipare un’azione futura, ma bisogna essere prudenti per non incorrere in interpretazioni affrettate. L’approvvigionamento di pietre per spaccare le noci è legato direttamente all’attività di foraggiamento e in particolare al consumo della polpa delle noci stesse. La
Memoria e previsione negli animali
99
previsione mentale che l’animale mette in atto è legata in maniera significativa allo stato motivazionale di quell’individuo al presente, ovvero il fatto di essere affamato. Si osserva qui una forma di pianificazione di un atto futuro, ma legato a una necessità e motivazione presente. Questo limita la possibilità per questo animale di generalizzare la sua capacità. Prevedere un’azione o un risultato futuro richiede spesso una certa dose di autocontrollo. Mathias e Helena Osvat, mediante una serie di esperimenti, hanno cercato di capire se scimpanzé e oranghi possono esibire autocontrollo in vista di ricompense future. Se i risultati avessero dato esiti positivi si sarebbe potuto sostenere che queste specie sono in grado di controllarsi e di pianificare azioni future, anziché cedere all’impulso a consumare immediatamente una ricompensa a loro presentata. A due femmine di scimpanzé e a un maschio di orango, ospitati alla Primate Research Station dell’Università di Lund, è stato mostrato come usare un tubo flessibile per ottenere del succo di frutta. Quindi sono stati messi di fronte a una scelta: una ricompensa immediata sotto forma di un frutto favorito, oppure il tubo con il quale ottenere più tardi (anche 70 minuti dopo) una ricompensa qualitativamente e quantitativamente più significativa (il succo di frutta). Le scimmie in questione scelsero più frequentemente il tubo flessibile che non il frutto preferito, dimostrando di essere in grado di fare scelte in relazione a una ricompensa futura, anche se un premio comunque gradito era immediatamente disponibile. A questo punto i ricercatori hanno introdotto un nuovo oggetto, che avrebbe funzionato come il tubo flessibile, e due altri oggetti non funzionali a ottenere la ricompensa. I soggetti sperimentali hanno scelto l’oggetto che assomigliava al tubo, compiendo quindi una scelta in base alle caratteristiche funzionali di un particolare oggetto. Gli autori dello studio affermano che queste scimmie hanno mostrato la capacità di visualizzare un evento futuro, ovvero l’uso di un oggetto per ottenere il succo di frutta. E concludono: «The results of this study entail that capacities central to human evolved much earlier than previously believed» (Oswath e Oswath, 2008). Un altro esempio di pianificazione di azioni future da parte di animali viene dallo zoo di Farufik in Svezia. Qui era ospitato uno
100
Cinque parole della scienza
scimpanzé di nome Santino il quale aveva una particolare avversione verso i visitatori, ed era solito tirare sassi a chi si avvicinava al suo recinto. Con il tempo, questo atteggiamento diventò popolare e per Santino era sempre più difficile sorprendere i visitatori con i suoi proiettili. Così lo scimpanzé imparò a mettere i suoi sassi appena fuori dalla vista fingendo di trovarsi lì per caso per sviare i sospetti. Santino approfittava di un momento di distrazione dei turisti, quindi afferrava i sassi nascosti e partiva all’attacco. Il comportamento è stato interpretato come capacità da parte dello scimpanzé di imparare dalle esperienze passate per pianificare azioni future e come possesso di una complessa memoria episodica (tipica dell’essere umano). La memoria semantica ricorda semplici eventi («tiro i sassi ai visitatori, e questi vanno via»), mentre la memoria episodica analizza e sfrutta un ricordo passato per cambiare il comportamento futuro («se mi vedono con i sassi i visitatori scappano, quindi nascondo i sassi e li tiro a sorpresa»). Santino sembrava in grado di immaginare se stesso nel passato, quando non riusciva a sorprendere i turisti con i sassi, e di proiettarsi nel futuro, “pensando” a una variazione del suo comportamento che lo avrebbe portato al successo. La capacità di rappresentare se stessi e le proprie azioni con l’occhio della mente viene definita “viaggio mentale nel tempo” (Oswath e Karvonen, 2012).
7. Pianificano il futuro come noi? La capacità di pianificare azioni future è pensata come propria degli umani e non è chiaro tuttora quanto sia presente negli altri primati. Negli umani, una pianificazione del comportamento richiede due capacità mentali: autocontrollo, che permette di inibire un bisogno immediato in favore di una futura ricompensa, e la capacità di “viaggiare mentalmente nel tempo” per immaginare un’esperienza passata o futura. In particolare, nella nostra specie, una pianificazione delle azioni ha a che fare con l’abilità di prevedere desideri e bisogni futuri, indipendentemente dallo stato motivazionale corrente, anche a lungo termine (e sicuramente per un tempo più lungo di quello
Memoria e previsione negli animali
101
necessario a rispondere a uno stimolo per pressare una leva e ricevere una ricompensa alimentare). Abbiamo prove discordanti sul fatto che altri animali, oltre la nostra specie, sappiano pianificare azioni future in relazione a un bisogno futuro previsto e non presente al momento. Una “finestra aperta” in questo senso è quella della ghiandaia. In effetti, come abbiamo già detto, questo uccello nasconde il cibo per consumarlo più avanti, anche dopo parecchi giorni. In generale, fare provviste di cibo sembrerebbe proprio una forma di pianificazione che prevede un futuro stato motivazionale (avere fame in futuro). Ma occorreranno ulteriori esperimenti in questo senso. Thomas Zentall sostiene che il “viaggio mentale nel tempo”, probabilmente basato nella memoria episodica, è stato osservato in un certo numero di specie, tra cui i primati non umani, i delfini, le ghiandaie, i ratti e i piccioni (Zentall, 2006). Come abbiamo visto, le ghiandaie sembrano capaci di pianificare il comportamento di occultamento delle riserve di cibo. Inoltre, è stato osservato in una serie di esperimenti che questi uccelli sono capaci di nascondere il cibo in luoghi nei quali si sarebbero trovati il giorno dopo. Ma non tutti gli studiosi sono d’accordo sul fatto che gli animali possano effettivamente compiere dei viaggi mentali nel futuro. Lo psicologo Thomas Suddendorf afferma che nonostante «i tentativi ingegnosi per dimostrare la memoria episodica o la simulazione del futuro negli animali non umani, ci sono pochi segni che gli animali agiscano con la flessibile lungimiranza così caratteristica degli esseri umani» (Suddendorf, 2010). Le stesse ghiandaie non sembrano riuscire a mostrare questa capacità cognitiva al di fuori del ristretto ambito del comportamento di foraggiamento. Continua ancora Suddendorf: «Gli esseri umani sono in grado di simulare virtualmente ogni evento, e di valutarlo in termini di probabilità e desiderabilità».
8. Conclusioni: “Ma quindi ricordano come noi?” La capacità di pianificare azioni future è una caratteristica comportamentale che nella sua forma più sofisticata si osserva negli es-
102
Cinque parole della scienza
seri umani. Come al solito, quando osserviamo cosa succede negli altri animali siamo di fronte a differenze di grado. Abbiamo visto che diverse specie sono in grado di pianificare, anche se in maniera e in contesti limitati, azioni future. Il viaggio mentale nel tempo viene considerato una caratteristica propria dell’intelligenza umana. In passato ci ha aiutato a elaborare e realizzare strategie di caccia complesse quando, nel tardo Pleistocene, i nostri antenati catturavano grosse prede per il loro nutrimento; oggi utilizziamo questa capacità, ad esempio, per pensare e programmare i viaggi nello spazio. Ma quanto stiamo sottovalutando questa capacità anche negli altri animali? Zentall ritiene che la ricerca futura fornirà la prova che gli animali hanno abilità, come il viaggio mentale nel tempo, che superano di gran lunga quelle che oggi attribuiamo loro. Una questione ulteriore è come potrebbe essere coinvolta la comprensione della mente propria e altrui. Il viaggio mentale nel tempo richiede probabilmente una forma di coscienza o di conoscenza di sé che permetta di porsi al centro dei ricordi e dei progetti per il futuro. Possiamo tuttavia affermare che lo studio della memoria negli animali è un campo di ricerca destinato in futuro a riservare sicuramente molte sorprese.
Referenze bibliografiche C. Boesch – H. Boesch. Mental map in wild chimpanzees: An analysis of hammer transports for nut cracking, in «Primates», 25(1984), pp. 160-170. A.B. Bond – A.C. Kamil – R.P. Balda. Pinyon jays use transitive inference to predict social dominance, in «Nature», 430 (2004), pp. 778-781. N.S. Clayton – J.M. Dally – N.J. Emery. Social cognition by food-caching corvids. The western scrub-jay as natural psychologist, in «Philosophical Transactions of the Royal Society B», 362 (2007), pp. 507-522. S. Inoue – T. Matsuzawa. Working memory in chimpanzees, in «Current Biology», 17(2007)23, pp. R1004-R1005.
Memoria e previsione negli animali
103
P.M. Kappeler – C.P. van Schaik (edd.). Cooperation in primates and humans. Mechanisms and evolution, Springer, Berlin 2006. D.S. Olton – B.C. Paras. Spatial memory and hippocampal function, in «Neuropsychology», 17(1979), pp. 669-682. D.S. Olton – R.J. Samuelson. Remembrance of places passed: Spatial memory in rats, in «Journal of Experimental Psychology», 2(1976), pp. 97-116. M. Oswath – M. Karvonen. Spontaneous innovation for future deception in a male chimpanzee, in «PLoS ONE» 7(5) e36782 (2012). M. Oswath – H. Oswath. Chimpanzee (Pan troglodytes) and orangutan (Pongo abelii) forethought: self-control and pre-experience in the face of future tool use, in «Animal Cognition», 11(2008), pp. 661-674. B.L. Schwartz – S. Evans. Episodic memory in primates, in «American Journal of Primatology», 55(2001), pp. 71-85. G. Schino – F. Aureli. Reciprocal altruism in primates: partner choice, cognition, and emotions, in «Advances in the Study of Behavior», 39(2009), pp. 45-69. A. Silverberg – D. Kearns. Memory for the order of briefly presented numerals in humans as a function of practice, in «Animal Cognition», 12(2009), pp. 405-407. N. Stollhoff – R. Menzel – D. Eisenhardt. Spontaneous recovery from extinction depends on the reconsolidation of the acquisition memory in an appetitive learning paradigm in the honeybee (Apismellifera), in «JNeurosci», 25(2005), pp. 4485-4492. T. Suddendorf (2010). Episodic memory versus episodic foresight: Similarities and differences; in «Wiley Advanced Review Cognition Science», 1(2010), pp. 99-107. J.Z. Tsien – P.T. Huerta – S. Tonegawa. The essential role of hippocampal CA1 NMDA receptor-dependent synaptic plasticity in spatial memory, in «Cell», 87(1996)7, pp. 1327-1338. A. Vitale. Changes in anti-predator responses of wild rabbits, Oryctolagus cuniculus (L.), with age and experience, in «Behaviour», 110(1989)1-4, pp. 47-61. A. Yamada – T. Sekiguchi – H. Suzuki – A. Mizukami. Behavioral analysis of internal memory states using cooling-induced re-
104
Cinque parole della scienza
trograde amnesia in Limax flavus, in «JNeurosci», (1992)12, pp. 729-735. T.R. Zentall. Mental time travel in animals: A challenging question, in «Behavioural Processes», 72(2006), pp. 173-183.
Dato e informazione
I Big Data nelle ricerche biomediche Carlo Cirotto
1. Introduzione1 Fino a non molti anni fa, in metropolitana e in treno capitava spesso di udire un soffuso rumore di fondo. Era il fruscio delle pagine dei giornali e dei libri sfogliati dai viaggiatori. Oggi di giornali e di libri non se ne vedono più molti e ciò che si ode è piuttosto il chiacchiericcio di gente che parla al cellulare con chissà chi o gli squilli insistenti delle chiamate. Ad ascoltare, anche senza volerlo, i contenuti delle comunicazioni vocali poi, il più delle volte si resta colpiti dalla loro vacuità. Dominano domande come: dove sei? Cosa fai? Che tempo fa lì? L’impressione è che si parli tanto per parlare. Ci sono poi alcuni – così almeno si dice – che hanno l’abitudine di registrare sul loro smartphone tutto quello che dicono, fanno e pensano o addirittura di misurare i passi percorsi quotidianamente. A me, come credo a molti altri, sfugge la finalità di questo comportamento archivistico-compulsivo. È certo, però, che gli utilizzatori assidui dei mezzi di comunicazione ultramoderni metterebbero un freno ai loro impulsi se riflettessero sul fatto che la straripante mole di informazioni contenute nelle conversazioni telefoniche, nei messaggi, nei tweet, nelle mail e nelle memorie delle apparecchiature elettroniche non sparisce ma resta archiviata in un qualche angolo del mondo, per tempi imprecisati, andando ad impinguare gli ormai famosi Big Data (“grandi dati” in inglese)2.
Carlo Cirotto, già docente di Citologia e Istologia, Università di Perugia. Cf. V. Mayer – Schönberger – K. Cukier, Big data. Una rivoluzione che trasformerà il nostro modo di vivere, Garzanti, Milano 2013; T.H. Davenport, Big data @l 1 2
108
Cinque parole della scienza
Big Data è, di fatto, una delle nuove parole d’ordine del nostro secolo: raccolte di dati sempre più grandi ed efficienti, avvolgenti come una rete che unisce e coinvolge tutti, dai governanti al più umile dei cittadini, così vaste da richiedere tecnologie informatiche e metodi di elaborazione matematica sempre nuovi oltre al supporto di schiere crescenti di server. La capacità di raccogliere e gestire grandi quantità di dati sta trasformando radicalmente il modo con cui i governi affrontano i problemi dei Paesi e le grandi aziende conducono i propri affari, tutti spinti dalla diffusa convinzione che queste immense miniere di informazioni consentiranno, in un futuro ormai prossimo, di ottenere conoscenze che in precedenza erano fuori dalla portata delle capacità umane. Raccogliendo dati e dati sul nostro comportamento – cosa che al momento si limita per lo più alle nostre abitudini di visite, di acquisti e di viaggi on-line – le compagnie, per vendere i loro prodotti e i loro servizi, potrebbero rivolgersi direttamente a ciascuno di noi facendo leva sulle nostre preferenze personali, tanto sono a loro note. E così Netflix potrebbe consigliarci film e serie TV che soddisfano i nostri gusti, Amazon potrebbe inviarci le pubblicità dei prodotti che ci piace acquistare in vista del prossimo inverno, il Sistema sanitario potrebbe individuare i rischi che la nostra salute si appresta a correre. Per quanto tutto ciò possa sembrare stupefacente, è comunque vero che, di per sé, i Big Data non portano a niente di chiarificante, di esplicativo, in quanto ciò che viene raccolto sono soltanto informazioni su quante persone cercano qualcosa o cliccano su qualcosa e quando e da dove lo fanno, oltre che su altri dettagli quantificabili. Tutto ciò che queste banche dati possono darci è precisamente ciò a cui le parole inglesi “Big Data” fanno allusione: fiumane di dati3. Ma che cosa s’intende per “dati” e che cosa significa che sono “grandi”? A queste domande va data risposta ancor prima di iniziare a trattare da vicino l’argomento anticipato dal titolo. lavoro. Sfatare i miti, scoprire le opportunità, Franco Angeli, Milano 2015; V. Fraccaro, Un diluvio di dati, in «Le Scienze», dicembre 2015, pp. 71-77. 3 Cf. G. Caldarelli – M. Catanzaro, Scienza delle reti, Egea, Milano 2016.
I Big Data nelle ricerche biomediche
109
2. “Dati”. Che cosa sono? Iniziamo allora con il significato che il termine “dato” ha nel linguaggio scientifico e tecnico. Dato è ogni discontinuità che impatta i nostri sensi e non è stata ancora sottoposta ad alcuna elaborazione mentale4. Meglio di qualsiasi definizione, tuttavia, un semplice esperimento mentale ci farà capire che cosa la scienza intenda per “dato”. Immaginiamo che la vista sia l’unico nostro senso e che, all’inizio dell’esperimento, ci troviamo a osservare un foglio molto esteso di colore bianco uniforme. Questa distesa bianca può essere l’espressione locale di un foglio immenso, tutto inesorabilmente dello stesso colore, oppure essere parte di un’immagine che stiamo osservando troppo da vicino. Nel caso che sia vera la prima ipotesi, ci è preclusa qualsiasi speranza di comprendere la distesa bianca. Se invece a essere vera è la seconda ipotesi, sarà sufficiente allontanare i nostri occhi di quel tanto che basta a scorgere un qualche confine del colore bianco. Immaginiamo che questa sia la situazione nella quale ci troviamo e che, allontanandoci, scorgiamo un confine netto: finisce la distesa bianca e ne inizia una blu. Senza particolari difficoltà ci accorgiamo che il confine è costituito da 10 segmenti uguali, disposti a formare l’immagine di una stella a cinque punte e realizziamo che all’inizio dell’esperimento ci trovavamo proprio nel bel mezzo di questa stella bianca. A livello di ciascun segmento, la fine del campo bianco e l’inizio di quello blu producono una netta discontinuità visiva: si tratta di un “dato” ottico. Nel linguaggio scientifico e tecnologico “dato” è una discontinuità, una irregolarità. Nel nostro caso specifico, poi, i 10 segmenti di discontinuità – ovvero i 10 dati empirici – tracciano il contorno di una figura ben nota: una stella a cinque punte. Ma nel momento in cui affermiamo di vedere una stella bianca in campo blu non facciamo altro che assegnare un primo significato a un dato puramente empirico. E un dato corredato di significato è una informazione5. 4 B. Lotto, Percezioni. Come il cervello costruisce il mondo, Bollati Boringhieri, Torino 2017, p. 204. 5 L. Floridi, La rivoluzione dell’informazione, Codice, Torino 2012, p. 25.
110
Cinque parole della scienza
Potremmo specificare ancora meglio il significato della stella bianca in campo blu allontanandoci ulteriormente dall’oggetto osservato. Scopriremmo così che, ad esempio, accanto alla nostra stella ce ne sono altre 49, identiche e tutte disposte su file orizzontali composte alternativamente di 6 e 5 stelle. Forse ciò che vediamo è proprio una parte della bandiera degli Stati Uniti. Per giungere alla certezza basterà ampliare ancora di più il nostro campo di osservazione e se accanto alle 50 stelle bianche in campo blu compariranno anche le 13 strisce rosse e bianche disposte orizzontalmente, potremo essere sicuri che il nostro dato iniziale era una stella della bandiera americana. Ciò di cui ora disponiamo non è più un semplice dato ma un dato che possiede un significato. Abbiamo una “informazione”.
3. Quantificare il mondo L’esperimento mentale appena eseguito può essere ripetuto su qualsiasi oggetto percepito dai nostri sensi ed è l’universo intero, allora, a presentarsi come una fittissima rete di dati e significati che si estende a dismisura nello spazio e nel tempo. Sorge allora la domanda: qual è la quantità totale di informazione che la mente umana è stata capace di accumulare durante la sua storia? Su base intuitiva si deve rispondere che, grazie al progredire della conoscenza umana, il patrimonio globale di informazione è andato crescendo con il trascorrere del tempo fino a toccare livelli altissimi nei nostri giorni. Possiamo pensare che tutto sia iniziato quando i nostri antenati del genere Homo si accorsero di poter tramandare, di generazione in generazione, l’arte di scheggiare la selce. È plausibile pensare che all’inizio l’abbiano fatto con semplici gesti, poi con il canto e infine con le parole. Il linguaggio, infatti, deve essere stato un facilitatore di non poco conto nell’esprimere, nel mettere in comune e nell’accumulare informazioni. In seguito, l’invenzione dei sistemi di registrazione, la scrittura prima e la stampa poi, hanno permesso di conservare quantità sempre maggiori di informazioni, di divulgarle e di arricchirle nel tempo.
I Big Data nelle ricerche biomediche
111
Noi, oggi, siamo spettatori e insieme attori di una nuova rivoluzione dell’informazione. Grazie allo sviluppo incredibile delle tecnologie informatiche, immense quantità di informazioni sono prodotte, raccolte, elaborate, trasmesse e gestite con una velocità che aumenta esponenzialmente con il passare del tempo. Lo schema operativo fondamentale che permette questo ribollire di attività è, comunque, semplice e familiare. È quanto facciamo quotidianamente: raccogliamo nuovi dati, li immagazziniamo, all’occorrenza li recuperiamo e li arricchiamo di significati nuovi che generano nuove conoscenze. Dopo di che, il ciclo ricomincia sempre simile a se stesso ma partendo dai risultati arricchiti dal ciclo precedente. È superfluo sottolineare come i moderni sistemi di acquisizione dei dati determinino la costituzione di archivi che crescono a velocità incredibili e che possono essere utilmente gestiti solo facendo ricorso alle moderne tecniche dell’elaborazione digitale. Ciò significa che, per essere archiviati ed elaborati, i dati devono essere opportunamente trasformati in oggetti matematici da dare in pasto agli elaboratori elettronici (la cosiddetta datizzazione). È necessario, cioè, esprimerli in un linguaggio matematico che sia compatibile con la struttura materiale dei computer. Tale linguaggio è quello binario, fatto di due soli simboli, chiamati bit (binary digit): 0 e 1. I dati digitalizzati quindi, appaiono come delle sequenze di 0 e 1, paragonabili ai punti e alle linee del codice Morse. Una serie di 8 bit forma un byte (by eight), utilizzato come unità di misura della capacità di memoria dei computer. La familiarità con il computer domestico ci ha da tempo abituato a trattare con i multipli del byte: kilobyte (kB), megabyte (MB), gigabyte (GB), terabyte (TB), che valgono rispettivamente mille (103), un milione (106), un miliardo (109) e mille miliardi (1012) di byte. Ci sono però anche unità di misura più grandi, inutili nella gestione dei computer domestici, ma indispensabili nel management di Google o di Facebook. C’è il petabyte (PB) che equivale a un milione di miliardi (1015) di byte, l’esabyte (EB) che equivale a un miliardo di miliardi (1018) di byte, lo zettabyte (ZB) che equivale a mille miliardi di miliardi (1021) di byte, lo yottabyte (YB) che equivale a un milione di miliardi di miliardi (1024) di byte.
112
Cinque parole della scienza
I numeri stratosferici che definiscono buona parte delle unità appena elencate eccedono di molto la nostra capacità immaginativa. Che cosa significano, ad esempio, i 1018 byte che definiscono l’esabyte, che è la soglia che l’umanità nel suo complesso ha superato proprio in questi ultimi anni? Questa fredda potenza numerica acquista un significato ben più pregnante se pensiamo che un EB equivale a un DVD lungo 50.000 anni. Più su c’è lo ZB che di recente è divenuto l’unità di misura più adeguata a misurare l’informazione totale raccolta ed elaborata dall’umanità. È come dire che il nostro DVD aumenta mille volte in lunghezza: 50 milioni di anni. Queste sono ormai le unità di misura necessarie a quantificare l’informazione totale che circola tra gli uomini. Si calcola che nel solo 2002 siano stati prodotti ed elaborati 2 esabyte di informazioni (equivalenti all’informazione contenuta in 37.000 biblioteche del congresso USA); nel 2006 si era a 161 EB e nel 2010 a 988 EB. Di contro, si stima che la quantità di informazione totale, immagazzinata e utilizzata dall’umanità nel corso della sua storia fino alla commercializzazione dei computer, ammonti a soli 12 EB6.
4. Big Data per una Big Science L’enormità di questi numeri giustifica l’appellativo di “big”, grande, conferito ai dati raccolti, archiviati ed elaborati da alcuni settori della scienza moderna. Per analogia, anche a questi settori viene attribuito lo stesso appellativo, ed ecco nascere la big science. Nel mondo della scienza e della tecnologia operano quindi, fianco a fianco, una big science che si serve di big data e una small science, di stampo tradizionale, che continua ad utilizzare small data. Il “big” riferito a “data”, però, non sta solo a indicare la quantità strabiliante di dati raccolti e immagazzinati, ma anche il fatto che tali dati sono – entro i limiti della capacità tecnologica – esaustivi di un certo campo di indagine. Sono cioè la totalità dei dati ottenibili a riguardo di un determinato argomento. Se sto studiando, ad esempio, lo stato di salute dei cittadini di una certa regione, i dati Cf. L. Floridi, La rivoluzione dell’informazione.
6
I Big Data nelle ricerche biomediche
113
da rilevare devono riguardare le condizioni sanitarie di ogni singolo abitante così come sono attestate dalle cartelle cliniche, dalle analisi effettuate, dai farmaci assunti, dai ricoveri ospedalieri ecc. La collezione finale non è “grande” solo per la numerosità dei dati, ma anche perché essi esauriscono un intero campo di indagine7. Anche la small science, quella che ha preceduto l’introduzione massiccia dell’informatica, aveva spesso a che fare con numeri ragguardevoli di dati ma, non avendo gli strumenti idonei a prenderli in considerazione nella loro interezza, risolveva il problema scegliendo campioni significativi dei dati stessi, elaborandoli e attribuendo poi alla totalità i risultati ottenuti. È superfluo far notare che in questo modo di operare la correttezza della campionatura riveste un’importanza cruciale. È un prerequisito di fondamentale importanza che i dati prescelti fra tutti siano attendibili e ottenuti in modo corretto. Per far ciò venivano mobilitati sia svariati trucchi pratici suggeriti dall’esperienza sia le metodiche sofisticate della statistica. Rimaneva però il fatto che errori, casuali o sistematici, nella raccolta dei dati potevano inficiare definitivamente i risultati. Con i Big Data non si corrono questi rischi proprio perché non è necessario operare a monte nessuna selezione di dati e il loro numero straordinariamente elevato fa sì che gli eventuali errori accidentali si eliminino a vicenda. C’è anche un altro vantaggio non secondario nell’evitare scelte (o campionature) iniziali. Infatti i dati giudicati anomali dalla small science, e come tali non presi in considerazione fin dall’inizio, potrebbero derivare la loro anomalia da relazioni insospettate e insospettabili tra i membri della famiglia di dati e, scartandoli in maniera aprioristica, si perderebbe l’opportunità di mettere in luce relazioni sconosciute oltre a quelle già note. È così che il quantitativamente grande può spianare la strada alla comprensione di leggi qualitativamente nuove. È fuor di dubbio che, facendo così, la strada venga spianata, ma è altrettanto vero che la meta è ancora lontana da raggiungere. Bisogna evitare di credere che la comprensione scaturisca automaticamente e direttamente dall’elaborazione dei dati effettuata con stru V. Mayer-Schönberger – K. Cukier, Big data, p. 45.
7
114
Cinque parole della scienza
menti di calcolo (algoritmi) sufficientemente potenti. Ciò che questo tipo di elaborazione produce è solo l’individuazione delle relazioni che legano i dati tra loro, cioè dei criteri per dar loro un ordine. È su questi dati ordinati che s’innesta l’azione dell’intelletto umano – attore unico e insostituibile del comprendere –, che sa come applicare utilmente i dati a più contesti e trovare delle leggi di validità generale8. I dati, quindi, sono indispensabili, la loro elaborazione con gli algoritmi è utilissima, ma la comprensione è tutt’altra cosa. Trascende sia i dati disordinati sia quelli messi in ordine. I Big Data trovano applicazione in molti campi del sapere umano, dall’economia alla fisica delle particelle, dalla sociologia all’astronomia, dall’archivistica all’ecologia e alla bio-medicina. È più che giusto quindi che il legislatore se ne sia occupato ed è interessante evidenziare da quali definizioni di Big Data sia partito per dare stabilità al costrutto giuridico. Ecco due esempi significativi. Un rapporto consegnato al Congresso degli Stati Uniti nell’agosto del 2012 li definisce: «Grandi volumi di dati ad alta velocità, complessità e variabilità che richiedono tecniche e tecnologie avanzate per raccolta, immagazzinamento, distribuzione, gestione e analisi dell’informazione». Nella letteratura giurisprudenziale italiana è presente solo la definizione di Big Data sanitari che vengono presentati come: «L’insieme di dati e documenti digitali di tipo sanitario e socio-sanitario generati da eventi clinici presenti e trascorsi, riguardanti l’assistito» (D.L. 18 ottobre 2012, n. 179, art. 12). A ben guardare, le due definizioni si completano a vicenda: quella americana ha come riferimento la grandezza legata alla quantità, mentre la definizione italiana mette in risalto la totalità dei dati riguardanti un certo campo di interesse, ad esempio, un certo paziente. Esse non fanno che rispecchiare i due significati del termine “big” precedentemente esposti: i dati sono “grandi” sia per la loro numerosità, sia perché esaustivi di un certo campo di indagine.
B. Lotto, Percezioni, pp. 204-207.
8
I Big Data nelle ricerche biomediche
115
5. La Biomedicina Uno degli ambiti del sapere scientifico in cui l’utilizzo dei Big Data cresce esponenzialmente con il passare del tempo è quello della biomedicina, famiglia molto vasta di saperi accomunati dall’unico fine della salvaguardia della salute umana. Era più che prevedibile che il mondo della vita si mostrasse un ambiente ideale per l’utilizzo e lo sviluppo dei Big Data; la caratteristica fondamentale degli esseri viventi infatti è la loro complessità di strutture e funzioni, indipendentemente dal livello dimensionale su cui si focalizza l’attenzione dell’osservatore. E così gli organismi viventi di dimensioni microscopiche, costituiti da un’unica cellula (monocellulari) come i batteri, sono in realtà strutture complesse fatte da un enorme numero di componenti interagenti tra loro, nello spazio e nel tempo, in maniera ordinata. Le componenti che si mettono insieme per formare le singole cellule sono molecole di moltissimi tipi e dimensioni: piccole, medie e grandi. Le più interessanti sono queste ultime perché vanno a formare non solo la struttura portante della cellula ma, con il loro raffinatissimo funzionamento, ne rendono possibili i processi vitali. Il primo posto in ordine di importanza è occupato dal sistema proteine-DNA. Le proteine sono lunghe catene non ramificate che derivano dall’unione di molecole più piccole, gli amminoacidi. In natura, gli amminoacidi sono di 20 tipi diversi e, per il buon funzionamento delle proteine, è necessario che siano agganciati l’uno all’altro nel giusto numero e nel giusto ordine. Il loro numero varia da proteina a proteina e va da alcune centinaia, nelle proteine più piccole, a migliaia e anche milioni. Si stima che le cellule dell’organismo umano siano capaci di produrne circa centomila tipi diversi e la cellula è viva solo se l’interazione coordinata di questi miliardi di molecole avviene nel modo corretto9. A questa complessità, già di per sé difficile da trattare, va a sovrapporsi quella dell’organizzazione delle cellule negli esseri pluri Cf. E.P. Solomon – L.R. Berg – D.W. Martin, Biologia, EdiSES, Napoli 2017. 9
116
Cinque parole della scienza
cellulari di dimensioni macroscopiche. E anche a questo livello si incontrano cifre da capogiro (pardon, da Big Data). Si stima che il numero di cellule in un organismo umano di medie dimensioni si avvicini al milione di miliardi e affinché l’organismo si mantenga vivo e in buone condizioni di salute, ognuna di esse deve mantenere contatti attivi con le altre ricorrendo a svariate strategie. E poi c’è un altro livello organizzativo non meno complesso e importante dei due precedenti: le comunità di organismi pluricellulari organizzati in gruppi e in ecosistemi. Affinché singole cellule, organismi pluricellulari e società di organismi, si mantengano in buona salute è di importanza fondamentale che il giusto ordine sia assicurato ad ogni livello di complessità. Di seguito verranno proposti alcuni esempi che si riferiscono a tutti e tre i livelli iniziando da quello molecolare.
6. La Genomica È stato già accennato al fatto che affinché la cellula goda di buona salute è necessario che il suo corredo di costituenti importanti, le proteine, sia completo e funzionante. Per una proteina essere funzionante significa essere formata da un numero corretto di amminoacidi e che ognuno dei 20 tipi occupi il posto giusto nella sequenza. Si prendano, ad esempio, i 146 amminoacidi della globina-beta del sangue umano: se gli stessi fossero disposti in un ordine diverso si otterrebbe una proteina completamente diversa con proprietà funzionali altrettanto diverse. Questa operazione può essere poi ripetuta milioni di miliardi di volte e si otterrebbero milioni di miliardi di proteine diverse. Nulla può essere lasciato al caso. Detto in altri termini, la costruzione delle proteine da parte della cellula deve essere fatta seguendo precise informazioni su quale tipo di amminoacido vada legato in ogni posizione. Nella zona più interna e protetta della cellula, il nucleo, esiste una molecola lunghissima e sottilissima, il DNA (acido desossiribonucleico), che contiene tutte queste informazioni scritte in codice. L’alfabeto del codice è formato da 4 lettere (basi azotate): A (adenina), G (guanina), T (timina) e C (citosina). Ogni aminoacido è co-
I Big Data nelle ricerche biomediche
117
dificato da pacchetti di 3 lettere (triplette) messe in un preciso ordine. L’elenco delle corrispondenze amminoacido-tripletta è il codice genetico. Il segmento della molecola di DNA che contiene l’informazione per la costruzione di una data proteina si chiama gene di quella proteina. L’insieme di tutti i geni costituisce il patrimonio genetico o genoma. Si è calcolato che la specie umana abbia dai 25 mila ai 30 mila geni che occupano non più del 3% del DNA totale. È difficile determinare il numero esatto dei geni per almeno due motivi. Il primo è che i geni non sono localizzati in una porzione precisa del DNA ma sono dispersi lungo tutta la sua lunghezza, inframmezzati da sconfinate regioni che svolgono funzioni di altro genere. Il secondo motivo è che negli organismi superiori i geni non sono segmenti continui del DNA ma sono suddivisi in tanti pezzi, intervallati da DNA di diversa funzionalità. Il DNA umano è formato da 3 miliardi e 100 milioni di basi. Se scritte con le loro abbreviazioni una di seguito all’altra, riempirebbero 200 volumi simili per dimensioni agli elenchi telefonici: una ragguardevole biblioteca monotematica. Così come la conoscenza delle proteine ha come punto di partenza irrinunciabile la determinazione del numero e della sequenza degli amminoacidi che le compongono, la conoscenza del DNA deve necessariamente iniziare dalla determinazione della sequenza delle sue basi. Un lavoro quanto mai impegnativo: consiste infatti nello staccare una dopo l’altra le basi partendo dalla “coda” della molecola e nell’identificarle una ad una. Lavoro che, fino a qualche decennio fa, era impensabile da effettuare per due ragioni fondamentali. Anzitutto, per il fatto che il campione da analizzare non può essere costituito da un’unica molecola ma da un numero elevato di molecole, tutte rigorosamente identiche tra loro; poi, per la necessità di un pesante, specialistico e mortalmente ripetitivo lavoro umano in laboratori attrezzatissimi e per tempi inimmaginabilmente lunghi. La risoluzione del primo problema risale al 1985, con l’introduzione di una nuova tecnica di “clonaggio” del DNA, la polymerase chain reaction (PCR), che ha rivoluzionato la biologia molecolare. Essa sfrutta la reazione a catena promossa dall’enzima polimerasi, lo stesso che all’interno delle cellule, prima della loro divisione,
118
Cinque parole della scienza
copia fedelmente il DNA in modo da ottenerne due copie identiche che andranno in dote alle due cellule figlie. Grazie a questa metodologia si possono ottenere quantità analizzabili di copie assolutamente identiche di molecole di DNA partendo da poche, o addirittura una sola molecola. Al secondo problema si è posto rimedio invece intorno agli anni 2000, con la messa a punto di metodi analitici enzimatici totalmente automatizzati e superveloci. Queste fondamentali aperture di prospettiva hanno favorito fin dall’inizio la produzione di sempre nuovi dati riguardanti sequenze di parti di DNA – sia umano sia di molte altre specie animali, vegetali e batteriche. Ben presto questi dati si sono trasformati in una vera e propria valanga di informazioni e hanno richiesto l’utilizzo di mezzi informatici studiati ad hoc. Ne è nata così una nuova disciplina, la bioinformatica, un connubio tra la scienza dei calcolatori e la biologia, destinata a trasformare il volto della biomedicina. Questo genere di studi è iniziato nei primi anni Ottanta con un database chiamato GenBank, organizzato negli USA per conservare i brevi segmenti di sequenze di DNA che gli scienziati iniziavano a ottenere da vari organismi. Agli inizi, l’attività della GenBank aveva un aspetto piuttosto artigianale: schiere di tecnici sedevano di fronte a tastiere dotate solo delle quattro lettere A, G, T, C con il noioso compito di immagazzinare le sequenze di DNA pubblicate sulle riviste specializzate. Con il passare degli anni nuovi protocolli hanno consentito ai ricercatori di collegarsi direttamente a GenBank e riversarvi direttamente i loro dati. Infine, con l’avvento del World Wide Web (1991), i ricercatori di tutto il mondo hanno potuto accedere direttamente e gratuitamente ai dati di GenBank. Nel 1990 è stato avviato il Progetto Genoma Umano e subito il volume dei dati custoditi in GenBank è cresciuto esponenzialmente. Nella primavera del 2000, quando la prima bozza del genoma è stata completata, GenBank conteneva dati di sequenza per 7 miliardi di basi10. 10 Cf. F.S. Collins – K.G. Jegalian, Decifrare il codice della vita, in «Le Scienze», dicembre 1999, pp. 68-74; T. Beardsley, Luci e ombre sul Progetto Genoma, in «Le Scienze», giugno 1996, pp. 90-98.
I Big Data nelle ricerche biomediche
119
Il Progetto aveva un obiettivo decisamente audace: determinare la sequenza dei 3 miliardi e 100 milioni di basi dell’intero DNA umano pur mancando ancora di strumenti particolarmente efficaci. Ciononostante, gli obiettivi del progetto sono stati raggiunti entro il 2003 grazie a un esteso e organizzatissimo lavoro di squadra che ha visto la collaborazione di scienziati di tutto il mondo i quali, mettendo in comune i risultati delle loro analisi tramite Internet, mantenevano quotidianamente aggiornata la sequenza fino a quel momento disponibile. Oggi, grazie allo straordinario sviluppo che le ricerche sul genoma umano hanno registrato, sono stati fatti dei progressi notevolissimi nell’identificare quelle varianti del genoma che possono avere un ruolo nell’insorgenza di diverse patologie. Si è visto che il 99,6% del genoma umano è uguale in tutti gli individui e che le differenze presenti nella piccola porzione rimanente non hanno in genere conseguenze significative sotto il profilo medico. In alcuni casi, però, le hanno e negli ultimi anni le ricerche sul genoma hanno fatto emergere alcune centinaia di varianti genetiche associate a malattie sia comuni sia rare, gettando nuova luce sulle cause di molte patologie. Questi successi offrono nuovi e importanti obiettivi nel campo delle tecniche terapeutiche. Le variazioni presenti nel genoma, infatti, potrebbero consentire a ogni individuo di avere una valutazione di quelle malattie che rischia di sviluppare in futuro (medicina predittiva). Esistono già delle aziende che, per solo qualche centinaio di dollari, offrono al cliente la possibilità di ricercare nel proprio genoma la presenza di circa un milione di varianti differenti11. Se analisi di questo genere siano più o meno raccomandabili è oggetto di un vivace dibattito. Infatti, da un lato, c’è un’opinione pubblica che nutre grandi speranze sulla medicina predittiva e la ritiene già operante; mentre, dall’altro, ci sono gli specialisti ai quali risulta chiaro che questo tipo di approccio è ancora in una fase embrionale e che lo sviluppo di tecniche in grado di utilizzare la genomica come strumento per una medicina predittiva costituisce una grande sfida sotto il profilo sia teorico sia pratico. Le attuali cono11
Cf. F.S. Collins, La genetica di Dio, Castelvecchi, Roma 2018.
120
Cinque parole della scienza
scenze delle varianti genetiche associate alle malattie, infatti, non sono ancora giunte a un grado di dettaglio tale da consigliare di rendere abituale, nella pratica medica, l’utilizzo del profilo genomico. C’è poi un altro aspetto del problema che va tenuto ben presente. Ai fini del funzionamento corretto dei geni, e quindi della buona salute della persona, la loro giusta composizione in basi è solo una delle condizioni che devono essere soddisfatte; l’altra è che la loro attività cambi correttamente nel tempo, che vengano cioè attivati e disattivati a tempo debito, o attivati solo in parte. In questi ultimi anni si è andato accumulando un numero crescente di evidenze del fatto che lo stato di attività dei geni è controllato da reazioni chimiche che in molti casi sono una risposta diretta a stimoli ambientali, come l’alimentazione, l’attività fisica, il fumo e l’alcol. A studiare questi fenomeni è una scienza giovane: l’epigenetica12. Nonostante queste difficoltà, comunque, non vi è dubbio che l’era della genomica e della medicina predittiva sia ormai iniziata e che i Big Data ne costituiscano lo strumento principale. Un articolo, pubblicato sulla rivista PLoS Biology a firma di un gruppo di ricerca dell’Università dell’Illinois, presenta in numeri le stime di quanto la genomica potrà contribuire al mondo dei Big Data13. Nell’ultima decina di anni i dati riguardanti la genomica prodotti giornalmente nel mondo risultano raddoppiati ogni sette mesi. Ammettendo che il trend si mantenga inalterato, nel 2025 potrebbero essere prodotti – e quindi archiviati e gestiti – tra i 2 e i 40 esabyte di informazioni all’anno. Questo valore è stato ottenuto ipotizzando sequenziamenti del genoma per un numero di persone compreso tra i 100 milioni e i 2 miliardi. Si tratta di cifre sbalorditive e un confronto potrà chiarirne l’entità: Twitter, che attualmente gestisce circa 500 milioni di tweet al giorno, nel 2025 potrebbe giungere a 1,2 miliardi di tweet giornalieri, equivalenti a un volume di dati archiviati di “soli” 1,36 petabyte all’anno. Questi numeri fanno presagire le non piccole difficoltà di acquisizione, archiviazione e analisi dei dati che la comunità scientifi Cf. E. Di Mauro, Epigenetica. Il DNA che impara, Asterios, Trieste 2017. Z.D. Stephens et al., Big Data: Astronomical or Genomical?, in «PLoS Biology» 13(2015)7. 12 13
I Big Data nelle ricerche biomediche
121
ca dovrà superare se vorrà mantener fede all’obiettivo finale che rimane quello di interpretare sequenze di geni e spiegare la relazione tra le mutazioni del DNA e le malattie, lo sviluppo, il comportamento. Mettere le mani sui Big Data, sia in campo medico sia in altri ambiti, non è un fatto di tutti i giorni neanche per gli esperti del mestiere. A causa della loro mole e dell’eterogeneità delle loro codificazioni – le sequenze geniche, le cartelle cliniche, le immagini, i numeri, i filmati e gli altri dati digitali – non potranno mai più essere letti e analizzati direttamente dagli umani né come capitoli separati né, a maggior ragione, nella loro interezza. Soltanto complessi programmi software potranno indicare le parti importanti e utili che in essi sono contenute. Non è detto però che simili procedimenti siano esenti da errori e che i risultati siano da considerare irreprensibili solo perché originati da Big Data e collaudati algoritmi. A questo riguardo è emblematica la storia del controllo del diffondersi delle epidemie influenzali tentato da Google qualche anno fa.
7. Contagi e Big Data La storia inizia nel 2009 quando in Messico fa la sua comparsa un nuovo virus influenzale, denominato H1N1, originato dalla ricombinazione genica del virus dell’influenza aviaria con quello della febbre suina. Oltre alle origini, a destare preoccupazione era anche la sua struttura, molto simile a quella del virus che tra il 1918 e il 1920 aveva scatenato la terribile epidemia della “influenza spagnola”, che solo nel 1918 aveva contagiato mezzo miliardo di persone e causato 20 milioni di morti. L’allarme si è esteso non solo in Messico ma anche nei paesi confinanti, in particolare negli Stati Uniti. Che cosa fare? Data la novità del virus non erano evidentemente disponibili vaccini adatti a combatterlo né c’era tempo per produrli. L’unica difesa era quella di monitorare quanto più velocemente possibile il diffondersi dell’epidemia per attuare rapide strategie di contenimento. A questo fine sono stati allertati dalle autorità americane competenti, i Centers for Disease Control and pre-
122
Cinque parole della scienza
vention (CDC), tutti i presidi sanitari delle zone di confine, oltre a quelli degli scali aerei e marittimi. Ad essi veniva fatto obbligo di comunicare, con cadenza settimanale, il numero e la localizzazione dei nuovi malati che presentavano sintomi influenzali. Si sa però che la burocrazia sanitaria ha i suoi tempi e tra la diagnosi conclamata e l’arrivo della segnalazione al centro non passavano meno di 15-20 giorni. Troppi perché si potesse sperare di contenere il diffondersi dell’epidemia. Google offrì il suo aiuto per uscire dall’impasse. Da poche settimane i suoi esperti informatici avevano concluso uno studio sulle modalità di diffusione dell’influenza comune negli Stati Uniti con l’obiettivo di ottenere dati in linea con quelli del CDC ma con qualche settimana di anticipo. Il progetto era stato chiamato Google Flu Trends (GFT). L’assunto da cui erano partiti gli esperti era semplice: ricercare, negli oltre 3 miliardi di comunicazioni giornaliere in loro possesso, le parole-chiave relative ai sintomi influenzali. Questo avrebbe permesso sia di lanciare l’allarme sull’inizio della patologia sia di identificare in tempo reale i percorsi della sua diffusione. Per evitare ogni tipo di condizionamento, fosse anche quello di parole-chiave imposte, gli esperti di Google avevano preso in considerazione la totalità delle comunicazioni interpersonali relative ai due anni precedenti, il 2007 e il 2008, e avevano applicato loro ben 400 milioni di algoritmi capaci di mettere in risalto le reciproche relazioni. Il tutto poi era stato messo a confronto con i dati ufficiali del CDC al fine di individuare quegli algoritmi che fornissero i risultati delle epidemie precedenti più aderenti alla realtà. Ne erano risultate 45 “parole chiave”, non imposte dall’analista ma emerse dal confronto diretto con i dati ufficiali. La proposta di Google fu allora di adoperare le 45 “parole chiave” per seguire in tempo reale l’espandersi dell’epidemia H1N1, senza perdersi in lungaggini burocratiche, e nel 2009 fu posto in atto questo trattamento dei Big Data. Grazie al cielo, la pandemia non si rivelò così terribile come si era inizialmente temuto e gli errori di previsione del GFT, che cominciarono ad emergere, non ebbero conseguenze disastrose.
I Big Data nelle ricerche biomediche
123
Quando però lo stesso modello fu applicato alla diffusione della normale influenza negli anni 2011-2013 si ottennero risultati molto diversi da quelli del CDC. In particolare, un’analisi pubblicata nel febbraio 2013 e una pubblicata nel marzo 2014 rimisero in discussione il modello di Google mostrando che, nella stagione 20122013, il GFT aveva denunciato un numero di casi che era più del doppio di quelli registrati dal CDC e che l’errore riguardava 100 settimane su 10814. Una sovrastima tanto preoccupante da indurre Google, nel 2015, a dichiarare conclusa l’esperienza del GFT e a riconsiderare il modello di trattamento dei dati. Il sogno di inaugurare un nuovo sistema rapido basato sui Big Data per tenere sotto controllo la diffusione delle malattie infettive, monitorandole con gli algoritmi, andava profondamente riconsiderato. Il fatto è che i numeri perdono di significato se vengono astratti dal loro contesto: il GFT può misurare ciò che la gente cerca, ma non può cogliere il perché la gente vada alla ricerca di certi termini. Parole come “tosse” o “febbre”, correlate con l’influenza, potrebbero essere in realtà sintomi di altre malattie stagionali. E quali termini poi ha cercato la gente, impressionata dall’allarme lanciato dalle autorità e amplificato dai media, per la minaccia pandemica del 2009? I ricercatori, insomma, accusano Google di aver rilevato dati che Google stesso aveva contribuito a creare. Suggerendo le “parole chiave” della ricerca, Google avrebbe indotto un incremento nell’uso di determinati termini su cui avrebbe poi basato la previsione del diffondersi dell’influenza. Bene ha fatto Google a riconsiderare il suo modello! E bene faremmo noi a estrarre da questa esperienza gli insegnamenti del caso: Big Data e algoritmi non assicurano un’automatica comprensione dei fenomeni ma sono solo molto utili ad archiviare, elaborare e raggruppare dati che, per il loro numero, non sono gestibili diret-
14 Cf. D. Butler, When Google got flu wrong, in «Nature», n. 494, February 2013, pp. 155-156; D. Lazer et al., The Parable of Google Flu: Traps in Big Data Analysis, in «Science», n. 343, March 2014, pp. 1203-1205.
124
Cinque parole della scienza
tamente dall’uomo, al quale va comunque l’onere di operare il salto di qualità della comprensione e del giudizio15. Se i problemi connessi all’epidemiologia delle malattie virali hanno contribuito ad evidenziare i limiti dei Big Data quando sono trattati senza l’ausilio di una big theory che assicuri autorevolezza ai risultati dell’elaborazione, un altro campo della biomedicina, la connettomica, mette in risalto un altro incredibile limite, un confine legato alla stessa massa dei dati da elaborare, oltre il quale a non reggere più sono le stesse capacità di raccolta ed elaborazione dei dati.
8. La Connettomica Insieme alla genomica, alla trascrittomica, alla proteomica, alla metabolomica, alla microbiomica, la connettomica fa parte di quella famiglia di scienze “omiche” che si distinguono per la produzione e gestione dei Big Data. La connettomica, in particolare, ha come fine la mappatura del cervello intesa sia come identificazione anatomica e funzionale delle diverse aree cerebrali e delle loro relazioni, sia – nei progetti più avveniristici – come identificazione topologico-funzionale delle connessioni (sinapsi) che ogni cellula (neurone) instaura con le altre. È stato questo particolare orizzonte di ricerca a suggerire i termini connettoma e connettomica16. Sono molti i progetti di ricerca che mirano a mappare il cervello, da quello del moscerino della frutta a quello umano, e tutti producono enormi quantità di dati che portano con sé non piccoli problemi di gestione: come comprimerli in modo automatico, come mettere in relazione dati ottenuti con tecniche diverse, come condividere i risultati con gli altri studiosi del mondo e così via. Con il progredire dei grandi progetti di mappatura del cervello, quello attivo all’Università di Taiwan potrebbe sembrare a prima vista di secondaria importanza. Lì un gruppo di ricercatori coordinati da Ann-Shyn Chiang studia il cervello di Drosophila melanogaster, Cf. C. Batini, Big Data. Big Challenges and Big Concerns, in «Gnosis» (2017)2, pp. 40-49. 16 Cf. S. Seung, Connettoma. La nuova geografia della mente, Codice, Torino 2016. 15
I Big Data nelle ricerche biomediche
125
il comune moscerino della frutta, utilizzatissimo nella ricerca biomedica. L’insetto è prezioso soprattutto per le neuroscienze. Il suo cervello, grande quanto la metà di un seme di papavero, è formato da circa 100.000 neuroni, contro i circa 100 miliardi di un cervello umano. È quindi relativamente semplice, anche se è in grado di sovraintendere a funzioni complesse come apprendere e ricordare. Finora il lavoro ha prodotto mappe tridimensionali di un tale dettaglio da mostrare quali gruppi di cellule controllino determinati comportamenti. Stimolando un determinato gruppo di neuroni i ricercatori riescono, ad esempio, a “ordinare” a un moscerino di scuotere l’ala sinistra oppure di oscillare la testa da un lato all’altro. Agli occhi di un profano, il lavoro potrebbe essere realizzato entro tempi ragionevoli. Eppure il gruppo di ricerca ha impiegato più di 10 anni per ottenere immagini dei contatti di “soli” 60.000 neuroni, poco più della metà delle cellule in questione. Ciò significa che usando questo stesso metodo sui 100 miliardi di neuroni del cervello umano occorrerebbero 17 milioni di anni… Esistono, evidentemente, metodi di indagine meno impegnativi per studiare il connettoma umano. Nel 2016, a firma di un team internazionale, è stata pubblicata una mappa dell’intera corteccia cerebrale umana – cioè dello strato più esterno e ripiegato del cervello – che, a giudizio di molti esperti, è la mappa più dettagliata della connettività del cervello umano finora realizzata. Si è riusciti a portare a termine l’impresa in tempi ragionevoli perché si è scelto di operare a un grado di dettaglio mille volte inferiore rispetto a quello adottato dai ricercatori di Taiwan. Il più piccolo elemento distinguibile della mappa tridimensionale (voxel) della corteccia contiene decine di migliaia di neuroni. Siamo molto lontani dalle connessioni neurali mappate con la risoluzione di singole cellule nel moscerino della frutta. Questi numeri fanno chiaramente intendere che anche nel mondo della neurobiologia i Big Data raggiungono dimensioni inusitate e, nonostante gli enormi progressi nelle apparecchiature di computazione e nella trasmissione dei dati, i neuroscienziati sembrano oggi ripercorrere lo stesso tragitto compiuto dalla genomica alcuni decenni fa. Ma con una differenza: i dati con cui hanno a che fare i neurobiologi sono enormemente più grandi e di tipologie di-
126
Cinque parole della scienza
verse. Ad esempio, l’unità di misura più utile per un singolo insieme di dati di immagini neurologiche è il terabyte, più grande di due o tre ordini di grandezza di un genoma completo di mammifero. Inoltre, mentre i genetisti hanno consapevolezza di quando termina il sequenziamento di un segmento di DNA, i neurobiologi che mappano il cervello non sanno con esattezza dove fermarsi. Devono poi confrontarsi con un insieme di immagini e dati elettrofisiologici così eterogeneo da non essere neanche paragonabile all’omogeneità dei dati genetici. I neuroscienziati possono mappare il cervello ponendosi a livelli di definizione differenti e facendo uso di metodiche diverse. In alcuni laboratori, ad esempio, si mappa la connettività del cervello su scala macroscopica, utilizzando la risonanza magnetica (MRI). Altri mappano l’attività neurofisiologica a livello sia macroscopico che microscopico. Altri ancora, come il gruppo di Chiang, localizzano ogni sinapsi e seguono ogni ramificazione neurale con precisione nanometrica. Altri infine lavorano per coordinare tra loro modelli di espressione genica, misurazioni elettrofisiologiche e altri dati funzionali. Il sistema “cervello” – non importa di quale specie – deve la sua complessità non solo al fatto di essere grande e interconnesso ma anche alle notevoli dimensioni delle sue cellule. La ramificazione principale di un neurone di mammifero (assone), ad esempio, può essere 200.000 volte più lunga delle sue ramificazioni più corte (dendriti). Ciò significa che un neurone, ingrandito fino ad avere dendriti lunghi come spaghetti, risulterebbe più lungo di 330 metri, cioè più di tre campi da calcio. In laboratorio, i ricercatori che mappano ogni singolo neurone seguono l’andamento contorto delle sue migliaia di ramificazioni sovrapponendo centinaia e centinaia di immagini di sezioni cerebrali. La microscopia basata sulla luce visibile permette ingrandimenti appena sufficienti a rintracciare il corpo principale dei neuroni, ma per mettere in evidenza le sinapsi è richiesto il potere di ingrandimento della microscopia elettronica. Un ingrandimento maggiore, però, significa campi visivi più piccoli e di conseguenza un numero maggiore di immagini totali. E un numero maggiore di immagini significa un numero maggiore di dati. Non più me-
I Big Data nelle ricerche biomediche
127
gabyte e neanche gigabyte di dati, ma terabyte. E due terabyte di dati occuperebbero tutto il disco rigido di molti dei nostri computer domestici. Anche gli studi di elettrofisiologia sono diventati impegnativi dal punto di vista computazionale. Oggi i ricercatori registrano di routine l’attività di centinaia di neuroni alla volta. Negli anni futuri diventeranno certamente migliaia e centinaia di migliaia. Inoltre, tutti questi dati sono disponibili in diversi formati. L’attività cerebrale può apparire come picchi sui tracciati elettrofisiologici, o come lampi verdi di ioni calcio in movimento dentro e fuori i neuroni. Su queste immagini verdi, poi, altre tonalità fluorescenti possono segnalare quali neuroni stanno inviando segnali e quali li stanno ricevendo. E i ricercatori possono raccogliere questi dati mentre i soggetti analizzati si orientano in un labirinto, cercano cibo o guardano luci che lampeggiano sugli schermi. Registrare 20 minuti di attività di un cervello di topo significa raccogliere 500 petabyte di lampeggi intermittenti. Ciò che interessa però è identificare quali neuroni entrano in connessione tra loro e quando trasmettono l’impulso. Isolando ogni neurone e assegnando una scansione temporale agli impulsi è possibile ridurre l’insieme di dati a un più gestibile valore di 500 gigabyte. È per questo motivo che alcuni neuroscienziati si stanno concentrando sullo sviluppo di algoritmi capaci di identificare e organizzare i dati utili, piuttosto che concentrarsi sulla conservazione e sulla organizzazione dei dati grezzi. Questi algoritmi, una volta trovati, permetterebbero ai microscopi di comprimere direttamente i dati oltre che raccoglierli. La questione dei dati “non sufficienti” è condivisa da molti neuroscienziati che studiano i disturbi dello sviluppo neurologico. Un’ipotesi comunemente accettata per spiegare queste malattie è che i cambiamenti nei geni alterano la produzione di proteine in alcuni neuroni e conseguentemente anche i circuiti cerebrali, provocando deficit comportamentali. La risonanza magnetica può rilevare i cambiamenti nell’anatomia macroscopica del cervello ma le modificazioni più sottili esigono approcci analitici capaci di una risoluzione maggiore, come la microscopia confocale o elettronica. Sorge però una nuova difficoltà: i dati ottenuti con l’alta risoluzio-
128
Cinque parole della scienza
ne sono espressi in formati diversi da quelli ottenuti con la bassa risoluzione e non c’è modo finora di passare dagli uni agli altri. Ciò significa che, una volta che i neuroscienziati hanno “zoomato” fino al livello delle singole cellule, non possono tornare indietro per osservare quelle stesse cellule nel contesto del cervello intero. Man mano che spingono più in là i confini delle loro possibilità, i neurobiologi devono creare nuovi metodi computazionali per gestire il flusso di lavoro sempre più imponente e inventare nuovi strumenti per visualizzare e comunicare i risultati ottenuti. Ma non sarà l’invenzione di nuovi strumenti teorici o nuove tecniche analitiche ad alleggerire le loro fatiche. È necessario che operino un vero e proprio cambiamento culturale e convincersi che carpire i segreti del cervello richiede uno sforzo comune. Il modello accademico convenzionale non aiuta in questa impresa. Per una sorta di tradizione, infatti, i ricercatori tendono a sviluppare ipotesi e lavorare sulle proprie idee indipendentemente dai colleghi. In un contesto del genere, la ricerca non aiuta a mettere insieme le persone, ma le separa. Seppur lentamente, comunque, gli atteggiamenti stanno cambiando. Facilitate anche dal ricambio generazionale, in questi ultimi tempi sono sorte alcune forme di condivisione che in un primo momento hanno interessato i programmi di raccolta e di elaborazione dei dati, e successivamente i dati stessi.
9. Gli Open Data In neurobiologia sta avvenendo quello che in altri ambiti della scienza è ormai una prassi consolidata nell’ultimo ventennio, quella dei dati aperti, universalmente noti come open data17. Nei primi anni 2000 entrarono in crisi i modelli di impresa fondati sulla commercializzazione dell’accesso alle banche dati delle sequenze genomiche. L’interesse delle aziende (soprattutto quelle farmaceutiche) si spostò, allora, sullo sviluppo di nuovi servizi, resi possibili dalle rivoluzionarie conoscenze genetiche. In quegli stessi Cf. A. Delfanti, Biohacker. Scienza aperta e società dell’informazione, Eléutera, Milano 2013. 17
I Big Data nelle ricerche biomediche
129
anni anche i protagonisti delle forme di ricerca proprietaria (quelle coperte da brevetti e da altre forme protezionistiche) furono contestati sul piano sociale, legale e politico con l’accusa di tradire il contratto tra scienza e società. Una delle conseguenze fu che la rete e le nuove tecnologie furono utilizzate sempre più largamente per produrre e condividere le nuove conoscenze scientifiche in forma aperta (open access), cioè accessibile a chiunque abbia a disposizione un computer collegato alla rete. Nacquero anche riviste scientifiche e archivi open access che si ponevano come alternativa alle tradizionali riviste cartacee, accessibili solo agli abbonati. Ne è risultato che oggi è accessibile liberamente in rete circa il 20% della letteratura scientifica pubblicata ogni anno. Il portabandiera dell’open access nell’editoria scientifica è il gruppo editoriale Public Library of Science (PloS) con le sue riviste on-line PloS Biology e PloS Medicine e i suoi esperimenti di open peer review, cioè di partecipazione aperta della comunità scientifica alla valutazione delle ricerche pubblicate. Anche le agenzie che finanziano la ricerca stanno adottando politiche simili. I National Institutes of Health (NIH) americani, per esempio, esigono che i risultati di ogni ricerca da loro finanziata siano resi accessibili on line. In Italia, la fondazione Telethon adotta una politica analoga e obbliga i gruppi di ricerca, finanziati con il denaro che raccoglie, a pubblicare i risultati in forma open access. Altre istituzioni si spingono oltre esigendo che non solo i dati conclusivi ma anche quelli grezzi siano resi pubblici. Politiche analoghe sono adottate anche da alcune aziende biomediche in cui la condivisione dei dati sta diventando una forma di gestione dell’informazione che affianca quella tradizionale dei brevetti o della segretezza. Nel 2010, per esempio, la casa farmaceutica Glaxo Smith Kline, che ha numerose e prestigiose sedi di ricerca nel nostro Paese, ha reso disponibile una banca dati contenente le strutture molecolari e le proprietà farmacologiche di 13.500 molecole potenzialmente utili nella lotta alla malaria. Per molto tempo il monopolio degli editori commerciali aveva sottratto ai ricercatori il controllo delle dinamiche di circolazione del sapere, ma in questi ultimi anni numerose società scientifiche hanno preso, esse stesse, l’iniziativa di pubblicare articoli on line e open
130
Cinque parole della scienza
access, studiando nuove soluzioni comunicative e nuove strategie per rinnovati progetti editoriali. La partecipazione diretta delle comunità scientifiche alla gestione dei propri canali di comunicazione è una risposta alle possibilità aperte dai media digitali che va nella direzione di una riorganizzazione profonda della gestione della conoscenza. Sull’importanza e sull’utilità degli Open Data nella ricerca biomedica non possono esservi più dubbi. Lo dimostrano molti casi concreti dai quali è risultato evidente che la disponibilità dei dati ha generato benefici significativi. Un caso paradigmatico è quello di Ilaria Capua, una scienziata che ha saputo far diventare gli Open Data una strategia a beneficio di tutta l’umanità. La dottoressa Capua è una virologa di grande valore che, coadiuvata dal suo gruppo di ricerca, è riuscita per prima a isolare il virus aviario H5N1 in Nigeria e ne ha analizzato il genoma. Stando alle direttive dell’Organizzazione Mondiale della Sanità (OMS), avrebbe dovuto depositare la sequenza in una banca dati accessibile solo a pochi laboratori accreditati, ma Ilaria Capua ha deciso di fare l’opposto: mettere la sequenza a disposizione di tutti i ricercatori del mondo inserendola in una banca dati open access, la GenBank. Questa scelta le ha attirato molte critiche, soprattutto da parte di chi voleva il monopolio nello studio di quel virus, ma alla fine ha vinto lei e la sua scelta ha indicato una strada che è stata seguita da molti altri18. Oggi, grazie anche alla sua scelta, l’OMS, la FAO e l’Organizzazione Mondiale della Sanità Animale hanno cambiato parere e promuovono strategie di condivisione delle informazioni e di trasparenza dei dati al fine di gestire al meglio eventuali future pandemie, che potrebbero avere effetti drammatici sulle popolazioni del pianeta.
10. L’altra faccia dei Big Data: i rischi per la privacy Come ho ripetutamente sottolineato, la biomedicina ha generato, per svariate ragioni, una grandissima quantità di dati che vengo D. Talia, La società calcolabile e i big data, Rubbettino, Soveria Mannelli 2018, pp. 63-66. 18
I Big Data nelle ricerche biomediche
131
no conservati e interpretati nella speranza di allargare la conoscenza della fisiologia e della patologia dell’organismo umano, di migliorare la qualità dell’assistenza sanitaria, rendendo possibile una più stretta sorveglianza delle malattie, e nella speranza di essere di supporto alle decisioni cliniche nella gestione della salute privata e pubblica. Il trattamento di questi dati – sia che provengano dall’attività di ricerca, sia che abbiano origine nell’ambito dell’attività più propriamente sanitaria – è reso particolarmente delicato, sotto il profilo etico, dalla loro natura “ultrasensibile” che impone il pieno rispetto dei principi di riservatezza e confidenzialità (privacy) riconosciuti a livello mondiale. È difficile, ad esempio, sovrastimare il pericolo rappresentato da una totale disponibilità delle informazioni genetiche: tutti i dettagli più intimi di chi e che cosa geneticamente siamo potrebbero essere usati per ragioni che vanno al di là della creazione di nuovi medicinali o della messa a punto di nuovi trattamenti. Ma allora, se per giungere alla scoperta di terapie salvavita basate sulla genomica dovranno essere ceduti i dati personali più intimi, dovrà essere pretesa con forza dall’autorità legislativa la creazione di regole rigorose su come essi debbano essere difesi durante i tempi sia dell’archiviazione sia dell’utilizzo. Un esempio di risposta a tale richiesta è il nuovo regolamento europeo sulla protezione dei dati, in vigore dal maggio 2018, che impone sia al settore pubblico sia a quello privato modelli di gestione sicura, filiere di trattamento ben definite, norme di sicurezza stringenti e sanzioni particolarmente severe in caso di violazioni accertate19. La rete però non conosce confini nazionali. Proprio per questo motivo è urgente che tutti gli stati che ne siano ancora privi si dotino di analoghi strumenti legislativi.
Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016 (Regolamento generale sulla protezione dei dati). 19
Dato e informazione Giovanni Pistone
In God We Trust, All Others Must Bring Data (Frase attribuita a W. Edwards Deming)
1. Introduzione1 In molti degli incontri della serie “Le parole della scienza”, organizzati dal prof. Giandomenico Boffi per SEFIR, abbiamo constatato che termini che hanno in campo scientifico un significato tecnico preciso vengono usati in altre aree culturali, o anche nel linguaggio comune, con riferimento ad ambiti molto più vasti, con significato a volte impreciso o soltanto evocativo. Anzi, è proprio questo l’interesse e il fascino di questi seminari. C’è una ragione precisa e non banale. Questi termini, infatti, sono spesso formalizzazioni nel linguaggio delle scienze, cioè in linguaggio matematico, di concetti filosofici di grande portata e importanza. La formalizzazione è molto di più della descrizione matematica, più o meno fedele, di un fatto, ma contiene un elemento di costruzione che sposta il problema su un altro piano, creando così un contesto di significati diverso da quello originale e aprendo la possibilità di sviluppi sostanziali2. Giovanni Pistone, Probabilità e statistica, Collegio Carlo Alberto (Torino). Martin Heidegger, in Essere e tempo (tr. it. di A. Marini, Mondadori 2011, p. 508), a proposito della fisica matematica, afferma che «il fattore decisivo della sua costituzione a scienza non sta né nella maggiore valutazione dell’osservazione dei “dati di fatto”, né nell’“applicazione” di procedimenti matematici nella determinazione dei processi naturali, bensì nel progetto stesso, matematico, della natura». 1 2
134
Cinque parole della scienza
Questa premessa vale, in particolar modo, anche per il tema di questo seminario, cioè “dato e informazione”. Il termine informazione ha un campo semantico molto vasto: l’informazione giornalistica, l’informazione nelle indagini, i servizi di informazione, la società dell’informazione, l’economia dell’informazione, l’informazione nella teoria dei segnali, la tecnologia dell’informazione, l’elaborazione dell’informazione, le misure dell’informazione... Anche nel campo ristretto della cultura popolare il termine sembra essere presente in molti ambiti, ma appare di significato sfuggente3. Fortunatamente, l’associazione “dato e informazione” focalizza l’attenzione su qualche cosa di molto più specifico. È comune, in molte scienze e tecnologie, usare la coppia in questo senso: i dati contengono l’informazione, ma l’informazione stessa non è immediatamente visibile e deve essere estratta dai dati con un qualche trattamento o elaborazione che li interpreti. Nella teoria dei segnali si parla di rumore che corrompe l’informazione trasmessa. Nelle tecnologie dell’informazione si pensa che i dati in memoria contengano tutte le informazioni, ma che sia necessario estrarre, caso per caso, quelle che interessano. Nelle scienze sperimentali i dati sono i risultati di un esperimento pianificato per effettuare una misura o verificare un’ipotesi a priori. Sono sempre rilevanti, in queste operazioni di “estrazione”, le metodologie statistiche. Possiamo dunque cominciare a esaminare il tema da una base più tecnica, cosa che non impedisce di ritornare, in seguito, alle tematiche più generali, cioè ai temi filosofici, epistemologici, teologici, etici, ricavando forse dal contesto tecnico qualche suggestione non generica valida anche in ambito non tecnico. Prima di cominciare, faccio esplicitamente due premesse di metodo che erano già implicite nelle precedenti considerazioni. Prima di tutto, dati e informazioni appartengono al mondo del contingente, a cioè quello che può essere, ma potrebbe anche non Una sintetica rassegna, che contiene anche alcuni temi che svilupperò più avanti, è la voce della Documentazione interdisciplinare di scienza e fede (disf.org) redatta da Eugenio Sarti (2002). Esposizioni più tecniche, scritte dal punto di vista della filosofia di stile analitico, sono le voci correlate della Stanford Encyclopedia of Philosophy (SEP), in particolare quelle di P. Adriaans, «Information», e di O. Maroney, «Information Processing and Thermodynamic Entropy». 3
Dato e informazione
135
essere o essere diverso. Non ci sono dati e informazioni nel teorema di Pitagora. Infatti, una caratteristica retorica del discorrere di dati e informazioni è l’uso di argomenti contro-fattuali: le cose sono andate così, ma se invece... Un secondo punto è questo: parlare di dati e informazioni implica un atteggiamento realista, cioè il mondo esiste, ed è distinto dal soggetto cui interessano le informazioni. Non ci sono dati e informazioni nel delirio. Ma c’è un problema: il confrontare dati di fatto e fatti che avrebbero potuto essere ma non sono stati pone un problema difficile al realismo. Anticipando la conclusione del mio discorso, sostengo qui che dato e informazione entrano in gioco solo quando il mondo è osservato deliberatamente e la percezione è confrontata con un’attesa, come avviene per esempio nella sperimentazione di laboratorio, oppure nella teoria delle decisioni. Cioè i dati diventano informazione quando sono valutati in rapporto alle potenzialità della situazione e a una valutazione a priori della loro verisimiglianza.
2. Mondi possibili Nella contingenza siamo di fronte a possibili scenari alternativi. Tutte le formalizzazioni dell’incerto prevedono un punto di partenza cruciale, cioè la determinazione certa di quali sono le alternative incerte. Questa è una considerevole riduzione del campo del possibile, senza la quale non sono disponibili, al momento, metodologie scientifiche. Deve essere disponibile, o comunque deve essere presupposto, un insieme, finito o infinito (nel seguito dell’esposizione sempre finito), di alternative possibili. Questa è, come osservato, una drastica riduzione dell’incertezza, che a sua volta si fonda su forti assunti epistemici e metafisici senza i quali nessuna metodologia statistico-matematica può essere messa in opera. Il primo esempio è la cosiddetta scommessa di Pascal4. L’argomento di Pascal riduce il caos a due alternative secche: “Dio c’è”, 4 Qui leggo I. Hacking, L’emergenza della probabilità, Il Saggiatore, Milano 1987, cap. 8. L’argomento di Blaise Pascal viene ricostruito sulla base di un manoscritto molto incerto. Si può riconoscere a Pascal l’individuazione di quella che oggi viene
136
Cinque parole della scienza
oppure “Dio non c’è”. In probabilità si parla di casi possibili; in statistica si parla di spazio campionario; in fisica statistica si dice configurazioni dello spazio delle fasi; in affidabilità, economia, politica, si parla di scenari possibili; in logica modale si parla di mondi possibili. Ma è sempre lo stesso tipo di presupposto. La determinazione dello spazio delle alternative non è un’operazione banale. A volte è il problema principale dell’analisi. Un esempio divertente, il cosiddetto problema di Monty Hall5, illustra bene la difficoltà. Monty Hall era il presentatore di un gioco televisivo. Dietro a tre porte chiuse ci sono due capre e un’automobile. Il giocatore, che non sa dove è il premio, sceglie una porta senza aprirla. Il presentatore apre una delle porte non scelte mostrando una capra (lui sa dove è il premio). Il giocatore ora deve decidere se mantenere la scelta iniziale o cambiare. La strategia giusta è cambiare. L’esempio illustra che l’insieme delle possibilità può avere una struttura complessa. In effetti, l’insieme delle possibilità potrebbe anche essere strutturato secondo un grafo che metta in relazione le varie possibilità. Ad esempio, in un piano per la sicurezza pubblica, se piove potrebbe piovere molto e, se piove molto, il torrente potrebbe esondare. Ma il torrente non esonda se non piove. Cioè, c’è una nozione di possibilità corrente e di possibilità che sono compatibili con quella corrente. In questo modo è strutturata la semantica proposta da Saul Kripke per la logica modale6.
chiamata teoria delle decisioni statistiche. Gli elementi essenziali sono presenti: l’insieme delle alternative; il costo di ogni possibile scelta; il criterio di scelta basato sulla minimizzazione del rischio. Mentre il valore concettuale del contributo è altissimo, molti mettono in dubbio il suo valore apologetico. Ad esempio, si può vedere in disf. org il commento critico di Luca Arcangeli (2012). 5 Gli stati del gioco possono essere elencati esaustivamente. Se l’auto è dietro la porta 1, allora la sequenza 321 indica che in giocatore sceglie la porta 3, poi Monty Hall apre la porta 2, poi il giocatore decide di cambiare a sceglie la porta 1. Se si elencano tutte le sequenze possibili si vede che, cambiando, la probabilità enumerativa delle sequenze che portano al premio è di 2 su 3. Questo problema è famoso perché è molto difficile farsi un’idea intuitiva della situazione: sembra a quasi tutti che la scelta sia indifferente. 6 Nella semantica di Kripke sono necessariamente vere in un dato mondo tutte le proposizioni che sono vere in ogni mondo accessibile da quello corrente. Vedi il ma-
Dato e informazione
137
La determinazione dello spazio campionario X permette di aggiungere un altro elemento importante della struttura matematica, cioè le funzioni f a valori reali estesi, in termine tecnico variabili casuali, che associano ad ogni evento possibile x in X un valore numerico f(x). Nella scommessa di Pascal i valori sono due: infinito o zero. La conclusione è che credere conviene; o, meglio, non danneggia in alcun caso. Questo problema di decisione non ha dati7. La scommessa di Pascal è un caso di problema di decisione molto particolare, perché non solo non ha dati, ma non richiede nessuna valutazione del grado di incertezza delle alternative. Nel caso del gioco di Monty Hall la valutazione del grado di incertezza deve essere fatta, ma è basata sulla sola enumerazione delle configurazioni possibili. La decisione di un sindaco sulla base dell’analisi degli scenari dei dati meteorologici è più complicata, richiede una valutazione delle incertezze meteorologiche basata su dati empirici. Prima di procedere a discutere i metodi di valutazione dell’incertezza consideriamo cosa questo implica per il realismo dell’analisi. Può una procedura di decisione in condizioni di incertezza, basata su una analisi degli scenari e dell’incertezza dei dati, diventare obbiettiva? E, in particolare, le decisioni prese in condizioni di incertezza da un sindaco implicano una sua responsabilità penale? Oppure: le previsioni sul clima sono obbiettivamente impegnative? Si afferma normalmente che le decisioni non sono obbiettive, ma che la procedura di scelta delle decisioni, se basata su corrette valutazioni dell’informazione, è obbiettiva.
nuale di M. Frixione – S. Iaquinto – M. Vignolo, Introduzione alle logiche modali, Laterza, Roma-Bari 2016. 7 Che il discorso su Dio non debba prendere in considerazione dati è una delle opinioni, forse la più diffusa; per esempio è l’opinione di Deming citato all’inizio. Ma alcuni sono di opinione contraria. Ad esempio, N. Murphy, Theology in the Age of Scientific Reasoning, Cornell University Press, Ithaca (NY) 1990, argomentava che il discorso teologico, in quanto programma di ricerca nel senso di Lakatos, deve necessariamente considerare certi dati. Si può vedere anche L. Oviedo, Verso una teologia empirica e sperimentale, in «Ricerche Teologiche» 23(2012)1, pp. 81-103. Da un’altro punto di vista, calvinisti come il filosofo Alvin Plantinga sostengono che la «testimonianza interna dello Spirito» può essere trattata come un dato nella formazione di credenze cristiane.
138
Cinque parole della scienza
3. Valutare l’incertezza Ci sono vari modi di valutare l’incertezza sia comparativamente (più probabile/meno probabile) sia con una misura numerica8. Ma la metodologia di gran lunga più applicata è il calcolo delle probabilità. Storicamente il calcolo delle probabilità inizia con lo studio dei giochi d’azzardo e delle lotterie9. Più tardi lo stesso modello matematico viene applicato in campo assicurativo10 e in fisica11. L’inizio nell’analisi del gioco d’azzardo non è un caso. Infatti, nel calcolo delle probabilità la valutazione delle probabilità degli eventi è solo uno strumento per il vero problema, che è la valutazione dei valori attesi delle variabili aleatorie. La casualità è solo una parte di una situazione più strutturata in cui ci sono scommesse associate. Il concetto fondamentale non è tanto quello di probabilità ma quello di utilità, dove: utilità = probabilità × guadagno
8 Un manuale sulla decisione in condizioni di incertezza è quello di J.A. Halpern, Reasoning about Uncertainty, MIT Press, Cambridge (MA) 2003. 9 Menzioni al gioco d’azzardo si trovano nell’antichità. Il calcolo delle probabilità come disciplina matematica applicata ai giochi d’azzardo inizia con Gerolamo Cardano (1501-1576), Galileo Galilei (1564-1642), Pierre de Fermat (1607-1665), Blaise Pascal (1623-1662). Si può vedere l’esposizione sintetica di E. Carruccio, Matematica e logica nella storia e nel pensiero contemporaneo, Geroni, Torino 1956 (trad. ing. Mathematics and Logic in History and Contemporary Thought, Faber and Faber, London 1964). 10 Nel campo delle tavole di sopravvivenza e delle assicurazioni sul commercio, sulla vita, sulla previdenza, con Abraham de Moivre (1667-1754) e Richard Price (1723-1791). Si può vedere la ricostruzione di I. Hacking, L’emergenza della probabilità, cap. 13. 11 Nella fisica con James Clerk Maxwell (1831-1879) e Ludwig Eduard Boltzmann (1844-1906). L’evoluzione delle idee in fisica statistica è raccontata in L. Sklar, Physics and Chance. Philosophical Issues in the Foundation of Statistical Mechanics, Cambridge University Press, Cambridge 1993.
Dato e informazione
139
come illustra bene la “scommessa di Pascal”. Naturalmente, Pascal proietta la nozione molto oltre l’applicazione usuale. Nel suo caso, l’utilità è 0 in un caso e + ∞ nell’altro. Nei giochi, la valutazione delle probabilità è affidata a un ragionamento di simmetria, non a dati. Nelle applicazioni assicurative interviene un nuovo concetto, cioè che le probabilità di sopravvivenza sono dedotte non da ragionamenti a priori ma dall’analisi delle tavole di sopravvivenza dell’intera popolazione e queste sono applicate al calcolo della speranza di vita di un determinato individuo, considerata uguale alla durata media di vita della popolazione di cui fa parte. In questo contesto, si scopre che le valutazioni di probabilità dedotte da dati hanno un loro significato indipendente dal contratto in esame. Richard Price, ad esempio, scopre che la speranza di vita in campagna è più alta di quella in città. Questa concettualizzazione della probabilità come descrizione di uno stato globale di un sistema complesso diventa fondamentale con la scoperta delle applicazioni nella fisica del calore. Qui le proprietà del sistema complesso prendono un aspetto duplice: da un lato, c’è lo spazio campionario delle molecole descritto in termini di quantità della meccanica; dall’altro, c’è una distribuzione probabilistica che corrisponde non al valore atteso di un gioco ma a una vera e propria quantità fisica (la temperatura). Questo sviluppo conduce Ludwig Boltzmann a considerare una nuova caratteristica dei sistemi casuali che si presentano come distinti in due livelli, quello macroscopico e quello microscopico. Questa nuova caratteristica è l’entropia degli stati macroscopici. Ad esempio, consideriamo un sistema costituito da 3 dadi, ciascuno dei quali può assumere 6 diversi stati. Supponiamo che i dadi siano indistinguibili, dunque che il giocatore conosca solo quanti sono i risultati di ogni tipo, ad esempio due volte 3 e una volta 6. A questo stato “macroscopico” corrispondono vari stati “microscopici”, cioè 633, 363, 336. L’entropia corrispondente allo stato macroscopico “due 3 e un 6” è, per Boltzmann, proporzionale al logaritmo del numero di stati microscopici, H = k · log 3. La scelta della scala logaritmica è intesa a produrre una proprietà di additività quando si hanno sistemi indipendenti (due serie di 3 dadi). La giustificazione
140
Cinque parole della scienza
fisica della definizione risiede nella sua compatibilità con la termodinamica fenomenologica, da un lato, e nelle sue proprietà esplicative nell’ambito della teoria microscopica del calore. Fin qui abbiamo parlato di “dati”. Arriviamo infine a parlare di “informazione”.
4. Valutare l’informazione L’entropia di Boltzmann fornisce la riduzione di una tematica complicata a una struttura matematica. L’idea di misura è associata all’operazione matematica di somma: la giustapposizione di due segmenti produce un segmento la cui misura è la somma delle due misure. L’idea di conteggio delle configurazioni microscopiche è associata alla struttura matematica del prodotto: il numero di configurazioni in due urne isolate l’una dall’altra è il prodotto dei numeri di configurazioni. I numeri reali con l’operazione di somma costituiscono un gruppo, cioè l’operazione è associativa, commutativa, invertibile. I numeri reali positivi con l’operazione di prodotto costituiscono un gruppo. È stata la grande scoperta di John Napier (1550-1617) che i due gruppi sono isomorfi. Precisamente, l’isomorfismo è la funzione logaritmo, che trasforma prodotti in somme log(ab) = log a + log b. La definizione di Boltzmann è estensionale, cioè è additiva sui sistemi indipendenti. Questa definizione produce risultati molto interessanti, nuovi; ad esempio, permette di tentare una dimostrazione dell’assioma fenomenologico per il quale l’entropia aumenta sempre in un sistema isolato. Quando viene individuata una struttura matematica interessante il suo carattere astratto permette di trasferire l’intuizione proveniente da un campo di applicazione a un altro campo di applicazione in cui è utilizzabile lo stesso formalismo astratto. È avvenuto ripetutamente anche nel caso dell’entropia. Possiamo osservare una biforcazione tra due filoni di ricerca: c’è un’evoluzione all’interno della meccanica statistica e una seconda, che ci interessa qui, nella direzione di una misura dell’informazione.
Dato e informazione
141
Josiah Willard Gibbs (1839-1903). Se p è la funzione di probabilità dello stato, la quantità log p, che differisce di una costante dall’entropia di Boltzmann, viene interpretata da Josiah Willard Gibbs come energia e, invertendo la relazione logaritmica, interpreta la probabilità dello stato come funzione dell’energia dello stato stesso. La distribuzione di Gibbs è un modo di scrivere le probabilità degli stati microscopici in funzione della loro energia E(x) e della temperatura T del sistema. In questo formalismo si può ricostruire tutta la termodinamica12. Ronald A. Fisher (1890-1962). In una direzione di sviluppo parallela a quella che avviene in fisica, si osserva che la quantità − log p(x) è grande quando la probabilità è piccola ed è 0 se la probabilità è 1. In questo senso, la nozione di entropia richiama la nozione statistica di significatività che è l’osservazione, semplice ma di grande impatto in tutte le scienze dell’incerto, che un fatto è tanto più significativo quanto più è raro. Ma la misura della rarità di un evento potrebbe essere proprio presa pari a − log p(x) per i vantaggi algebrici già discussi. L’idea della statistica fisheriana è che, osservato il caso x, il valore dell’entropia di p, ora chiamato informazione, fornisce informazioni su p. In questo contesto, la funzione p → log p(x) si chiama verosimiglianza e fornisce procedure di inferenza. Con inferenza qui si intende una procedura di decisione che passa dal locale (o casuale) x al globale p. L’inferenza è un ragionamento strutturalmente incerto. Bisogna ancora menzionare un filone estremamente importante in campo tecnologico, ma sostanzialmente contiguo a quello statistico, che riguarda la misura dell’informazione contenuta in un segnale. Claude Elwood Shannon (1916-2001). Se N è il numero di stati del sistema, allora log2 N sono i bit necessari per rappresentare il sistema stesso. Notare che questa è la formula dell’entropia di Boltzmann perché log2 N = − log2 (1/N) e 1/N è la probabilità di ogni caso in distribuzione uniforme.
Vedi L.D. Landau – E.M. Lifšits, Fisica teorica V. Fisica statistica, Editori Riuniti, Roma 2010. 12
142
Cinque parole della scienza
5. Teoria delle decisioni Riassumiamo una parte della presentazione fatta riprendendo schematicamente uno degli esiti dello sviluppo dell’idea di decisione in condizioni di incertezza usando informazioni provenienti da dati. La teoria della decisione in situazione di incertezza si formalizza in una struttura matematica che prevede la presenza di vari elementi: - un insieme determinato di alternative; - uno o più agenti le cui decisioni causano guadagni o perdite; - una valutazione numerica dell’incertezza, tipicamente la probabilità; - una procedura sistematica di scelta dell’azione sulla base dei dati disponibili; - una metodologia di pianificazione basata sulla valutazione dell’informazione che si può trarre da quei dati. Menzioniamo anche il fatto che esiste una fiorente metodologia alternativa, la statistica bayesiana, che considera l’inferenza non un’operazione che inferisce proprietà globali da quelle locali, ma ragiona esclusivamente sulla base di descrizioni globali, facendo evolvere una valutazione di probabilità a-priori in una valutazione di probabilità a-posteriori, calcolata sulla base dell’osservazione di dati. Questa impostazione è particolarmente fiorente in certi campi applicativi. Secondo alcuni teorici cognitivi, tutta la percezione è di questo tipo13.
5. Apprendimento automatico: Machine Learning Le discipline dell’ingegneria dell’informazione non si esprimono di solito in termini di dato e informazione come li intende la statistica sperimentale, ma prevale l’immagine della ricerca di informazioni interessanti in un archivio. Le problematiche, però, sono molto simili se non addirittura le stesse. Queste discipline normal Ad esempio, A. Clark, Surfing Uncertainty, Oxford University Press, New York
13
2016.
Dato e informazione
143
mente presumono che il primo stadio di acquisizione dei dati sia stato effettuato da appositi dispositivi in ingresso e che le eventuali azioni necessarie verranno affidate a dispositivi di uscita. Per questa ragione tecnica, l’analisi teorica presuppone che tutti i dati siano di tipo numerico, in particolare binario. In questo contesto sia i dati sia le informazioni hanno lo stesso substrato materiale ed energetico nel computer. Il calcolatore binario e programmabile è oggi un oggetto tecnico maturo14 e, come tale, ha una sua individualità e una sua necessità che diventano anche metaforiche: il cervello umano come computer, l’universo come computer che ha informazioni complete, gli eventi in scala quantistica come qbit di informazione ecc... Le tecniche di apprendimento automatico sono un’evoluzione del concetto di intelligenza artificiale. Mentre in origine lo scopo sembrava essere quello di ricostruire artificialmente attività intellettive superiori (il robot), ora i migliori successi sono ottenuti restringendo l’ambizione alla realizzazione di capacità percettive di base, come il riconoscimento degli oggetti in un’immagine o delle parole in un discorso15. L’obbiettivo, in questo caso, è il riconoscimento, in una situazione apparentemente caotica, di strutture semplici e interpretabili che costituiscono l’informazione. Questa idea che le strutture semplici sono interpretabili connette, ma non confonde, un concetto di informazione più quantitativo e utilitario con un concetto di informazione semantica, che identifica l’informazione con la quantità di significato estraibile dai dati.
6. Reti Neurali: Artificial Neural Network Considero qui un caso molto particolare di tecnologia dell’informazione cioè uno schema particolare di Deep Learning16. Lo Vedi G. Simondon, Du mode d’existence des objets techniques, Aubier Philosophie, Paris 20014. 15 Questa idea è sviluppata in un altro preprint: F. dell’Orto – G. Pistone, BigData e metodo scientifico. 16 Il manuale di riferimento oggi è I. Goodfellow – Y. Bengio – A. Couville, Deep Learning, MIT Press, Cambridge (MA) 2016. 14
144
Cinque parole della scienza
schema di base è quello della rete neurale, in inglese Artificial Neural Network, in cui le configurazioni in ingresso vengono trasformate in configurazioni di uscita, passando attraverso una serie di stadi intermedi, come rappresentato in Figura 1 (dalla voce corrispondente di Wikipedia). In questo caso ci sono 1+1+1 strati, di numerosità n0 = 3, n1 = 4, n2 = 2.
Figura 1: Rete Neurale Artificiale Lo scopo del dispositivo è l’estrazione di informazioni da dati. Il primo esempio di successo di queste procedure è stato il riconoscimento delle cifre scritte a mano17, ma ora questi programmi sono molto comuni in tutti i sistemi di gestione delle immagini, ad esempio nel riconoscimento dell’area del volto in una foto di gruppo. Ciò che caratterizza questi specifici metodi è la struttura dei passaggi intermedi, costruiti in modo contemporaneamente semplice e generico. Anche i modelli classici hanno componenti ele17 La ricerca originale è basata su Y. LeCun – C. Cortes – C.J.C. Burges, MNIST handwritten digit database. Questo problema è una sorta di test per questa tecnica. La letteratura, sia tecnica che divulgativa, è molto vasta.
Dato e informazione
145
mentari riconducibili a semplici strutture algebriche. Ad esempio, è possibile ricostruire una grande varietà di funzioni numeriche, almeno approssimativamente, usando solo somme e prodotti18. Nel caso delle reti neurali il componente elementare non è un’operazione algebrica, ma il cosiddetto percettrone introdotto da Frank Rosenblatt nel 1958. Più percettroni vengono combinati nella rete neurale. Con riferimento alla figura, due stadi successivi sono rappresentati da vettori di dimensione pari al numero di componenti dello strato stesso. Il valore di ogni componente di uno strato è una combinazione lineare dei valori dello strato precedente trasformata da una funzione non algebrica che può essere scelta in vari modi, ad esempio come parte positiva del valore prodotto dalla combinazione lineare19. Questa forma della risposta è stata suggerita inizialmente da un’idea generale sul modo di reazione dei sistemi biologici, nei quali l’effetto di uno stimolo prevede sempre una soglia iniziale al di sotto della quale non c’è alcuna reazione. Spesso si osserva anche un livello di saturazione superato il quale non c’è aumento della risposta. Il modello contiene dei parametri liberi che vengono stimati nel processo di apprendimento, ottimizzando la loro scelta sulla base di un sistema di esempi in cui si conosce sia l’ingresso sia l’uscita. L’uso di nozioni di misura dell’informazione è estremamente limitato in questa applicazione. In molti casi conviene introdurre, in sostituzione dei dati numerici, rappresentazioni dei dati che sono distribuzioni di probabilità; in questo caso varianti dell’entropia vengono utilizzate per introdurre una nozione di misura della deviazione dal risultato voluto.
18 Combinando somme e prodotti sui numeri reali si ottengono tutte le funzioni polinomiali. Ad esempio, i polinomi di due variabili reali di grado 2 permettono di riprodurre una grande varietà di risposte di un sistema. Inoltre, aggiungendo termini di grado superiore si possono approssimare con arbitraria precisione su un dominio limitato tutte le funzioni continue. È il teorema di Weierstrass. 19 È interessante (per il matematico) osservare che la dimostrazione del teorema di Weierstrass passa attraverso la dimostrazione che la funzione parte positiva è approssimabile con polinomi e che esiste un teorema che mostra che le reti neurali approssimano qualsiasi funzione continua; vedi Universal Approximation Theorem.
146
Cinque parole della scienza
7. Codificazione automatica: Auto-encoder Un’ulteriore evoluzione dell’idea di rete neurale si ottiene rendendo parte della rete neurale anche una parte della procedura di addestramento. Nel problema del riconoscimento delle cifre scritte a mano i dati dell’addestramento sono una serie di ingressi (le immagini codificate) e le corrispondenti cifre in uscita (0, 1, 2...). Per eliminare l’interprete umano, che legge le cifre e prepara i dati per la fase di apprendimento, si può costruire un dispositivo in due parti: una prima, che interpreta le cifre con una rete neurale; una seconda, che simula la scrittura a mano delle cifre stesse. In questo caso l’addestramento consiste nel verificare che la rete è in grado di riscrivere delle cifre che assomigliano a quelle in ingresso. Lo schema nella Figura 2 (dalla voce corrispondente di Wikipedia) illustra la struttura dell’auto-encoder.
input
output code
X
X’
z
encoder
decoder
Figura 2: Auto-encoder Un canale di trasmissione che copia un ingresso in un’uscita non produce informazione. Ma questo particolare canale di trasmissione non è progettato allo scopo di ottenere la miglior copia
Dato e informazione
147
possibile dell’ingresso nell’uscita, ma al contrario è deliberatamente progettato in modo da distruggere una parte dei dati allo scopo di ricavarne un riassunto significativo. Viene inserito un collo di bottiglia al centro che non può supportare una copia completa dei dati in ingresso, nel senso che la capacità della parte centrale, calcolata nel senso di Shannon, non è sufficiente. Ad esempio, nei dati MNIST le immagini in ingresso sono immagini di 28 × 28 posizioni e in ciascuna posizione c’è una scala di 28 grigi. Il totale è 28 × 28 × 28 = 200.704 bit. Nello strato centrale sono registrate distribuzioni di probabilità sulle cifre da 0 a 9, oppure semplicemente le cifre da 0 a 9. A partire dallo strato centrale si può costruire una rete neurale che ritorna alla dimensione iniziale. Questa particolare applicazione dell’auto-encoder è progettata prevedendo una particolare interpretazione semantica del codice interno, cioè le cifre da 0 a 9. Ma potrebbe anche essere fatto semplicemente introducendo un collo di bottiglia privo di una semantica a priori, identificando a posteriori il significato con le configurazioni del codice interno, come avviene nelle tecniche di ricerca dei fattori semplici che spiegano un fenomeno multi-dimensionale. Questo schema concettuale non è di per sé particolarmente originale. È una delle idee di base della statistica descrittiva che cerca, ad esempio, i fattori principali dei dati salvo poi interpretarli. È una delle idee della teoria del segnale, ad esempio nel passaggio dal segnale analogico musicale alla codifica nel DVD alla riproduzione della musica nel mio impianto. Quello che si aggiunge qui è la specifica tecnologia della rete neurale. Ma è interessante il significato metaforico di questo dispositivo. Il codice della nostra cultura è la scrittura, e prima ancora è la parola. Nei dati osservati, dunque, è nascosto un codice a prima vista invisibile, che può essere rivelato in scrittura e in discorso dal pensiero razionale. Discorso che a sua volta può essere comunicato, permettendo al ricevente di ricostruire per sé i dati iniziali. È l’archetipo della nostra auto-coscienza della struttura conoscitiva umana. Siamo qui vicini a concetti decisamente premoderni. Ad esempio, penso che molti riconosceranno qui l’idea che tutto il creato è codificato nelle Scritture e che queste, a loro volta, rivelano tutto il
148
Cinque parole della scienza
piano divino nella predicazione. Questa visione è presente in tutte le tradizioni abramitiche.
8. Niels Henrik Gregersen In questa sezione finale considero un esempio di come, nel nostro contesto, il discorso tecnico sia strettamente collegato con quello filosofico e teologico. Di tutti i possibili esempi di autori che fanno uso del concetto di informazione ho scelto di parlare di un teologo che accosta la problematica “dato e informazione” dal punto di vista della teologia trinitaria. Niels Henrik Gregersen è uno studioso danese, professore della facoltà di teologia, sezione di sistematica, dell’università di Copenhagen. È particolarmente conosciuto per i suoi contributi sul tema dei rapporti tra scienza e religione. La sua posizione filosofica è una forma di naturalismo critico, che egli considera compatibile con il discorso teologico. In particolare, ha lavorato sui concetti di “emergenza” (emergence in inglese), e di “incarnazione profonda” (deep incarnation). Con Paul Davis ha curato una raccolta di saggi sul concetto di informazione20. Il volume contiene anche un saggio dello stesso Gregersen che riassumo brevemente allo scopo di presentare un concetto di informazione diverso da quelli considerati fino ad ora. Gregersen ripercorre la storia della fisica a partire da Newton, osservando come il concetto iniziale di materia costituita da particelle immutabili, i cui movimenti sono retti da decreti divini, evolva poi in un’idea più ampia di materia ed energia di pari statuto, complessivamente conservate. In un ulteriore sviluppo, che ha le sue origini nella meccanica statistica, nella tecnologia dei segnali, nella biologia della morfologia e dell’ereditarietà e nella filosofia, anche la nozione di tempo perde la sua simmetria per acquistare una direzione, evidenziando una storia naturale. In questo passag N.H. Gregersen, God, matter, and information: towards a Stoicising Logos Christology, in P. Davis – N.H. Gregersen (edd.), Information and the Nature of Reality: from Physics to Metaphysics, Cambridge University Press, Cambridge 2010, pp. 405443; vedi anche l’introduzione al volume dei due curatori. 20
Dato e informazione
149
gio, la nozione di legge di natura tende a sfumare in una nozione di informazione. Il nuovo paradigma, per Gregersen, è inequivocabilmente trinitario: “massa-energia-informazione” (MEI) in mutuo rapporto. Nessuno dei tre elementi di MEI può essere considerato da solo. In particolare, e prima di tutto, non c’è informazione senza un supporto fisico, cioè massa ed energia. Concetto che ricorda una delle acquisizioni della fenomenologia, cioè l’intenzionalità delle attività della coscienza. In questo assunto di base risiede, probabilmente, la relazione che viene stabilita da Gregersen tra dato e informazione. Analizziamo meglio più avanti. Gregersen fornisce questa sua definizione di informazione: «Nel seguito, io assumo che l’informazione, presa in senso generale, abbia a che fare con la generazione e la proliferazione di differenze»21. L’inciso sul senso generale della definizione si riferisce a un’ulteriore classificazione, cioè in questi 3 casi. Il primo è il concetto matematico di informazione nel senso di Shannon. Qui l’informazione conta i dati materiali. Ma c’è anche una versione reciproca di questa relazione, cioè l’entropia di Boltzmann che è un numero che specifica uno stato della materia. C’è poi l’informazione nel senso semantico, cioè l’informazione riguardo a qualche cosa. Anche qui c’è un aspetto duale, l’informazione biologica o informazione che forma, shaping information. Infine, l’informazione è tale per qualcuno, cioè produce un significato o una credenza. Come si vede, c’è una sostanziale concordanza tra la narrazione filosofico-teologica di Gregensen e la narrazione tecnico-matematica degli stessi concetti. Gregersen, a conclusione del saggio, illustra sinteticamente quella conclusione esegetica e teologica che ha preparato in tutte le pagine precedenti del saggio. Discute cioè le interpretazioni cosmologiche cui può condurre una riflessione sulle tradizioni interpretative del Prologo del Vangelo di Giovanni (Gv 1,1-18). Cioè: 1) il Logos come schema di forme; 2) il Logos come schema della vita; 21
miei).
N.H. Gregersen, God, matter, and information, p. 419 (traduzione e corsivo
150
Cinque parole della scienza
3) il Logos come schema di significati, tecnicamente, come Parola. Gregersen svolge un argomento esegetico-storico, contrapponendo l’ambiente platonico a quello stoico, e conclude con un suo tema caratteristico, ovvero che la presenza di Dio nel creato avviene per incarnazione cosmica; sopratutto, ma non solo, nella carne storica di Gesù di Nazaret. Schematicamente, l’unico universo è materia-energia-informazione, che rispettivamente sono immagini del Dio trinitario, PadreFiglio-Spirito.
Tempo
Liberi e responsabili nel nostro tempo Gennaro Cicchese
Tempus fugit, homo bulla «Dove si trova il tempo? Il tempo si trova nelle cose che abbiamo fatto» (W. Kinnebrock, Dove va il tempo che passa)
1. Il tempo nella prospettiva antropologica1 Il “tempo” può essere analizzato in diversi modi e prospettive. Esistono molti saggi qualificati sull’argomento2. L’area di ricerca SEFIR ha già affrontato il tema parlando del futuro3. Aguti scrive: La riflessione filosofica sulla natura del tempo presenta, com’è noto, una sua intrinseca problematicità e perfino, come già S. Agostino ha espresso in forma paradigmatica, una sua aporeticità. Ai già notevoli problemi con cui si sono confrontati gli assunti classici sulla natura del tempo si sono aggiunti, poi, quelli derivati dal confronto con le 1 Gennaro Cicchese, antropologia filosofica ed etica, ISSR “Ecclesia Mater” della Pontificia Università Lateranense. 2 Ecco alcuni titoli di taglio filosofico, fisico, biologico e neuroscientifico: H. Blumenberg, Tempo della vita e tempo del mondo, Il Mulino, Bologna 1996; J.E. McTaggart, L’irrealtà del tempo, Rizzoli, Milano 2006; W. Kinnebrock, Dove va il tempo che passa. Fisica, filosofia e vita quotidiana, Il Mulino, Bologna 2013; S. Klein, Il tempo. La sostanza di cui è fatta la vita, Bollati Boringhieri, Torino 2015; A. Benini, Neurobiologia del tempo, Raffaello Cortina, Milano 2017; C. Borghi, Dagli orologi al tempo. Verso una nuova teoria del tempo, Mimesis, Milano 2018; S. Hawking, Dal big bang ai buchi neri. Breve storia del tempo, la Repubblica, Roma 2018. 3 Cf. A. Aguti, Spunti per una riflessione filosofica sul futuro, in G. Cicchese (ed.), Macchine e futuro. Una sfida per l’uomo, SEFIR-Città Nuova, Roma 2015, pp. 117137.
154
Cinque parole della scienza
teorie scientifiche moderne, in particolare con la teoria della relatività di A. Einstein, dalla quale, a detta del fisico P. Davies, il concetto tradizionale di tempo “ne esce sconvolto”4.
Nella discussione filosofica attuale si usa distinguere due fondamentali concezioni sul tempo, espresse con la terminologia di John McTaggart, un idealista inglese che agli inizi del Novecento sostenne la tesi paradossale dell’irrealtà del tempo5. Aguti sintetizza così: La prima concezione va sotto il nome di “teoria-A” e afferma il carattere “tensionale” del tempo, ovvero che il tempo è composto dalle tre dimensioni del passato, del presente e del futuro, e che esiste un divenire temporale, cioè che le cose vengono all’esistenza in un dato momento per poi scomparire in uno diverso. Questa teoria è definita anche come concezione “dinamica” del tempo. La seconda concezione, nota come “teoria-B”, afferma invece il carattere “atensionale” del tempo, ovvero il fatto che il tempo non è composto da passato, presente e futuro, bensì esiste come una dimensione unitaria dove tutti i momenti del tempo sono ugualmente esistenti e dove la relazione fra di essi è data dalla antecedenza rispetto a, dalla simultaneità con, e dalla posteriorità a. In questa concezione, definita abitualmente come “statica”, la distinzione tra passato, presente e futuro è ritenuta un’illusione psicologica, mentre reale sarebbe soltanto l’esistenza di uno spaziotempo quadridimensionale che esiste come un blocco unitario. Per i sostenitori di una teoria dinamica del tempo gli eventi passati non sono più e quelli futuri non sono ancora, mentre per i sostenitori della teoria statica essi esistono tutti insieme, solo che alcuni esistono prima di altri, simultaneamente ad altri, successivamente ad altri. La scelta fra questi due modelli è considerata oggi come la “questione fondamentale della filosofia del tempo”6.
Ibid., p. 117. Cf. J.E. McTaggart, The Unreality of Time, in «Mind», 17(1908), pp. 457-474; cf. anche Id., L’irrealtà del tempo. Questo libro raccoglie i suoi scritti: «L’irrealtà del tempo», «Il rapporto tra Tempo e Eternità», «Misticismo». Un saggio di L. Cimmino lo completa, illustrando, da McTaggart in poi, gli sviluppi recenti della filosofia del tempo. 6 A. Aguti, Spunti per una riflessione filosofica sul futuro, pp. 132-134. 4 5
Liberi e responsabili nel nostro tempo
155
In questo saggio ci concentreremo sulla prima teoria, cioè sulla valenza antropologica del tempo, fedeli alla concezione occidentale: «Il pensiero dell’Occidente – scrive Gadamer – non ha mai smesso di vedere nell’essere del tempo un problema irrinunciabile e non ha mai pienamente accettato i tentativi di soluzione che consideravano il tempo una semplice apparenza o un’immagine illusoria»7. Perciò facciamo nostra la tesi di Benini: «La realtà del tempo (...) è un’evidenza della vita»8, tesi supportata anche da Ornstein: «Il tempo è una delle rappresentazioni continue, universali e obbligate della vita, una delle filiere primarie di cui è intrecciata la nostra esperienza»9. Il tempo è una dimensione fondamentale della vita e dell’uomo nel suo relazionarsi agli altri. Il “tempo umano”, infatti, nasce e si fa presenza nell’incontro con l’altro. Il filosofo Martin Buber, nel suo libro Ich und Du, scrive: «Solo attraverso il farsi presenza del tu, il presente nasce»10. L’idea del tempo è legata all’idea di presenza. L’incontro è l’atto immediato mediante il quale sorge la presenza. La realtà dell’altro si manifesta con luminosità perché entra nella presenza. Buber collega la presenza forte dell’altro all’esperienza condivisa del tempo vissuto: l’incontro si fa insieme al presente, nel tempo presente. H.G. Gadamer, La concezione del tempo nell’Occidente, in «Il Cannocchiale» (“Tempo e temporalità”), (1981)1-3, p. 34; citato in «Filosofia e teologia», (2000-1), p. 25. La parte monografica della rivista è dedicata a «Tempo, Evento, Eschaton», pp. 9-90. 8 A. Benini, Neurobiologia del tempo, Raffaello Cortina, Milano 2017, p. 91. 9 R.E. Ornstein, On the Experience of Time, Penguin, London 1969, citato in Benini, Neurobiologia del tempo, p. 39. Lo studio di Benini si propone di ricollocare la razionalità scientifica nell’ambito della condizione umana: «La rigorosa disciplina della razionalità della scienza (anche di quella matematica, epitome della razionalità umana) ha i limiti conoscitivi della conditio humana. Il tempo è dunque reale ed è una dimensione essenziale della vita: questo libro descrive studi e prove della sua esistenza» (ibid., p. 17); «Una parte importante e produttiva delle neuroscienze cognitive è impegnata nello studio della neurobiologia del tempo. La complessità dei meccanismi nervosi del senso del tempo è tale che ancora oggi diversi dilemmi fondamentali rimangono oscuri. Nonostante questo, la neurobiologia del tempo è certamente uno dei meccanismi fondamentali della coscienza» (ibid., p. 92). 10 M. Buber, Il principio dialogico e altri saggi, a cura di A. Poma, San Paolo, Cinisello Balsamo 1993, p. 67. 7
156
Cinque parole della scienza
L’incontro attivo crea, con la presenza dell’altro, la realtà del tempo come presente. Questo è vivente e intenso per la compresenza della mia e dell’altrui coscienza. L’indagine sul “tempo” – parola della scienza, ma anche della vita umana concreta – viene qui presa in esame nella prospettiva dell’antropologia filosofica, disciplina che osserva l’uomo nella sua unità e globalità, nella consapevolezza che egli è un essere vivente razionale e relazionale, dotato di intelligenza e volontà e perciò capace di scelte coscienti, libere e responsabili. Il rapporto col tempo verrà focalizzato nell’indagare come l’uomo opera nel mondo contemporaneo (“il nostro tempo”), segnato da complessità e accelerazione. Lo “sguardo antropologico” sarà confortato dal dialogo con la storia e la sociologia, scienze umane che integrano la conoscenza filosofica, offrendole dati e strumenti per un’analisi attenta e puntuale. È dunque in una prospettiva di concretezza che si muove la nostra riflessione, attenta al “mondo umano” costituito dalla persona e dalle sue relazioni, consapevoli che “abitare il tempo” fa parte della vita umana e che, in definitiva, “essere è tempo”11.
2. Le sfide del tempo presente La nostra è un’epoca dinamica, segnata dalla complessità, dall’accelerazione del tempo – con invecchiamento precoce di cose, individui, relazioni umane – e dalla globalizzazione del mondo, unificato dall’economia, dalla tecnologia e dall’avvento della rete informatica12. 11 Questo tema meriterebbe uno sviluppo più ampio, affrontando come la consistenza dell’essere umano derivi proprio dalla sua “temporalizzazione”, cioè il suo essere nel tempo. Qui possiamo solo schizzare qualche suggestione. Non c’è tempo senza uomo, intendendo il tempo vivo della storia: un io che nasce, cresce, vive e muore. Un io la cui identità si costituisce come coscienza di sé e narrazione. Senza tempo non c’è umanità e l’umanità, nel tempo frammentato, rischia di diventare un frammento che si perde e scompare. 12 Cf. M. Mantovani (ed.), Quale globalizzazione? L’«uomo planetario» alle soglie della mondialità, LAS, Roma 2000; U. Beck, Che cos’è la globalizzazione? Rischi e prospettive della società planetaria, Carocci, Roma (1999) 20039; Id., La metamorfosi del mondo, Laterza, Bari-Roma 2016.
Liberi e responsabili nel nostro tempo
157
Nell’incipit del suo libro sulla metamorfosi del mondo Ulrich Beck scrive: «Il mondo è fuori dei cardini. Sono molti a crederlo. Vaghiamo senza meta, confusi, discutendo pro e contro questo e quello. Su una frase la maggioranza delle persone si trova d’accordo, al di là di tutti gli antagonismi, e in tutti i continenti: “Non capisco più il mondo”»13. Secondo il sociologo tedesco il globo è attraversato da un vero e proprio processo di metamorfosi: non è cambiamento sociale, non è trasformazione, non è evoluzione, non è rivoluzione, non è crisi14. È difficile infatti concettualizzare il tumulto del mondo15 e ancor più difficile rendersi conto che nella parola “mondo” siamo sempre più coinvolti noi stessi, in prima persona: La parola “mondo”, strettamente legata al termine “umanità”. Che significa? (...) Basta una riflessione anche frettolosa per rendersi conto che “il mondo” e “la nostra vita” non sono più entità reciprocamente estranee, che tra loro si è formato un legame di “coabitazione” – e dico “coabitazione” perché non c’è nessun documento ufficiale (rilasciato dalla scienza o dallo Stato) che ratifichi questa unione globale a vita16.
La metamorfosi è una modalità di cambiamento della natura dell’esistenza umana. Chiama in causa il nostro modo di essere nel mondo: Il “cambiamento” concentra l’attenzione su una caratteristica del futuro nella modernità – la trasformazione permanente, mentre i concetti di base e le certezze su cui poggiano rimangono costanti. La metamorfosi, invece, destabilizza proprio queste certezze della società moderna. Sposta l’attenzione sull’“essere nel mondo” e sul “vedere il U. Beck, La metamorfosi del mondo, p. XIII. Cf. ibid., p. 5. 15 «La Prefazione alla seconda edizione della Scienza della logica, composta poco prima di morire, si conclude – in quella che è probabilmente l’ultima frase scritta da Hegel – “nel dubbio che il rumoroso tumulto dei nostri giorni e l’assordante loquacità dell’immaginazione, che trae vanità dal limitarsi ad esso, lasci ancora campo all’interesse per la serena calma della conoscenza semplicemente pensante” (Logica I, 22)» (citato in V. Mancuso, Hegel teologo e l’imperdonabile assenza del Principe di questo mondo, Garzanti, Milano 2018, p. 41). 16 Cf. U. Beck, La metamorfosi del mondo, p. 7. 13 14
158
Cinque parole della scienza
mondo”: su eventi e processi non intenzionali, che passano generalmente inosservati e si affermano, al di là della sfera politica e della democrazia, come effetti collaterali di una radicale modernizzazione tecnica ed economica. Questi fenomeni generano uno choc di fondo, una svolta che fa saltare quelle che fino a quel momento erano le costanti antropologiche della nostra vita e della nostra concezione del mondo. La “metamorfosi”, così intesa, significa semplicemente che ciò che fino a ieri era impensabile oggi è reale e possibile17.
Se le cose stanno così, possiamo sperare anche in una “metamorfosi della metamorfosi” o in una “nuova metamorfosi”? Un fatto è certo: con l’aumento delle possibilità di crescita, benessere e scambio sono aumentati anche i rischi. Un desiderio di sperimentazione, sul piano scientifico e antropologico (ibridazione, gender, transgender), minaccia la sopravvivenza umana con l’avvento del “vuoto” e della “disumanizzazione”18. Oggi è in gioco il “principio di umanità” e la sua legittimità è sempre più minacciata19. Se ne pagano le conseguenze a tutti i livelli. Da quello psicologico, che colpisce indistintamente tutti, in particolare le personalità più fragili20, a quello educativo, sociale e istituzionale21. Bisogna affrontare le nuove sfide e porvi rimedio dal punto di vista pratico e politico22, ma anche comunicativo, relazionale e filo Ibid., pp. XIII-XIV. Cf. G. Lipovetsky, L’ère du vide. Essais sur l’individualisme contemporain, Gallimard, Paris 1983 (tr. it. L’era del vuoto. Saggi sull’individualismo contemporaneo, Luni, Milano 2013); V.M. Bonito – N. Novello (edd.), Età dell’inumano, Carocci, Roma 2005; R. Redeker, Il disumano. Internet, la scuola, l’uomo, Città Aperta, Troina (EN) 2005. 19 Cf. J.C. Guillebaud, Le principe d’humanité, Paris, Seuil, 2001; F. Fukuyama, La fine della storia e l’ultimo uomo, BUR, Milano 2003; Id., L’uomo oltre l’uomo. Le conseguenze della rivoluzione biotecnologica, Mondadori, Milano 2002; R. Brague, Le propre de l’homme. Sur une légitimité menacée, Flammarion, Paris 2013. 20 Cf. T. Cantelmi, Tecnoliquidità. La psicologia ai tempi di Internet, San Paolo, Cinisello Balsamo 2013; C. D’Urbano, La pietra della follia. Nuove frontiere della psicologia contemporanea. Dialogando con Tonino Cantelmi, Città Nuova, Roma 2016. 21 Cf. La sfida educativa. Rapporto-proposta sull’educazione, a cura del Comitato per il Progetto culturale della Conferenza Episcopale Italiana, Roma 2009; I. Sanna (ed.), Educare nella postmodernità, Studium, Roma 2013; G. Reale, Salvare la scuola nell’era digitale, La Scuola, Brescia 2013. 22 Cf. R. Mancini, Senso e futuro della politica. Dalla globalizzazione a un mondo comune, Cittadella, Assisi 2002; E. Morin – A.B. Kern, Terra-Patria, Raffaello Cor17 18
Liberi e responsabili nel nostro tempo
159
sofico23. Sebbene la tecnologia possa facilitare la sua esistenza, l’uomo non ha semplificato la vita né si è semplificato24, è in competizione con le macchine e rischia il suo futuro25. Non siamo né pessimisti né laudatores temporis acti. Intendiamo solo essere realisti, consapevoli che la conoscenza (scientifica, storica, antropologica ecc.) è sempre positiva e necessaria all’essere umano per aumentare consapevolezza, progettualità e azione responsabile.
3. La relazione dell’uomo con il tempo La nostra riflessione, nella prospettiva dell’antropologia filosofica sollecita e rinnova un antico interrogativo: qual è il rapporto dell’uomo con il tempo? E si concentra sull’uomo contemporaneo. Il dinamismo di ricerca ingaggia la persona nella sua totalità e la interpella nella sua libertà. Un’antropologia “classica”, capace di far interagire intelligenza e volontà, passioni e sentimenti – al fine di raggiungere la libertà – potrebbe ben supportare questo intento e raggiungere lo scopo. Lo potrebbe se il cammino di vita e di pensiero fossero oggi più lineari e meno problematici, ma le cose non stanno così. Il cammino dell’essere umano è oggi fortemente segnato da una deriva istintivista e relativista. Siamo passati dal cogito ergo sum al sentio ergo sum e al consumo ergo sum: si logorano idee e sentimenti. La “struttura umana” è rimessa in discussione da cambiamenti e condizionamenti esterni e interni. Viviamo nel conflitto tina, Milano 1994; E. Morin, I sette saperi necessari all’educazione del futuro, Raffaello Cortina, Milano 2001; Id., Cultura e barbarie europee, Raffaello Cortina, Milano 2006. 23 Lo aveva già intuito G. Vattimo nel saggio La società trasparente (nuova ed. accresciuta, Garzanti, Milano 2000). Tuttavia quella “trasparenza”, che la società della comunicazione sembrava prospettare e realizzare in modo globale, è solo apparentemente “acquisita”. 24 J.M. Besnier, L’homme simplifié. Le syndrome de la touche étoile, Fayard, Paris 2012 (tr. it. L’uomo semplificato, Vita e Pensiero, Milano 2013). 25 Cf. G. Triani, Il futuro è adesso. Società mobile e istantocrazia, San Paolo, Cinisello Balsamo 2013; P. Larrey (ed.), Futuro ignoto. Conversazioni nella nuova era digitale, IF Press, Roma 2014; Id., Dove inizia il futuro. Conversazioni su cosa ci aspetta con chi sta lavorando al nostro domani, Mondadori, Milano 2018; G. Cicchese (ed.), Macchine e futuro. Una sfida per l’uomo, SEFIR-Città Nuova, Roma 2015.
160
Cinque parole della scienza
delle fedi e delle interpretazioni ma è il rapporto col tempo che è decisamente difficile, se non disastroso. Ciò rende molto problematico il tema della verità e i suoi criteri in un’epoca non a caso definita della “post-verità”26 e in cui la capacità di discernimento, scelta e applicazione della libertà sono divenuti enormemente impegnativi27. L’appropriazione del proprio tempo come tempo della scelta e della libertà non è un dato scontato quanto piuttosto un punto d’arrivo, una conquista umana che esige umiltà e pazienza, onestà intellettuale e disciplina. Vorremmo sondarne la dinamica in un contesto antropologico cangiante, vissuto problematicamente in prima persona. L’essere umano è sotto pressione, sedotto da fascinose “sirene tecnologiche”, esposto a condizionamenti mondani che costituiscono i percorsi caratteristici di questo tempo e toccano soprattutto le fasce più giovani: Il pluralismo dei modelli culturali, la frammentazione del vissuto, la complessità della comprensione di sé e del mondo, la pluralità o divergenza dei valori sperimentati, il conflitto ermeneutico, il condizionamento del mercato-consumo globalizzato, la centralità del corpo, la cultura del piacere e del benessere, la scarsa cura dei sentimenti e delle emozioni, la complicazione dei sistemi relazionali e il contatto esperienziale con la cultura della qualità della vita. L’adolescente e il giovane, a volte, sperimentano lo smarrimento nella concezione di un tempo fuggente e liquido che impedisce il legame con l’ancora del-
Nella sua valenza teorica e pratica la filosofia non può tacere: deve reagire a favore dell’uomo «come colui che cerca la verità» (Fides et ratio, 28). «La stessa capacità di cercare la verità e di porre domande implica già una prima risposta. L’uomo non inizierebbe a cercare ciò che ignorasse del tutto o stimasse assolutamente irraggiungibile. Solo la prospettiva di poter arrivare ad una risposta può indurlo a muovere il primo passo. Di fatto, proprio questo è ciò che normalmente accade nella ricerca scientifica» (ibid., 29). Cf. G. Cicchese, Persona, Verità, Relazione, Postfazione a P. Groccia, L’antropologia personalista di Nunzio Galantino, Cantagalli, Siena 2017, pp. 299-306. 27 Cf. G. Crea, Sfida educativa e discernimento come progresso di crescita. I giovani come interlocutori attivi per una formazione progettuale, in V. Orlando (ed.), I giovani, la fede e il discernimento vocazionale. Contributi di riflessione sulla realtà dei giovani oggi, LAS, Roma 2018, pp. 143-166; M.O. LLanos, Giovani, vocazione e realizzazione personale, in V. Orlando (ed.), I giovani, la fede e il discernimento vocazionale, pp. 184-208. 26
Liberi e responsabili nel nostro tempo
161
la memoria al proprio passato, e una prospettiva di “futuro” e di progettualità28.
Accelerazione e complessità, dicevamo all’inizio, sono due caratteristiche della società contemporanea in cui il fattore tempo è determinante. Ciò comporta problemi e rischi ben sintetizzati in un recente libro di G. Ruggeri sulla formazione umana: La prima conseguenza derivante dalla complessità è lo spezzettamento del tempo in tanti frammenti, ognuno autosufficiente in sé. Ne scaturisce uno scenario umano nuovo nel quale imparare a muoversi. L’idea del tempo vissuto come un’unica storia è ormai labile; di fatto, la persona si ritrova a vivere più storie di vita. Si è come alla presenza di infiniti tasselli nel mosaico quotidiano, la persona avverte la pesantezza e la fatica di accostarli l’uno accanto all’altro cercandone una connessione che abbia senso. Accostamento alquanto difficile. Questa frammentazione del tempo porta con sé, inoltre, il rischio di azzerare da un lato la memoria e dall’altro il desiderio di futuro. È come se le parole “ieri, oggi, domani” oppure “passato, presente, futuro” fossero ridotte a una formulazione moderna dell’hic et nunc: ora, adesso. L’accelerazione della socialità digitalizzata moltiplica un pullulare di momenti presenti, di istantanee vissute come assolute, eterne, atomi infiniti di emozioni slegati da ciò che precede e da ciò che segue29.
Le conseguenze umane – o disumane – di quanto sta accadendo sono assai evidenti: La pressione esercitata sul presente tende quasi ad azzerare la memoria (nel bene e nel male) e ad annullare la profezia, il desiderio sul domani, il sogno sul futuro. È il risultato di una visione del tempo considerato come un bene di consumo al pari di oggetti, beni materiali, prodotti acquistabili. A soffrirne e a risentirne, ovviamente, è un sentimento del tempo visto – e vissuto – come dono, accoglienza gratuita, spazio sacro e di gratitudine, di servizio, di relazione con l’altro senza secondi fini; di un tempo nel quale vivere e nel quale riposarsi Ibid., p. 184. G. Ruggieri, Prete in Clergyphone. Discernimento e formazione sacerdotale nelle relazioni digitali, prefazione di Pier Cesare Rivoltella, Il pozzo di Giacobbe, Trapani 2018, pp. 11-12. 28 29
162
Cinque parole della scienza
con naturalezza, sensatezza, pienezza. La realtà attuale, invece, restituisce un’immagine diversa: il tempo pare impazzito e – come alcuni filosofi contemporanei affermano – questo è un tempo esploso, dove la discontinuità è la normalità30.
Esplosione del tempo e discontinuità evidenziano bene quanto sta accadendo. Tutto è così velocizzato al punto che neanche i vecchi termini bastano più. Perciò si è creato un neologismo, perché l’accelerazione della storia, delle relazioni umane e del dialogo con gli altri è così veloce che necessita di una sveltissima adeguazione alla realtà cangiante, cioè di una “rapidazione”31.
4. L’avvento del presentismo Riflettendo sul rapporto tra l’essere umano e il tempo ci siamo imbattuti in due libri che affrontano questo tema sul versante antropologico. Il primo s’intitola Prigionieri del presente32. Il volume si presenta così: «P come Presente. Quell’eterno presente che oggi ci schiaccia e ci rende prigionieri. Come singole persone, come comunità e come società». È il primo punto su cui riflettere: una vita appiattita sul presente, schiacciata e senza prospettive, senza orizzonti, senza futuro, racchiusa nel “qui ed ora” e nel motto consumistico “tutto e subito”! Commentiamo qualche pagina, per rispondere
Ibid., p. 12. Termine utilizzato da papa Francesco con gli studenti nella sua visita all’Università di Roma Tre (30 novembre 2018), questo neologismo indica la progressione geometrica nel tempo, come accade per la comunicazione «sempre più veloce man mano che si avvicina, come la teoria della legge gravitazionale». «Questa rapidazione non mi tolga la libertà del dialogo». Il punto è «abituarsi al dialogo a questa velocità». «Tante volte una comunicazione così rapida, leggera, può diventare liquida, senza consistenza». «Dobbiamo trasformare questa liquidità in concretezza. La parola chiave per me è concretezza, contro la liquidità» (discorso disponibile all’indirizzo: https:// bit.ly/2wTYOZa). 32 Cf. G. De Rita – A. Galdo, Prigionieri del presente. Come uscire dalla trappola della modernità, Einaudi, Torino 2018. In particolare i primi due capitoli: «Il tempo liquido e il linguaggio degradato», pp. 3-19; «La rivoluzione del presentismo digitale», pp. 20-46. 30 31
Liberi e responsabili nel nostro tempo
163
all’interrogativo: qual è il rapporto tra tempo e uomo contemporaneo? Nell’introduzione si legge: L’uomo occidentale è in piena crisi antropologica. Non riesce più a governare la modernità e ha smarrito la sua bussola più preziosa: il rapporto con il tempo lineare, l’unico in grado di preservare la nostra identità. Da qui la sottomissione a un eterno presente, il tempo circolare, frantumato in un’incessante frequenza di attimi. Una forma di nuova schiavitù33.
Come stanno le cose? L’uomo contemporaneo sarebbe in crisi, perché avrebbe smarrito il suo rapporto con il tempo lineare, cioè quello che ci permette un percorso “in linea” con la nostra identità: un crescere, un formarsi, un maturarsi che porta frutto lentamente e ci conduce dall’infanzia ingenua alla maturità adulta e consapevole. È la tesi del libro, illustrata con vari esempi. Ma c’è di più. Gli autori ci offrono un’importante chiave di lettura concentrando l’attenzione sul passaggio dalla dimensione lineare a quella circolare del tempo (un “tempo snaturato”) che genera un individuo autocentrato, debole, “rattrappito sull’io” nel “culto del narcisismo”, schiavo del presentismo: Il tempo è per sua natura lineare, ha una continuità che dalle radici del passato porta fino ai sogni del futuro. Ridurlo a una dimensione circolare significa snaturarlo, privarlo di significato. E significa non camminare più nella storia, ma riuscire solo a zoppicare nel presente. Un senso di caos ci pervade. Siamo deboli, fragili, aggrappati all’inseguimento degli istanti, uno dietro l’altro, che condizionano i nostri stili di vita, le categorie del produrre e del consumare, la dimensione civica e la più intima ricerca del sacro. I danni del presentismo, nella ricostruzione che ne facciamo in questo libro, sono trasversali e spaziano dalla vita privata alla sfera pubblica. Il tempo snaturato ci induce alla pressione della fretta, considerata necessaria e inevitabile: più il tempo si sbriciola, più la nostra identità ripiega, rattrappisce nell’Io, piccolo e solo Io, e si barrica nel culto del narcisismo. La tecnologia, declinata con le categorie del tempo presente e con una velocità alla quale non eravamo mai stati abituati, detta l’agenda della contemporaneità. Ibid., p. VII.
33
164
Cinque parole della scienza
Domina e ci domina. Al centro del suo pervasivo sistema di comando l’uomo è solo, nell’illusione che l’Io utente possa sentirsi appagato da una conoscenza on demand, una risposta pronta per ogni quesito. La conoscenza assolutista di Internet si riduce a una continua frammentazione del sapere, priva di un’idea unitaria del mondo e della vita, e fondata su una somma di opinioni emotive che disorientano, invece di indirizzare verso il pensiero razionale34.
Dominato dal tempo presente (il vero assoluto della sua esistenza) l’essere umano oggi si indirizza al “mondo virtuale” (Internet) alla ricerca di risposte e di soluzioni («una risposta per ogni quesito») cercando forse anche una vita alternativa (una second life) migliore di quella che si vive nel mondo concreto: una vita che lo priva di un corpo vivente reale (fragile, modesto) per concedergli un corpo vivente virtuale (forte, insuperabile), un avatar nel mondo della connessione e della comunicazione globale attraverso il quale egli può collegarsi, navigare, sognare, esprimersi. Questa vita, in cui il reale si mescola e confonde col virtuale, in una ibridazione continua nel qui e ora della connessione, assume la forma di un eterno presente che ci assedia, ci imprigiona, ci domina: Il presente ci assedia. Ne siamo ormai prigionieri, con le mani in segno di resa, incondizionata, visto che con questa capitolazione ci rassegniamo a stravolgere e a trasformare l’idea stessa del tempo. La sua percezione e il suo uso. Il tempo è profondità e pienezza: avanza e arretra continuamente e solo in questo percorso lungo, in questo andare avanti e indietro, esprime la sua natura. Un tempo senza memoria (passato) e senza slanci (futuro) diventa liquido, e poi evapora incastrato nell’affanno dell’attimo breve, brevissimo (presente). Sfumano le radici, solide ancore durante la navigazione della vita, e si appannano le aspettative, i sogni, le energie che fanno davvero crescere, non solo in senso anagrafico. Nella prigione del tempo snaturato, a un’unica dimensione, la civiltà occidentale deve misurarsi con un nuovo assioma: tutto è presente, esclusivamente presente35.
Ibid., pp. VII-VIII. Ibid., p. 3.
34 35
Liberi e responsabili nel nostro tempo
165
Questo assioma è anche la causa di molti dei nostri mali: «Siamo diventati schiavi del presente e, per non riconoscerlo (...), abbiamo brevettato un alibi perfetto nel solco di una modernità appiattita sulla velocità. La fretta necessaria. E pertanto inevitabile»36. Di qui le nostre tipiche conversazioni quotidiane: “Come stai”? “Non male, ma sempre di corsa…”. Il vero lusso oggi non è il denaro – lo sanno anche i ricchi – ma il tempo (che, in ogni caso, essi usano sempre e comunque per accumularlo!). Eppure le chiavi per evadere dalla prigione del presente le abbiamo nelle nostre mani, nella misura in cui recuperiamo le radici della memoria e in cui cerchiamo un’apertura verso il futuro. Ciò accade se siamo capaci di fermarci e fare pausa: «Il tempo, per tornare lungo e riprendere la sua natura lineare, ha bisogno dell’attesa, e quindi di un ingresso lento nella realtà»37. I testi fin qui riportati fanno il punto su una situazione umana e sociale degradata, con conseguenze terribili anche sull’economia e sulla politica. Nella prima, il capitale assume sempre più la priorità su tutto il resto, annichilendo persone e relazioni; nella seconda, l’apparenza e l’inganno la fanno da padroni, insieme a «una quotidiana sovrapposizione di slogan, di proclami, di insulti. Una comunicazione tutta giocata sull’efficacia dell’attimo, non rendendo mai conto di quanto si è detto ieri e non avendo alcun interesse per ciò che potrebbe accadere domani»38. Il nostro destino è, in un certo senso, condizionato e gli autori ce ne svelano la causa: «Il cambiamento antropologico, prima ancora che sociale, economico e politico, ha segnato la sconfitta dell’umanesimo, la fonte della civiltà occidentale»39. Ciò ha inciso radicalmente sulla condizione umana40. Ma è la rivoluzione elettronica che ha creato nuove e mutevoli condizioni antropologiche e so Ibid. Ibid., p. 7. 38 Ibid., p. IX. 39 Ibid. 40 Cf. M. Marassi (ed.), Progetto uomo, L’interpretazione dell’essere umano nella storia del pensiero, Meltemi, Milano 2018 (in particolare l’introduzione di Marassi, pp. 11-22). Ci permettiamo di rimandare a G. Cicchese – G. Chimirri, Persona al centro. Manuale di antropologia filosofica e lineamenti di etica fondamentale, Mimesis, Milano 2016, pp. 425-429 («La rivoluzione neuroscientifica, il postumano, il transumano»). 36 37
166
Cinque parole della scienza
ciali da tener presenti per interpretare il nostro tempo. La sociologa Costa scrive: A seguito della rivoluzione digitale, proprio nel mondo ormai unico e nell’attuale cultura globale, si sta progressivamente sostituendo allo spazio sociale concreto un cyberspazio astratto, che modifica le dinamiche sociali, le percezioni individuali e obbliga a riadattare, senza sosta, le categorie interpretative dello stesso vissuto ordinario, in modo particolare di quello giovanile. Un cyberspazio connotato, in prima istanza, da una “compressione” delle tradizionali categorie di spaziotempo e, di conseguenza, da una singolare omeostasi tra il mondo online e il mondo offline41.
Il secondo libro che vorremmo portare all’attenzione si intitola Babel ed è un dialogo “alto” tra il giornalista Ezio Mauro e il sociologo Zygmunt Bauman, il teorico del “mondo liquido”, recentemente scomparso42. Dopo averci introdotto attraverso i primi due capitoli nell’ambiente socio-antropologico contemporaneo («Dentro uno spazio smaterializzato»; «Dentro uno spazio sociale mutante»), il volume ci offre un terzo capitolo dal titolo molto significativo: «Solitari interconnessi»43. Appellativo valido per l’uomo contemporaneo in generale e ancor più per il mondo giovanile. Ezio Mauro ricorda che siamo davanti a un “nodo” che riguarda «la questione della responsabilità». Infatti, dinanzi alle ampie possibilità e varietà di scelta offerte dalle soluzioni tecnologiche e informatiche, emerge il rischio di deresponsabilizzazione umana e sociale: 41 Cf. C. Costa, I giovani nel mondo di oggi, in «La sapienza della croce», 32(20172), pp. 235-254; Z. Bauman, La vita tra reale e irreale, Egea, San Giuliano Milanese 2014; G. Granieri, Blog generation, Laterza, Bari 2009; G. Riva, I social network, Il Mulino, Bologna (2010) 20162; A. Benini, Neurobiologia del tempo, pp. 53-67. 42 Cf. Z. Bauman – E. Mauro, Babel, Laterza, Bari 2015. 43 Alla fine del secondo capitolo Bauman scrive: «Con i legami interumani che quasi si dissolvono, con l’assenza stridente e ostinata di un agente collettivo capace di coagularsi in soggetto collettivo di un’azione prolungata, il cambiamento in arrivo sarà prodotto da masse di “solitari interconnessi”: “agenti solitari in costante contatto tra loro”. Quello che sta accadendo oggi, quello cui stiamo assistendo, e alla cui peculiarità dobbiamo adattarci cercando di tessere di nuovo le reti concettuali in cui tentiamo di afferrare le nostre realtà socio-politico-economico-fisiche, non è solo un’altra svolta nella storia, bensì un modo nuovo in cui la storia viene fatta» (ibid., p. 78).
Liberi e responsabili nel nostro tempo
167
Mi viene da dire – scrive Mauro – che la grande offerta in cui siamo immersi ha la capacità tentatrice e insidiosa di de-responsabilizzarci. Nell’età di Google e di Wikipedia noi chiediamo alla tecnica non soltanto una soluzione ma – spesso senza accorgercene – una selezione. A saltare nel nostro processo cognitivo è proprio la selezione, cioè la capacità di capire, scartare, definire, affinare e, infine, scegliere. È proprio questo sgravio ciò che rende seducente la tecnologia. Non vediamo più il processo, non vediamo il concetto, abbagliati dalla velocità di soluzione. Ma in quello spazio breve di velocità selettiva invisibile – e benedetta – se ne va in realtà un pezzo della nostra responsabilità, o almeno, un pezzo del suo meccanismo, formato dalla capacità di analizzare, dall’intelligenza nel discernere, dalla volontà di optare per una scelta. Se ne va, dunque un pezzo della struttura che dà forma alla pubblica opinione44.
Abbiamo evidenziato alcune frasi che sottolineano in modo eccellente i problemi connessi con la scelta. Una scelta “libera” presuppone un processo di discernimento (capire, scartare, definire, affinare e infine scegliere), che implica un percorso umano di crescita e di auto-comprensione (conosci te stesso, domina te stesso, dona te stesso). Ciò presuppone anche un tempo (lineare), una durata, una capacità di attesa e una modalità di gestire il camminare piuttosto che il correre. L’idea del cammino – rispetto alla corsa – ci sembra pertinente e istruttiva. Viviamo in una società dell’affanno perché siamo abituati a correre e a fare le cose in fretta, al punto che sono le cose da fare a determinare le nostre scelte e non noi stessi. Rischiamo di essere sempre più incapaci di discernere e di stabilire delle priorità. Siamo così travolti dal mare magnum di iniziative che ci coinvolgono in prima persona, o siamo costretti a subire, al punto che quei condizionamenti esteriori diventano interiori, influendo sul nostro modo di pensare, operare e scegliere: “Si fa così”, “fanno tutti così”, “devi fare così”, “perché non puoi fare così?”. Bisogna essere consapevoli che la “libertà di scelta” non è tutto. La libertà/da e la libertà/di sono solo il primo passo verso il compimento: una libertà/per,
44
Ibid., p. 79. Corsivo nostro.
168
Cinque parole della scienza
cioè una volontà intelligente e consapevole di tendere verso il proprio bene e il Bene45! Dobbiamo ritrovare un modo di operare che sappia mediare inerzia/pigrizia e attivismo/iperattività. È la modalità del “ritmo”. Ecco la parola: ritrovare il giusto ritmo. Attesa, ritmo, disciplina (parola che fa paura, ma tanto necessaria per raggiungere risultati positivi: «Il genio è uno per cento talento e novantanove per cento disciplina!»). Dialogando con Bauman sul tema delle scelte e della responsabilità, Ezio Mauro argomenta: Tu dici che oggi la responsabilità è vissuta come un peso perché porta con sé l’obbligo di fare delle scelte, giudicare, prendere posizione. Eppure la responsabilità era un concetto della modernità: l’uomo diventa interamente padrone delle sue scelte, e può perciò essere chiamato a risponderne senza filtri e inganni. Significa la piena titolarità per il soggetto e l’obbligazione nei confronti degli altri, è parte della garanzie che ci scambiamo nella nostra vita di relazione46.
Che cosa succede se viene a mancare la responsabilità, questo puntello morale che garantisce un limite al potere politico e richiama il cittadino ai suoi obblighi: doveri, non solo diritti? Non sentire responsabilità – scrive Mauro – vuol dire due cose: non pretendere soggettività e non riconoscere vincoli. Probabilmente è il nuovo modo per l’uomo d’oggi di sentirsi libero nella dimensione ristretta della libertà contemporanea. Non nella pienezza della facoltà e con tutti i diritti attivi. Ma al contrario libero perché liberato, svuotato della socialità e dei suoi codici, sgravato da obblighi e da carichi doveristici e impegnativi, solo in mezzo alla connettività e senza collettività, come tu dici citando Serres, “ripulito” persino dai tenui vincoli che creavano le vecchie appartenenze (...). Mi viene da pensare che questo nuovo tipo di essere umano è fortemente esposto alla manipolazione, forse al comando, probabilmente ad un consenso senza ingaggio, freddo e saltuario, diffidente e gregario, tipico di una politi-
Cf. G. Cicchese – G. Chimirri, Persona al centro, pp. 292-294. Z. Bauman – E. Mauro, Babel, pp. 79-80.
45 46
Liberi e responsabili nel nostro tempo
169
ca tiepida, a bassa frequenza, come è l’attuale, quasi confusa con l’amministrazione47.
Bisogna prendere atto che qualcosa di importante è accaduto, anche se in maniera nascosta e silenziosa: «Senza che ce ne siamo accorti, – scrive Michel Serres – un nuovo tipo di essere umano è nato nel breve arco di tempo che ci separa dagli anni Settanta»48. L’uomo passato attraverso questo processo «si è raffinato e reso ottuso, secondo le opportunità e i rischi, si è selezionato e modellato in base alla richiesta sociale o alle possibilità che gli erano concesse»49 fino a diventare, appunto, un «solitario interconnesso». Uno studioso del rapporto tra comunicazione e potere – Manuel Castells – afferma la stessa idea con termini diversi, ma forse ancora più incisivi, ritenendo che una buona parte della nostra presenza in rete sia più vicina al cosiddetto «autismo elettronico» che a una vera e propria comunicazione. Infatti, il nuovo modo di comunicare in rete è sicuramente comunicazione di massa, in quanto potenzialmente indirizzato a un pubblico globale, «ma è contemporaneamente autocomunicazione perché la produzione del messaggio è autogenerata, la definizione dei potenziali destinatari è autodiretta, e il reperimento di specifici messaggi o contenuti dal World Wide Web è autoselezionato»50. Come si vede dal linguaggio stesso utilizzato dal nostro studioso l’auto-centratezza è un elemento decisivo che può essere ben accostato agli esiti narcisistici della comunicazione e dell’uso dell’immagine oggi, sintetizzabile con la moda e l’esempio del selfie: la mia immagine, prima di tutto, e poi il mondo “tutto intorno a me” secondo le pubblicità ben studiate51. Ibid., p. 80. M. Serres, Petite Poucette, Le Pommier, Paris 2012 (tr. it. Non è un mondo per vecchi. Perché i ragazzi rivoluzionano il sapere, Bollati Boringhieri, Torino 2013); citato in Z. Bauman – E. Mauro, Babel, p. 77. 49 Ibid., p. 81. 50 Cf. M. Castells, Communication, Power and Counter-power in the Network Society, in «International Journal of Communication», (2007-1), pp. 238-266 (tr. it. citata dal sito https://bit.ly/2wSoN3k). 51 Pensiamo, ad esempio, alla campagna Vodafone 2003-2004 e poi a quella “Io e il mio magnum” – il noto gelato. 47 48
170
Cinque parole della scienza
Ciò che è naïf e spontaneo – scrive Mauro – esce dai canoni tradizionali, suona più autentico, vergine, più capace di recepire l’impronta diretta di ciò che testimonia senza i filtri del mestiere. È l’essere (io direi: l’esserci) che prevale sul divenire, come spiega ancora Castells»52. Questa nuova forma che Castells chiama «autocomunicazione di massa» ha cambiato i giornali in organizzazioni retificate e ha trasformato la televisione, aumentando la preferenza per i programmi a richiesta (on demand). In questo processo si guadagna in linearità e velocità: i due comandamenti della rete. Se posso chiedere alla rete non ho bisogno di intermediari. Si può fare a meno dell’esperto, della mediazione professionale: «Ma se salta la mediazione, salta anche l’organizzazione53.
L’informazione professionale, infatti, – spiega Mauro – non riproduce meccanicamente un fatto, ma lo ricrea elaborandolo in un contesto più ampio che lo inquadra, lo riordina e contribuisce a spiegarlo. Questa organizzazione che ricostruisce i fatti gerarchizzandoli in un ordine coerente e intelligente è un elemento della conoscenza. Ma soprattutto, prima di tutto, è un elemento dell’informazione. E invece sembra che la nuova “mass self communication” possa farne a meno, possa anzi superare il tutto, scartandolo. Questa è la conseguenza inevitabile di un’invenzione del tempo in Rete che supera il tempo biologico – quello sociale e disciplinato del taylorismo – per arrivare a quello che Castells chiama «tempo acrono», che è il tempo «del “qui e ora”, privo di sequenze e di cicli», un web-tempo che «non ha passato né futuro, nemmeno un passato prossimo. È la cancellazione della sequenza e quindi del tempo»54. Questo tempo “a-crono” o “web-tempo” trasforma totalmente il rapporto con il tempo reale e quindi con l’esperienza, con la capacità di conoscere e di interpretare: È chiaro che in questo nuovo rapporto con il tempo perde valore ciò che nel tempo si è costruito e che al tempo è debitore, come l’esperienza, la competenza, la conoscenza. Se tutto è contemporaneo, conta solo l’immediato, non ciò che si è accumulato, e anche la memoria viene Z. Bauman – E. Mauro, Babel, p. 82. Ibid. 54 Ibid., p. 83. Corsivo nostro. 52 53
Liberi e responsabili nel nostro tempo
171
spesa come nostalgia da rivivere, come vintage da acquistare o consumare, non come punto di riferimento o di confronto55.
Tutto ciò pesa sulla visione antropologica e condiziona fortemente la formazione delle coscienze, soprattutto sulla capacità di relazionarsi in modo equilibrato con la realtà: È evidente che tutto questo ha conseguenze importanti sulla formazione di una coscienza del reale che vada oltre me stesso e il perimetro misurabile della mia esperienza diretta (...). Qui e ora, l’impressione prende il posto dell’opinione. Diventa qualcosa di percepito, ma non elaborato perché non c’è tempo, non organizzato perché non c’è modo. Una suggestione, la realtà che imprime un suo segno, certo, ma fuori da un contesto e da una cornice. Il giudizio diventa una sensazione. Immediata, magari. Ma non durevole, non costitutiva di un’identità culturale, di una posizione a cui far riferimento. Il giudizio è un processo, la sensazione un attimo. Il giudizio è mio, autonomo, scelto, la sensazione è quasi involontaria, incontrollata. Quanto all’opinione pubblica, un insieme di impressioni individuali, una somma incoerente di sensazioni personali non bastano a costituirla. Avevamo detto che siamo senza “pubblico”: scopriamo di essere anche senza opinione56.
Se applichiamo queste informazioni e queste indicazioni al nostro tema – liberi e responsabili nel nostro tempo – ci rendiamo conto che il condizionamento del contesto, oltre che quello soggettivo, influenza decisamente il risultato di una scelta che voglia definirsi libera. È ancora Ezio Mauro che ci stimola con una sua riflessione: La moderna mela che il serpente ci offre è proprio questa: la soluzione che supera la decisione e la assorbe, perché quasi la contiene in sé. Il meccanismo per cui “se posso fare lo faccio” in realtà prevede ancora una riserva minima e arrendevole di responsabilità. Sono io che decido, sia pure sullo scivolo veloce che mi fa intravedere l’esito risolto prima ancora del problema e delle sue implicazioni politiche, morali, 55 56
Ibid., pp. 83-84. Corsivo nostro. Ibid., p. 84. Corsivo nostro.
172
Cinque parole della scienza
di relazione. Ma c’è un passaggio in più: la mediazione della tecnologia, dunque della modernità e della sua seduzione implicita, del suo prestigio. Non sei tu a decidere che puoi farlo. È un’autorità terza – la tecnica – che scavando nel futuro sa prevederlo e governarlo, lo anticipa, lo modella, lo incrocia con le tue necessità e le tue aspirazioni, trasforma l’insieme in oggetti e prodotti esteticamente capaci di dare forma all’epoca che viviamo, e soprattutto funziona da garanzia. È come se la tecnologia pretendesse di diventare tout court cultura, addirittura politica (...). È una nuova moralità autonoma. È come se pensassimo: se la scienza può farlo, allora è giusto farlo. Se la tecnologia lo ha fatto, è il progresso che dice di farlo. Io sono de-responsabilizzato e per di più definitivamente autorizzato. Tutto avviene all’esterno di me57.
Prendiamo, ad esempio, il rapporto con la scienza e con le sue raffinate ed efficaci applicazioni tecnologiche, al punto che oggi quest’ultima domina la prima. Se ieri aveva un certo valore e resisteva l’affermazione: «La scienza non pensa»58, oggi invece sembra avere più valore l’affermazione: «La scienza (o piuttosto la sua deriva tecnologica, peraltro potente e agguerrita) pensa e pensa per noi». Dunque «la tecnologia pensa e agisce per noi». Non siamo allarmisti ma solo realisti e prudenti59. Come già ricordava Romano Guardini, una della missioni fondamentali dell’uomo d’oggi è la gestione del potere60. Non tutto ciò che è possibile deve inevitabilmente essere fatto. Bisogna pensare alle conseguenze del nostro agire. Ciò implica un comportamento etico, morale. Ma questo è più un punto d’arrivo che di partenza.
5. Conclusione Le riflessioni fin qui svolte ci stimolano a pensare in modo nuovo. Viviamo dentro uno spazio sociale mutante, sempre più “virtua Ibid., pp. 89-90. Corsivo nostro. M. Heidegger, Che cosa significa pensare?, Sugarco, Milano 1988, p. 41. 59 Cf. S. Rondinara, Tecnica, futuro, interiorità, in G. Cicchese (ed.), Macchine e futuro, pp. 190-204. 60 Cf. R. Guardini, La fine dell’epoca moderna. Il potere, Morcelliana, Brescia 1993. 57 58
Liberi e responsabili nel nostro tempo
173
le”, rischiando un “autismo elettronico” come “solitari interconnessi”: «Sospesi tra “il non più” e il “non ancora”, abitiamo il tempo indecifrabile dell’interregno»61. Il nostro tentativo è stato di sondare questo interregno. L’elemento decisivo dell’analisi è il rapporto con il tempo e con una concezione temporale dimentica della “linearità” e perciò delle radici storiche. L’avvento del presentismo è sotto i nostri occhi, col rischio di diventare schiavi del presente. Per dirla con una tesi: la sfida del tempo presente è un presente che sfida l’essere umano a non restare prigioniero del presente. Per farlo egli deve dilatare i suoi orizzonti per non restare “prigioniero della Rete” né della “caverna”. Il mito di Platone ritorna con tutta la sua ricchezza simbolica: può essere oggi suggestivamente reinterpretato e forse anche ribaltato. Per molti la vera luce è dentro, chiusi nelle proprie stanze davanti al computer62. La dimensione temporale è una dimensione fondamentale dell’essere umano, pari al camminare. Dobbiamo imparare tutti, di nuovo, a ritrovare il nostro tempo, ricominciando a trovare il gusto del “camminare”. L’esatto contrario di quanto fa la società contemporanea, che ci addestra a correre, ad avere fretta, a bruciare le tappe, a consumare tutto e subito. Camminare ci permette di essere nel nostro corpo e nel mondo senza essere sopraffatti e ci lascia liberi di pensare senza perderci totalmente nei pensieri63. Camminare lentamente aiuta a pensare e a prendere decisioni libere. Dobbiamo recuperare la nostra dimensione itinerante (homo viator) con la consapevolezza di sviluppare in tutte le sue potenzialità la dimensione della prossimità: quell’essere in relazione che già
Z. Bauman – E. Mauro, Babel, testo sulla quarta di copertina. Si veda il caso limite degli adolescenti – e non solo – hikikomori (letteralmente “stare in disparte, isolarsi” – dalle parole hiku “tirare” e komoru “ritirarsi”). È un termine giapponese usato per riferirsi a coloro che hanno scelto di ritirarsi dalla vita sociale, spesso cercando livelli estremi di isolamento e confinamento. 63 Cf. R. Solnit, Storia del camminare, Bruno Mondadori, Milano 2002 (nuova ed. Ponte alle Grazie, 2017); D. Demetrio, Filosofia del camminare, Raffaello Cortina, Milano 2005; D. Le Breton, Camminare. Elogio dei sentieri e della lentezza, Edizioni dei Cammini, Roma 2015. 61 62
174
Cinque parole della scienza
siamo, per trasformarlo in atto come essere di relazione, cioè capacità di accogliere, ascoltare, andare incontro all’altro, quindi amare64.
Nota bibliografica Z. Bauman, La vita tra reale e irreale, Egea, San Giuliano Milanese 2014. Z. Bauman – E. Mauro, Babel, Laterza, Bari 2015. U. Beck, Che cos’è la globalizzazione? Rischi e prospettive della società planetaria, Carocci, Roma (1999) 20039. U. Beck, La metamorfosi del mondo, Laterza, Bari Roma 2016. J.-M. Besnier, L’homme simplifié. Le syndrome de la touche étoile, Fayard, Paris 2012 (tr. it. L’uomo semplificato, Vita e Pensiero, Milano 2013). H. Blumenberg, Tempo della vita e tempo del mondo, Il Mulino, Bologna 1996. V.M. Bonito – N. Novello (edd.), Età dell’inumano, Carocci, Roma 2005. R. Brague, Le propre de l’homme. Sur une légitimité menacée, Flammarion, Paris 2013. M. Buber, Il principio dialogico e altri saggi, San Paolo, Cinisello Balsamo 1993. T. Cantelmi, Tecnoliquidità. La psicologia ai tempi di Internet, San Paolo, Cinisello Balsamo 2013. G. Cicchese, Incontro a te. Antropologia del dialogo, Città Nuova, Roma 2010; G. Cicchese, Incontro agli altri. La dimensione relazionale dell’essere umano, in «Religiosi in Italia», XXII(2017)418, pp. 19-28. G. Cicchese (ed.), Macchine e futuro. Una sfida per l’uomo, SEFIRCittà Nuova, Roma 2015. Mi permetto di rimandare ai miei G. Cicchese, Incontro a te. Antropologia del dialogo, Città Nuova, Roma 2010; Id., Incontro agli altri. La dimensione relazionale dell’essere umano, in «Religiosi in Italia», XXII(2017)418, pp. 19-28; Id., Antropologia della prossimità. Un ponte verso il futuro, in «Nuova Umanità», XLII(2020)237, pp. 77-88; G. Cicchese – G. Chimirri, Persona al centro, cap. VII («Persona e amore»), pp. 389-466. 64
Liberi e responsabili nel nostro tempo
175
G. Cicchese, Persona, Verità, Relazione, Postfazione a P. Groccia, L’antropologia personalista di Nunzio Galantino, Cantagalli, Siena 2017, pp. 299-306. G. Cicchese, Antropologia della prossimità. Un ponte verso il futuro, in «Nuova Umanità», XLII(2020)237, pp. 77-88. G. Cicchese – G. Chimirri, Persona al centro. Manuale di antropologia filosofica e lineamenti di etica fondamentale, Mimesis, Milano 2016. C. Costa, I giovani nel mondo di oggi, in «La sapienza della croce», XXXII(2017-2), pp. 235-254. G. Crea, Sfida educativa e discernimento come progresso di crescita. I giovani come interlocutori attivi per una formazione progettuale, in V. Orlando (a cura di), I giovani, la fede e il discernimento vocazionale. Contributi di riflessione sulla realtà dei giovani oggi, LAS, Roma 2018, pp. 143-166. G. De Rita – A. Galdo, Prigionieri del presente. Come uscire dalla trappola della modernità, Einaudi, Torino 2018. D. Demetrio, Filosofia del camminare, Raffaello Cortina, Milano 2005. C. D’Urbano, La pietra della follia. Nuove frontiere della psicologi contemporanea – dialogando con Tonino Cantelmi, Città Nuova, Roma 2016. Focus su Millennials e iGen, in «Nuova Umanità», XL(2018)230. F. Fukuyama, La fine della storia e l’ultimo uomo, BUR, Milano 2003. F. Fukuyama, L’uomo oltre l’uomo. Le conseguenze della rivoluzione biotecnologica, Mondadori, Milano 2002. G. Granieri, Blog generation, Laterza, Bari 2009. R. Guardini, La fine dell’epoca moderna. Il potere, Morcelliana, Brescia 1993. J.-C. Guillebaud, Le principe d’humanité, Seuil, Paris 2001. S. Hawking, Dal big bang ai buchi neri. Breve storia del tempo, la Repubblica, Roma 2018. M. Heidegger, Che cosa significa pensare?, Sugarco, Milano 1988. G. Iorio, Futuro oggi. La realtà dei giovani contemporanei, in «Nuova Umanità», XL(2018)230, pp. 5-10.
176
Cinque parole della scienza
E. Lamedica, Hannah Arendt e il ’68. Tra politica e violenza, Jaca Book, Milano 2018. D. Le Breton, Camminare. Elogio dei sentieri e della lentezza, Edizioni dei Cammini, Roma 2015. M.O. LLanos, Giovani, vocazione e realizzazione personale, in V. Orlando (ed.), I giovani, la fede e il discernimento vocazionale. Contributi di riflessione sulla realtà dei giovani oggi, LAS, Roma 2018, pp. 184-208. P. Larrey (ed.), Futuro ignoto. Conversazioni nella nuova era digitale, IF Press, Roma 2014. P. Larrey, Dove inizia il futuro. Conversazioni su cosa ci aspetta con chi sta lavorando al nostro domani, Mondadori, Milano 2018. G. Lipovetsky, L’ère du vide. Essais sur l’individualisme contemporain, Gallimard, Paris 1983 (tr. it. L’era del vuoto. Saggi sull’individualismo contemporaneo, Luni, Milano 2013). R. Mancini, Senso e futuro della politica. Dalla globalizzazione a un mondo comune, Cittadella, Assisi 2002. M. Mantovani (ed.), Quale globalizzazione? L’«uomo planetario» alle soglie della mondialità, LAS, Roma 2000. M. Marassi (ed.), Progetto uomo, L’interpretazione dell’essere umano nella storia del pensiero, Meltemi, Milano 2018. E. Morin – A.B. Kern, Terra-Patria, Raffaello Cortina, Milano 1994; E. Morin, I sette saperi necessari all’educazione del futuro, Raffaello Cortina, Milano 2001; E. Morin, Cultura e barbarie europee, Raffaello Cortina, Milano 2006. G. Reale, Salvare la scuola nell’era digitale, La Scuola, Brescia 2013. R. Redeker, Il disumano. Internet, la scuola, l’uomo, Città Aperta, Troina (EN) 2005. G. Riva, I social network, Il Mulino, Bologna (2010) 20162. S. Rondinara, Tecnica, futuro, interiorità, in G. Cicchese (ed.), Macchine e futuro, pp. 190-204. I. Sanna (ed.), Educare nella postmodernità, Studium, Roma 2013. La sfida educativa. Rapporto-proposta sull’educazione, a cura del Comitato per il Progetto culturale della Conferenza Episcopale Italiana, Roma 2009.
Liberi e responsabili nel nostro tempo
177
M. Serres, Petite Poucette, Le Pommier, Paris 2012 (tr. it. Non è un mondo per vecchi. Perché i ragazzi rivoluzionano il sapere, Bollati Boringhieri, Torino 2013). R. Solnit, Storia del camminare, Bruno Mondadori, Milano 2002 (nuova ed. Ponte alle Grazie, 2017). G. Triani, Il futuro è adesso. Società mobile e istantocrazia, San Paolo, Cinisello Balsamo 2013. G. Vattimo, La società trasparente, nuova ed. accresciuta, Garzanti, Milano 2000. A. Zanotelli, L’appello ai giovani del Nord, missionario a Korogocho in Kenia, in L’Africa in aiuto all’Europa. 30 giorni con l’Africa (brochure).
L’enigma del tempo e i ritmi della vita Carlo Cirotto
1. Introduzione1 Scommetto che non ci siamo mai fermati a riflettere sulla frequenza con cui usiamo la parola “tempo”. Parliamo di tempi andati, di tempi belli o bui. E poi, guadagniamo tempo, prendiamo tempo, passiamo tempo. Tutti sappiamo che il tempo vola, alcune volte scivola via lento, altre volte corre. Il più delle volte semplicemente finisce. E che dire poi del suo ruolo in quelle espressioni genuine della saggezza popolare che sono i proverbi? Da quelli declamati solennemente in lingua originale, come «fugit irreparabile tempus», a quelli più familiari che i genitori ripetono continuamente ai figli: «Chi ha tempo non aspetti tempo». Passiamo insomma moltissimo tempo a parlare di tempo ma ben poco a cercare di capire che cosa sia davvero. In genere tendiamo ad associare il tempo alla fugacità delle cose e ne parliamo come se fluisse con una sua propria velocità. Forse perché lo immaginiamo come un fiume che scorre. Proprio come il Po dei racconti di Giovannino Guareschi, che egli stesso confessava di amare perché simbolo del tempo che passa. Tuttavia, se è facile definire e misurare la velocità dell’acqua di un fiume, la fisica nega che si possa attribuire una velocità allo scorrere del tempo. In fisica, infatti, la velocità viene definita come il rapporto tra lo spazio percorso e… il tempo impiegato a percorrerlo. Attribuire, pertanto, una velocità allo scorrere del tempo fa cadere nella trappola dell’autoriferimento. Significherebbe mettere in Carlo Cirotto, già docente di Citologia e Istologia, Università di Perugia.
1
180
Cinque parole della scienza
rapporto la variazione del ritmo del tempo al ritmo del tempo stesso. Un fiore di tautologia.
2. La lampada e il cuore Anche Galilei cadde in un circolo vizioso di questo genere. Tutti sanno che fu il primo a intuire che il movimento dei corpi può essere descritto da un’equazione che mette in relazione lo spazio con il tempo. Ma, per formalizzare questa intuizione e verificarne la validità, Galilei incontrò alcune difficoltà. Era infatti necessario che conoscesse sia le posizioni iniziale e finale dell’oggetto in movimento, sia il tempo impiegato a coprire il percorso. Mentre, però, era in grado di determinare, con buona approssimazione, i punti di partenza e di arrivo, e quindi di conoscere la lunghezza totale del percorso, era in difficoltà nel misurare il tempo. Sarebbe bastato un orologio che misurasse l’intervallo temporale tra la partenza e l’arrivo, ma ai suoi tempi di orologi così precisi non ce n’erano. Tuttavia, da giovane, lo stesso Galilei aveva osservato che le oscillazioni di un pendolo hanno tutte la stessa durata e che, quindi, è possibile misurare con accuratezza qualsiasi intervallo di tempo contando semplicemente le sue oscillazioni. Stando a ciò che racconta Vincenzo Viviani, ultimo discepolo e suo primo biografo, Galilei avrebbe avuto questa intuizione intorno al 1580, mentre osservava le oscillazioni di un lampadario sospeso nel duomo di Pisa e ne avrebbe avuto immediata conferma contando i propri battiti cardiaci. Notò che durante ogni oscillazione contava lo stesso numero di pulsazioni e ne dedusse che le oscillazioni avevano tutte la stessa durata. Era possibile, quindi, utilizzare il pendolo come un attendibile strumento segna-tempo. Questa è sicuramente una bella storia, ma basta rifletterci un po’ perché sorga una domanda: come faceva Galilei a sapere che i battiti del suo cuore avevano tutti la stessa frequenza? Non è un caso che non molti anni dopo, Santorio Santorio, un medico veneziano suo amico, abbia seguito il percorso inverso utilizzando un particolare pendolo, che chiamò pulsilogium, per misurare le pulsazioni dei suoi pazienti e metterne in luce eventuali irregolarità. In
L’enigma del tempo e i ritmi della vita
181
breve, i battiti cardiaci servirono a Galilei per assicurarsi della costanza delle oscillazioni del pendolo, mentre a Santorio il pendolo servì per assicurarsi che i battiti cardiaci fossero regolari. Si tratta, in tutta evidenza, di un circolo vizioso. Ma qual è il suo significato? Significa che ogni volta che misuriamo il tempo, con l’orologio ad esempio, non misuriamo il tempo in quanto tale ma delle variabili fisiche come oscillazioni del pendolo, battiti cardiaci, avanzamento di rotismi meccanici ecc., e confrontiamo una variabile con un’altra variabile. Dal punto di vista pratico, comunque, è indiscutibilmente utile immaginare che esista un tempo assoluto, che non può essere in sé misurato, ma dal quale dipende tutta la realtà. Questo è il tempo che compare, indicato con “t”, nella quasi totalità delle equazioni della fisica classica. È quello impiegato da un pendolo a oscillare o quello che intercorre fra una pulsazione cardiaca e la successiva. È possibile, poi, mettere in relazione il numero dei battiti con quello delle oscillazioni ed ottenere un numero che può essere sottoposto alla verifica concreta dei fatti. Se le previsioni risultano giuste, si è autorizzati a concludere che l’apparato di misura è corretto e, in particolare, che è vantaggioso usare la variabile “t” anche se è impossibile misurarla direttamente. Insomma, nella fisica classica la variabile tempo è un’utile assunzione più che il risultato diretto di un’osservazione.
3. L’orologio cosmico Quasi un secolo dopo, Isaac Newton capì che era proprio questa la via giusta da seguire e organizzò le sue equazioni intorno alla variabile tempo. Venuta meno l’immagine cosmologica antica in cui il cielo delle stelle fisse e la sfera del primum mobile erano in grado di assicurare compattezza e organicità al cosmo e ai suoi processi, Newton sentì la necessità di rifarsi direttamente a Dio per assicurare riferimenti spaziali e temporali assoluti, capaci di evitare che il gioco meccanico delle forze portasse a effetti indesiderati. Lo spazio e il tempo assoluti furono definiti da Newton divina sensoria, quasi degli orga-
182
Cinque parole della scienza
ni sensoriali, sperimentabili di Dio, espressioni dirette della sua infinità (lo spazio) e della sua eternità (il tempo). Veniva così evitata la vertigine esistenziale di sentirsi alla deriva in un universo privo di punti di riferimento fissi, assoluti, né spaziali, né temporali. Era come se, in una qualche parte del cosmo, vi fosse un orologio controllato direttamente dal Creatore, che segnava un’ora valida simultaneamente per tutti i punti dello spazio. Il tempo scandito da questo orologio scorreva, poi, a velocità costante e, secondo il pensiero newtoniano, non poteva essere direttamente misurato, essendo emanazione di un Dio trascendente. Presupponendone però l’esistenza, era possibile costruire uno schema quanto mai efficace per descrivere e comprendere la natura. È forse superfluo ricordare come questo ancoraggio metafisico della fisica newtoniana venisse subito criticato in campo filosofico da menti di eccezionale levatura, come Berkley e Leibniz, e finisse per essere lasciato cadere nel corso della successiva evoluzione della scienza empirica, la cui tendenza era quella di edificare una costruzione sempre più autonoma e autosufficiente.
4. Un tempo relativo Per la maggior parte delle applicazioni pratiche, la fisica newtoniana è più che sufficiente; ma non lo è sempre né in ogni caso. Il navigatore satellitare GPS delle nostre auto, ad esempio, darebbe risultati del tutto inattendibili se fondasse il suo funzionamento sui principi della fisica di Newton. Infatti, nei satelliti, i cui segnali indicano all’automobilista la via da seguire, il tempo scorre più lentamente che sulla Terra. Per funzionare a dovere, il navigatore deve tener conto della relatività temporale einsteiniana. La teoria della “relatività ristretta” fu elaborata all’inizio del secolo scorso da Albert Einstein. In essa egli mise radicalmente in discussione i concetti newtoniani di spazio e di tempo. Cominciò con il dimostrare che il tempo, segnato da un orologio, dipende dal movimento al quale è soggetto l’orologio stesso. Quanto maggiore è la sua velocità tanto più lento è l’incedere delle sue lancette. Certo, alle nostre consuete velocità la differenza è talmente piccola da
L’enigma del tempo e i ritmi della vita
183
non poter essere neanche misurata. Se però viaggiassimo su un’astronave a una velocità pari alla metà di quella della luce, la differenza diverrebbe significativa. In tal caso, rallentando il tempo, risulterebbero rallentati anche i processi fisiologici del nostro corpo e invecchieremmo più lentamente di quanto sarebbe accaduto se fossimo rimasti sulla Terra. Se poi – per pura ipotesi, perché di fatto è impossibile – viaggiassimo a una velocità di poco inferiore a quella della luce, il nostro orologio rimarrebbe quasi fermo. Per le particelle della luce, i fotoni, che ovviamente viaggiano alla velocità della luce, il tempo è assolutamente fermo. Anzi, per loro non esiste affatto. Nel 1916 Einstein ampliò questa sua teoria proponendone un’altra, la “relatività generale”, secondo cui anche la forza di attrazione esercitata dai corpi rallenta il tempo. Va sottolineato che, negli anni che seguirono, questa sua teoria ottenne molte conferme sperimentali. Immaginiamo di intraprendere un viaggio spaziale alla volta del Sole. Lo scorrere del tempo diverrà tanto più lento, rispetto a quello terrestre, quanto più aumenterà la forza gravitazionale della nostra stella. Se poi facessimo rotta verso uno degli oggetti più massicci dell’universo, un buco nero, il tempo scorrerebbe sempre più lentamente fino a fermarsi del tutto ai suoi confini. Il tempo, allora, non fluisce alla stessa maniera dappertutto, come pensava Newton. Può scorrere più velocemente o più lentamente, e può persino fermarsi. A questo punto sorge spontanea la domanda: quale proprietà del tempo è sopravvissuta alla rivoluzione di Einstein? La risposta è semplice: solo una, l’ordine del “prima e dopo”. Nessuno vede la successione di “prima e dopo” rovesciata solo perché sta muovendosi velocemente o perché si trova nelle vicinanze di una grande massa. Ogni forma di ordine è conseguenza di un principio. Nell’elenco telefonico Leandri viene prima di Leccese e De Angelis prima di De Angelo, perché l’ordine degli abbonati segue il principio alfabetico. Anche la forma d’ordine che chiamiamo “tempo” ha il suo principio: la successione di causa ed effetto. Quando fra due eventi c’è un’influenza, può avvenire solo che è l’evento anteriore a influire su quello posteriore. Non può mai verificarsi il contrario. L’ordina-
184
Cinque parole della scienza
mento del tempo non può mai cambiare, neanche dopo l’introduzione della teoria della relatività: né un altro punto di vista dell’osservatore né la forza di attrazione di una qualsiasi massa possono annullare l’efficacia della legge di causa ed effetto. Da quest’ordinamento deriva la differenza tra passato e futuro. Sul passato abbiamo ricordi, possiamo interrogare testimoni o fare ricerche d’archivio. Gli eventi del passato hanno modificato il nostro cervello o il cervello di altri uomini e sono stati fissati in appunti e diari. Il futuro invece non lascia tracce di sé da nessuna parte. Su ciò che sarà possiamo fare soltanto congetture.
5. Un mondo senza tempo? Dallo strano tempo del macrocosmo – quello delle alte velocità, delle stelle, delle galassie e dei buchi neri – passiamo ora a quello, forse più problematico, del microcosmo – quello degli atomi e delle particelle subatomiche. Nel 1900 Max Planck tenne una conferenza per la Società tedesca di Fisica, che sarebbe restata famosa. Vi annunciava la fine del determinismo e dimostrava che bastava assumere la natura quantizzata dell’energia per riuscire a risolvere problemi fino ad allora giudicati irrisolvibili. Come si sarebbe visto con sempre maggiore chiarezza negli anni che seguirono, questa sua ipotesi era la pietra su cui avrebbe poggiato una nuova, rivoluzionaria teoria sulla natura del microcosmo: la “meccanica quantistica”. Anche da questa teoria, che ha ricevuto innumerevoli conferme sperimentali, risulta evidente che l’idea newtoniana di un tempo che scorre autonomamente e rispetto a cui tutto il resto del cosmo evolve, non appare più un’idea efficace per rendere conto di ciò che accade a livello subatomico. Il mondo dei quanti, secondo il fisico Carlo Rovelli, non è descritto da equazioni di evoluzione nel tempo e ciò che viene fatto dagli specialisti è identificare le variabili che sono effettivamente osservate e determinare le relazioni che sussistono tra loro. Non, quindi, il comportamento di queste variabili rispetto al tempo. Nell’esempio galileiano, riguardante la frequenza cardiaca e il pendolo, non si avrebbero una frequenza e un pen-
L’enigma del tempo e i ritmi della vita
185
dolo che evolvono entrambi nel tempo, ma equazioni che ci dicono come il battito cardiaco possa evolvere rispetto al pendolo; quali valori dell’uno siano compatibili con quali valori dell’altro. A prima vista, una tale operazione sembrerebbe semplice. Da un punto di vista concettuale, però, il cambiamento è gigantesco perché si deve imparare a pensare al mondo degli atomi non come a qualcosa che cambia nel tempo, ma a qualcosa che richiede uno schema, anche mentale, diverso. Insomma, per Rovelli come per altri scienziati, ai livelli fondamentali della realtà il tempo non c’è. La nostra impressione che il tempo scorra non è che un’approssimazione valida solo per le scale macroscopiche di osservazione e deriva dal fatto che l’osservazione del mondo attraverso i sensi è grossolana. I macroprocessi della nostra esperienza quotidiana, infatti, sono composti da innumerevoli microprocessi. Il comportamento caotico dei singoli microprocessi viene così neutralizzato e noi viviamo in un mondo in cui sembra possibile prevedere univocamente il futuro.
6. Dall’ordine al disordine Eppure, nonostante che la relatività e la quantomeccanica affermino il contrario, nel mondo in cui viviamo non c’è esperienza più immediata e indiscutibile del tempo e del suo fluire inesorabile dal passato al futuro. E ciò nonostante che gli esperti discutano animatamente sulla reversibilità o meno del tempo nelle loro equazioni. Sembra un’autentica assurdità pensare che, nell’esperienza quotidiana, il tempo possa fermarsi o addirittura scorrere in senso inverso. Se così fosse, infatti, dovremmo poter vedere, di tanto in tanto, che i cocci di una tazza rotta si mettono di nuovo insieme per farla ritornare intatta, che la pioggia sale dal basso verso l’alto e che gli uomini ringiovaniscono oltre che invecchiare. Oppure, raccontando una barzelletta agli amici dovrebbe poterci capitare di vederli ridere prima di ascoltare la barzelletta. Sarebbe, insomma, come far scorrere all’indietro la pellicola di un film. Stando alla nostra esperienza quotidiana, questi racconti suonano francamente strani e ridicoli. Il tempo ci appare sempre come
186
Cinque parole della scienza
un procedere inesorabile verso il futuro secondo una traiettoria assolutamente unidirezionale. Ma c’è di più. L’esempio della tazza rotta insegna che è assurdo aspettarsi che da un mucchio di pezzi si possa spontaneamente ricostituire la tazza originaria; perché ciò possa avvenire è necessario l’intervento di un restauratore. Così come tutti ci dobbiamo impegnare per tenere in ordine le nostre case. Se non lo facessimo, regnerebbe il caos permanente né ci capiterebbe mai di osservare il contrario, cioè che la casa disordinata, per puro caso e senza nessun intervento, diventi, con il passare del tempo, sempre più ordinata. Questo fatto potrebbe forse valere per tutta la natura e non solo per il nostro piccolo mondo? In tal caso, si tratterebbe di una sorta di legge che stabilisce una ben precisa direzione temporale: il tempo scorre sempre in modo che il disordine cresca. Che il disordine aumenta inesorabilmente, non solo nelle nostre case ma in tutta la natura, fu dimostrato dal fisico tedesco Rudolf Clausius, che nel 1865 formulò una legge fisica che sarebbe poi diventata il “secondo principio della termodinamica”. Come misura di disordine di un sistema introdusse la grandezza denominata “entropia” e dimostrò che in un sistema isolato la quantità media di entropia non può che aumentare con il passare del tempo. Si giunse così a giustificare la direzionalità del tempo. Se il tempo scorresse all’indietro l’entropia diminuirebbe e l’ordine aumenterebbe, il che in natura non si è mai visto. Quando si mescola il latte con il caffè, in linea teorica il latte potrebbe mantenersi compatto, occupando un proprio spazio all’interno della tazza, ben separato da quello occupato dal caffè; questo rappresenterebbe l’ordine. Ma, come è noto a tutti, non è questo ciò che nella realtà accade: il latte si mescola al caffè, e l’entropia, cioè il disordine del sistema, cresce. Nell’intero universo l’energia e la materia si distribuiscono nello spazio in modo che il valore medio di entropia aumenti. E, poiché il secondo principio della termodinamica vale tanto per i processi microscopici quanto per quelli macroscopici, è giustificato supporre che la direzione del tempo sia determinata dalla legge dell’aumento dell’entropia.
L’enigma del tempo e i ritmi della vita
187
7. Orologi Ai fini pratici, spesso il tempo è definito operativamente come ciò che è misurato dagli orologi. Questa definizione, assai utile sotto il profilo pratico, porta però a chiedersi che cosa sia un orologio. In senso generale, l’orologio è un dispositivo che è soggetto a variazioni riproducibili, come le oscillazioni di un pendolo o le vibrazioni di un cristallo di quarzo, ed è in grado di contarle. Il tempo meccanico dell’orologio è il significato di tempo più largamente utilizzato, pur non essendo né assoluto né universale. Ciò nonostante, il tempo meccanico è ciò che in ultima analisi regola le nostre vite: non solo ci dice quando alzarci, quando lavorare e quando dormire, ma, poiché il corpo stesso è un orologio, detta anche i tempi dell’invecchiare e del morire. È curioso il fatto che il tempo è la grandezza fisica che sappiamo misurare meglio, pur essendo, in ultima analisi, quella che si sottrae ad ogni definizione. Ogni decennio dell’ultimo secolo ha visto quasi decuplicare l’accuratezza con la quale si riesce a misurarlo. Oggi, un buon orologio atomico “sgarra” di un miliardesimo di secondo al giorno. Le società umane, fin da tempi assai remoti, hanno sempre trovato un accordo sul modo di misurare il tempo, sia quello giornaliero con gli orologi, sia quello annuale con i calendari. Le ore e i giorni infatti sono le coordinate indispensabili per il buon funzionamento di una comunità. Uno degli strumenti più antichi per scandire il tempo nell’arco della giornata è la meridiana. Il più antico esemplare è stato rinvenuto in Egitto e risale a sette millenni fa. L’ombra dell’asta, che cambia direzione e lunghezza a seconda della posizione del Sole, consente di capire quale sia l’ora del giorno. Con l’invenzione dell’orologio ad acqua divenne poi possibile misurare il tempo anche quando il Sole non c’era o, più banalmente, negli ambienti chiusi. Attraverso un foro posto sul fondo di una botte l’acqua veniva lasciata fluire in un secondo contenitore e dal livello dell’acqua rimasta nella botte si risaliva all’intervallo di tempo trascorso.
188
Cinque parole della scienza
Per molti anni si fece uso anche di orologi a sabbia, le clessidre, fino a quando nel 1427 Heinrich Arnold inventò il primo orologio a molla. Da allora si incominciarono a costruire orologi meccanici. I primi esemplari avevano dimensioni ragguardevoli e trovavano posto per lo più nelle torri e nei campanili. Il primo orologio meccanico portatile fu fabbricato agli inizi del Cinquecento, mentre il primo orologio a pendolo fu costruito da Christiaan Huygens nel 1657. A un certo punto della storia umana nacque l’esigenza di misurare anche il corso dell’anno oltre a quello della giornata. Le attività a cadenza annuale, in particolare quelle agricole come la semina e la raccolta, richiedevano l’uso di un calendario. I primi a stabilirne uno furono, nel III millennio a.C., i Sumeri, che conoscevano già la scrittura ed erano in possesso di un considerevole sistema amministrativo. L’anno venne diviso in 12 mesi, ognuno di 30 giorni e poiché l’anno astronomico dura 365,25 giorni si rendevano necessarie sistematiche correzioni, analoghe a quelle del nostro anno bisestile. La struttura fondamentale dei calendari attuali risale a Giulio Cesare che nel 46 a.C. introdusse un nuovo calendario, più rispettoso dei precedenti della posizione del Sole. In suo onore questo calendario, che rimase in uso fino al XVI secolo, fu chiamato “giuliano”. Il calendario giuliano si fondava sulla convinzione che un anno contasse esattamente 365,25 giorni. Ma, intorno al 1550, a seguito di misure del tempo più precise effettuate sulla base di nuove tavole astronomiche, si vide che l’anno contava in effetti 365,2425 giorni. Era dunque necessario apportare una correzione e, dopo lunghe consultazioni, nel 1582 papa Gregorio XIII introdusse il calendario che ancora oggi utilizziamo e che, proprio in suo onore, venne detto “gregoriano”. Con queste correzioni, il calendario rispetta abbastanza fedelmente l’anno solare. Ma non perfettamente: nel 3333 il calendario precederà di un giorno l’anno solare e sarà quindi necessario introdurre un anno bisestile supplementare. La misura del tempo legata al corso degli astri durò fino al 1967. In quell’anno, visto che la Terra allunga il suo giro intorno al Sole di 10 secondi l’anno, si decise di riorganizzare il sistema di misura del tempo e di ridefinirlo facendo ricorso alle proprietà di
L’enigma del tempo e i ritmi della vita
189
scansione temporale degli orologi atomici. Il procedimento è basato sulla frequenza di risonanza di un atomo di cesio o di rubidio. Di solito è usato il cesio perché è alla base della definizione di secondo come 9.192.631.770 cicli della radiazione corrispondente alla transizione tra due specifici livelli energetici dello stato fondamentale dell’atomo di questo elemento. Un giorno dura quindi 24 x 60 x 60 x 9.192.631.770 frequenze di oscillazione di questa micro-onda. Come si è già accennato, nella sua orbita intorno al Sole la Terra perde velocità; per questa ragione, ogni due anni occorre introdurre alcuni “secondi bisestili”. Il Bureau International des Poids et Mesures di Parigi ha stabilito la validità internazionale dell’ora atomica.
8. Gli orologi della vita Tutti siamo convinti di mangiare quando abbiamo fame, di bere quando abbiamo sete e di dormire quando abbiamo sonno. Basta però un esame, anche sommario, delle nostre abitudini quotidiane per scoprire che in tutti i casi cerchiamo una conferma: quella dell’ora, che appaia luminosa sullo smartphone, o che sia semplicemente indicata dalla posizione delle lancette di un orologio. Se ci trovassimo senza questi ausili, il momento in cui mangiare, bere, dormire ed eseguire molte altre funzioni biologiche non sarebbe più deciso né da noi né dall’orologio ma imposto dai nostri ritmi biologici profondi, perché il nostro corpo è ancora sintonizzato su un proprio ciclo funzionale giornaliero, il “ciclo circadiano” (dal latino circa, intorno, e dies, giorno). Non sono solo i nostri comportamenti fisici a essere dettati da questi ritmi, ma anche i nostri umori e le nostre emozioni, che oscillano seguendo cadenze proprie. Se facciamo fatica a riconoscere i nostri ritmi interni è perché viviamo in un mondo assediato da ogni tipo di stimoli artificiali, così che spesso i nostri fondamentali orologi interni risultano mascherati. Basta comunque viaggiare in aereo e attraversare qualche fuso orario per diventare immediatamente consapevoli che non è così facile eludere la nostra biologia.
190
Cinque parole della scienza
Tutta la biosfera abbonda di ritmi quotidiani, mensili, annuali e pluriennali. Il ghiro passa l’inverno in letargo. Le piante aprono e chiudono i loro fiori a ore prestabilite. Le api vanno alla ricerca di fiori appena sbocciati, quasi che avessero un appuntamento con loro. Alcuni vermi policheti, i palolo, si sviluppano in grandissime quantità una sola volta all’anno, in accordo con il ciclo lunare. E Leuresthes tenuis, un pesciolino californiano, dispone di un timer interno per coordinarsi con le maree. Proprio come noi umani siamo dipendenti dal tempo e ci affidiamo a orologi e calendari per sapere quando fare qualsiasi cosa, allo stesso modo gli altri organismi utilizzano una vasta gamma di dispositivi biologici per sincronizzare e coordinare le proprie azioni. La grande differenza fra noi e gli altri viventi è che noi possiamo, almeno in parte, ignorare i ritmi ancestrali cablati nel nostro organismo. Abbiamo così allentato molti legami con il mondo della natura. Mangiamo cibi confezionati, beviamo liquidi imbottigliati e ingurgitiamo grandi quantità di pillole. L’elettricità trasforma le nostre notti in giorni, e il riscaldamento degli ambienti trasforma i nostri inverni in primavere. Invece di dormire quando ce lo prescrive il nostro corpo, beviamo caffè, accendiamo la radio, abbassiamo il finestrino e ci illudiamo così di poter aggirare qualche miliardo di anni di evoluzione. E invece non possiamo. Tanto noi quanto tutti gli altri esseri viventi del pianeta – animali, piante, alghe, batteri – abbiamo un orologio biologico che iniziò a funzionare più di tre miliardi di anni or sono. Da quando la Terra e la Luna agganciarono le loro orbite, nell’ambiente terrestre in perenne e violento cambiamento, gli unici riferimenti che rimasero costanti furono che la Terra ruotava intorno al proprio asse ogni 24 ore circa; che ogni 365,25 giorni Sirio sorgeva insieme al Sole; che la Luna cresceva e decresceva ogni 29,5 giorni e che, sulle coste, due volte al giorno si assisteva al flusso e riflusso delle maree. Non c’è da meravigliarsi, quindi, se questi ritmi fondamentali sono rimasti scolpiti nelle creature viventi e se la capacità di anticipare e sfruttare questi cambiamenti abbia comportato dei vantaggi non secondari in termini evolutivi. In particolare, il fatto di vivere su un pianeta ruotante, ha fatto sì che i ritmi naturali legati all’avvi-
L’enigma del tempo e i ritmi della vita
191
cendarsi costante del giorno e della notte si siano tradotti in altrettanti segnatempo interni. A questa loro acquisita capacità di scansione temporale e di sincronizzazione non è difficile pensare che abbia fatto seguito un adattamento all’ambiente che ha massimizzato le probabilità della loro sopravvivenza e della loro riproduzione. Come sottolinea Julius Fraser, un’autorità nello studio dei temi legati al tempo, gli animali e le piante che condividono la stessa nicchia ecologica devono coordinare i propri ritmi biologici: deve esserci un tempo per inseguire, un tempo per mangiare e un tempo per bere, per accoppiarsi e per costruire. Nei più diversi organismi, i quotidiani ritmi circadiani devono essere coordinati da una sorta di orologio centralizzato in modo che tutti i sistemi vitali funzionino a tempo debito e in armonia. Sulla base delle sue istruzioni, l’organismo può così regolare la temperatura corporea, la pressione sanguigna, la digestione e le tante altre funzioni che subiscono modulazioni giornaliere. Come un direttore d’orchestra, quest’orologio fa in modo che l’insieme del corpo, con tutti i suoi elementi, pulsi seguendo un tempo collettivo. Esso impedisce che vari eventi e processi abbiano luogo allo stesso tempo e assicura che le reazioni biochimiche dell’organismo procedano al momento giusto e nel giusto ordine. Sono gli orologi biologici a sincronizzare i tempi di attività e di riposo delle creature diurne, notturne e crepuscolari, in modo che il picco di attività coincida con la massima disponibilità di cibo, luce o prede e a consentire a noi esseri umani e a tutti gli altri esseri viventi di anticipare le modificazioni ritmiche e prevedibili dell’ambiente, in particolare quelle di luce, temperatura, umidità e radiazione ultravioletta. La struttura imposta dagli orologi biologici consente inoltre agli organismi di modificare le loro priorità comportamentali non soltanto in relazione all’ora del giorno, ma anche in relazione al periodo del mese e dell’anno. La conoscenza dei ritmi circadiani umani è relativamente recente, ma è noto da migliaia di anni che ci sono cicli ritmici nel comportamento delle piante. È noto, ad esempio, che Alessandro Magno fosse affascinato dall’albero di tamarindo, che apre e chiude il suoi fiori in sincronia con la luce del giorno. Verso la fine del XVII secolo, il poeta inglese Andrew Marvell immaginò addirittu-
192
Cinque parole della scienza
ra un orologio floreale fatto di piante che aprivano i propri fiori in ore successive della giornata. Questa immaginazione poetica divenne realtà con Linneo. Nel 1751, il grande naturalista osservò che i fiori di due generi di margherita, Crepis e Leontodon, si aprivano e si chiudevano ogni giorno con uno scarto temporale di circa mezz’ora. Progettò allora di piantare queste margherite insieme all’iperico, al tagete, alle ninfee e ad altre specie di fiori, disponendole in cerchio in modo che i ritmici movimenti di apertura e chiusura delle corolle avrebbero rappresentato le efficaci lancette di questo orologio floreale. Oltre ai ritmi con cadenza quotidiana esistono ritmi che hanno un periodo più breve (ritmi “ultradiani”) come quello “intertidale”, che corrisponde all’intervallo fra due alte maree (12,8 ore circa), e quello cardiaco, che pulsa circa una volta al secondo. Ci sono poi i ritmi “infradiani”, che hanno una periodicità che supera il giorno, come i ritmi “circalunari” (29,5 giorni circa) e “annuali” (365 giorni circa), che regolano comportamenti come la migrazione, la riproduzione, l’ibernazione. Alcuni ritmi hanno periodicità addirittura pluri-decennale. È il caso della Magicicada, un genere di cicala diffusa nel Nord America che ha un ciclo vitale di 17 anni e per questo viene chiamata “cicala dei 17 anni”. Questi insetti passano sotto terra la loro vita di ninfe, nutrendosi dei succhi delle radici degli alberi. Dopo 17 anni esatti abbandonano tutti insieme il terreno, crescono e si trasformano in crisalidi. Da queste si sviluppano insetti alati che vivono sugli alberi e per qualche giorno organizzano un concerto così forte da costringere gli umani a tapparsi le orecchie. Durante il periodo di vita arborea avviene la riproduzione, dopo di che spariscono nuovamente nel terreno e inizia un nuovo ciclo di vita. L’ultimo concerto risale al 2004. Oltre a queste cicale, ce ne sono altre che si affacciano sulla superficie terrestre precisamente ogni 13 anni, le “cicale dei 13 anni”. Ma come fanno le cicale a sapere che sono trascorsi proprio 17 o 13 anni ed è ora di fare la loro comparsa in superficie? Evidentemente questi insetti devono ubbidire a segnali precisi, tuttora sconosciuti, che comunicano loro quando è ora di svegliarsi e di moltiplicarsi.
L’enigma del tempo e i ritmi della vita
193
Un analogo comportamento misterioso si riscontra anche nel mondo vegetale, in una pianta che porta il nome di Phyllostachys bambusoides. Si tratta di una specie di bambù che fiorisce ogni 120 anni in Giappone e ogni 60 anni in India. Negli anni 1996-97, dopo una fioritura eccezionale morirono, anche in Europa, (quasi) tutti gli esemplari della Fargesia murielae, un’altra specie di bambù. Per diversi anni le poche piante sopravvissute si moltiplicarono in maniera asessuata, sviluppando radici sotterranee. Anche in questo caso, evidentemente, era all’opera un qualche stimolo misterioso che regolava questi cicli.
9. Cronobiologia Ci sono alcune specie di mimosa le cui foglie si distendono all’alba e si ripiegano al tramonto. Che cosa accadrebbe se si chiudesse una di queste piante in una stanza buia, al riparo dal condizionamento della luce del Sole? Allargherebbe e ripiegherebbe le proprie foglie alla stessa maniera? E con quale ritmo? Il primo esperimento, riportato dalle cronache scientifiche, fu compiuto nel 1729 dall’astronomo francese Jean Jacques Dortous de Mairan. Lo scienziato pose una Mimosa pudica (che noi chiamiamo “sensitiva”) in una stanza completamente buia e osservò un fenomeno che per lui era sorprendente: per molti giorni le foglie continuarono ad aprirsi e a chiudersi in sincronia con l’avvicendarsi esterno del giorno e della notte. Mairan ipotizzò che il comportamento della mimosa fosse guidato da un qualche segnale, ad esempio dalla temperatura o da un campo magnetico ignoto che comunicava alla pianta l’ora di apertura e di chiusura delle foglie. Alcuni decenni dopo, fu ripetuto l’esperimento a temperatura costante, ma il risultato fu il medesimo. Sarebbero dovuti passare più di due secoli prima che gli scienziati capissero che tutte le piante e tutti gli animali possiedono i loro orologi privati e che persino le singole cellule ne hanno uno che le fa oscillare con un periodo di 24 ore. L’alga monocellulare Goniaulax poliedra, ad esempio, ogni giorno, poco prima della mezzanotte, emette luce in maniera gagliarda per un paio d’ore e lo stesso comportamento si conserva anche quando
194
Cinque parole della scienza
l’alga è isolata in un ambiente rigorosamente controllato. Anche le singole cellule, quindi, possiedono qualcosa che somiglia a un orologio interno. E che cosa avviene se si ripete, con le dovute modifiche e cautele, l’esperimento della mimosa su un essere umano, chiudendolo per qualche tempo in un ambiente senza nessun contatto con l’esterno? Ovviamente, il recluso non deve portare con sé un orologio, né una radio, né un cellulare, né un televisore e deve soltanto seguire, senza nessuna interferenza esterna, il proprio bioritmo. Continuerà a regolare il suo ritmo sonno-veglia sulle 24 ore, oppure ne troverà un altro? E che cosa accadrà agli altri suoi bioritmi? Il primo esperimento di questo genere fu compiuto, involontariamente, da un geologo francese, Michel Siffre, nel 1962. Siffre aveva da poco scoperto un ghiacciaio sotterraneo in una caverna nel Sud della Francia e si domandava come un uomo potesse cavarsela in posti simili, in solitudine e senza vedere il Sole. Decise allora di rimanere nella grotta per due mesi per sperimentare l’effetto che una vita passata perlopiù al buio e senza conoscere l’ora avrebbe avuto sul suo equilibrio psichico. Piantò una tenda e l’arredò con un sacco a pelo e una branda. Dormiva, si alzava, mangiava quando ne aveva voglia e teneva un registro delle sue attività. Il suo unico contatto con la superficie avveniva attraverso il telefono. Chiamava con regolarità i suoi colleghi – che erano fuori e che avevano l’ordine tassativo di non fornire nessun indizio né sul giorno né sull’ora – per riferire sul suo stato di salute. Siffre entrò nella caverna il 16 luglio e aveva pianificato di lasciarla il 14 settembre. Ma durante quello che, secondo il suo calendario, era il 20 agosto, i suoi colleghi lo chiamarono per dirgli che la sua permanenza era finita, che il suo tempo era scaduto. Secondo i suoi calcoli erano passati solo 35 giorni, mentre secondo l’orologio esterno ne erano trascorsi 60. Siffre, con il suo esperimento, fu il primo a dimostrare che il nostro ciclo circadiano non dura 24 ore ma all’incirca 25. Era sceso nella grotta con l’obiettivo di studiare gli effetti dell’isolamento estremo sulla propria psiche e ne era risalito come l’involontario pioniere della cronobiologia umana.
L’enigma del tempo e i ritmi della vita
195
Negli anni successivi l’esperimento di Siffre fu ripetuto, con le opportune migliorie, da molti studiosi in tutto il mondo raggiungendo durate di permanenza di alcuni mesi. Il primato spetta a un sociologo italiano, Maurizio Montalbini, che nel 1992 trascorse oltre un anno (366 giorni) in una grotta del monte Nerone a Piobbico (PU); quando ne uscì, il 5 dicembre, credeva fosse il 6 giugno. Un limite di questi esperimenti è che l’isolamento effettivo dai segnali circadiani esterni possa non essere completo. Le grotte, ad esempio, sono popolate da pipistrelli e insetti, i quali potrebbero offrire a chi vive nella grotta degli indizi, seppur inconsapevoli, circa lo scorrere del tempo esterno. Per fronteggiare questi limiti, i cronobiologi hanno organizzato esperimenti di isolamento in bunker appositamente equipaggiati. I risultati hanno confermato quelli degli esperimenti in grotta: la maggioranza dei partecipanti stimava che la durata dell’esperimento fosse il 20-40 per cento più breve di quella effettiva. In quasi tutti gli esperimenti vennero anche monitorati molti parametri fisiologici, tra cui la temperatura corporea. Ciò portò gli scienziati a una scoperta sorprendente: la temperatura corporea oscillava tra i 36,5° e i 37,5° con un ritmo di 25 ore, scendendo ai livelli più bassi durante il sonno. Tuttavia il ritmo sonno-veglia e quello della temperatura non erano necessariamente in accordo. Anche accorciando o allungando il ritmo sonno-veglia il ritmo dell’alternanza della temperatura rimaneva regolato sulle 25 ore.
10. L’orologio è nel cervello? Ebbe così inizio la ricerca dell’orologio interno degli esseri umani e dei mammiferi in generale. Si partì supponendo che si trovasse nel cervello e si pianificarono esperimenti per rintracciarlo. Quale struttura organizza gli stimoli nervosi e in che cosa consiste il dispositivo che li distribuisce nel tempo a seconda dell’orario? I cronobiologi avevano ipotizzato da molto tempo l’esistenza di un orologio interno la cui funzione doveva essere quella di regolare, in maniera centralizzata, i principali processi fisiologici. Solo nel 1972 però alcuni ricercatori fecero una scoperta che spianò la stra-
196
Cinque parole della scienza
da all’identificazione della regione del cervello capace di organizzare i tempi dell’organismo. Scoprirono che i topi hanno una sottile fibra nervosa che parte dalla retina ma non termina – come la gran parte delle fibre nervose di quel tipo – al centro visivo del cervello; raggiunge una piccola area dell’ipotalamo, situata alla base del cervello. In alcune cavie distrussero quest’area cerebrale e constatarono che gli animali, pur rimanendo assolutamente in salute, avevano perso ogni tipo di ritmo nelle loro giornate. Ecco trovato l’orologio centrale. Quella minuscola area cerebrale venne chiamata “nucleo soprachiasmatico”, per via della sua localizzazione sopra il chiasma ottico, il punto in cui i nervi provenienti dai due occhi si incrociano. Negli esseri umani si trova qualche centimetro dietro la radice del naso ed è formata da circa 50.000 cellule. Il nucleo soprachiasmatico invia segnali nervosi alle ghiandole che rispondono secernendo i loro ormoni nel corpo. Così, ad esempio, all’epifisi viene ordinato di secernere il proprio ormone, la melatonina, principalmente di notte, per disporre il corpo al sonno. All’ipofisi, invece, viene ordinato di secernere, con diversa tempistica, segnali chimici che, attraverso la circolazione sanguigna, raggiungono altre ghiandole e le attivano. Il nucleo soprachiasmatico, in virtù della sua connessione diretta con la retina, svolge inoltre la funzione di sincronizzare i ritmi corporei con il ritmo luce-buio del mondo esterno.
11. Cellule che misurano il tempo Avere un cervello è un prerequisito per possedere un ritmo circadiano? Individuare e anticipare le fluttuazioni di luce e temperatura imposte dalla rotazione terrestre è così importante che praticamente tutte le forme di vita sono dotate di orologi circadiani. Persino le singole cellule presentano oscillazioni con un periodo di 24 ore. Le cellule non sono entità statiche. A seconda della funzione che stanno svolgendo, le concentrazioni di diverse proteine al loro interno cambiano drasticamente. Durante i pasti, ad esempio, le cellule delle pareti dell’intestino aumentano la produzione degli enzimi digestivi. Analogamente, quando vi è un aumento del glucosio
L’enigma del tempo e i ritmi della vita
197
nel flusso sanguigno, le cellule del pancreas incrementano la produzione di insulina. Le cellule, però, non sono semplici interruttori regolati da stimoli esterni, ma possiedono ritmi interni propri. Se mantenute a temperatura costante in un ambiente biochimico immutabile, manifestano il proprio ritmo circadiano accrescendo e riducendo la concentrazione di alcune loro proteine con un periodo di circa 24 ore. Tutte le cellule, da quelle batteriche a quelle dei mammiferi, hanno un certo numero di geni capaci di regolare la produzione di determinate proteine in dipendenza dalla loro stessa concentrazione. Il primo di questi geni venne scoperto nel 2001 e fu chiamato Period. Quando la concentrazione della proteina “Period”, frutto dell’attività sintetica di Period, è minima, l’attività del gene aumenta in modo che la concentrazione di “Period” all’interno della cellula cresca costantemente. Quando però viene raggiunta la concentrazione massima, incomincia il processo inverso: la produzione della proteina viene interrotta fino a quando, per normale degradazione, la concentrazione torna ai suoi valori minimi. A quel punto il gene Period riprende la sua attività e ha inizio un nuovo ciclo. È forse superfluo aggiungere che la durata di ogni ciclo è di 24 ore. Studi successivi hanno individuato diversi altri geni che rivestono un ruolo essenziale nel funzionamento dell’orologio circadiano. I loro nomi sono evocativi del tempo che passa: Clock (Orologio), Cycle (Ciclo), Timeless (Senza tempo, Immutabile). Negli organismi pluricellulari, gli orologi delle singole cellule sono coordinati dall’orologio centrale del nucleo soprachiasmatico. Di come ciò accada non se ne ha ancora la più pallida idea.
12. Conclusione Il tempo segnato dagli orologi circadiani è, in massima parte, precluso alla coscienza. Sì, ci sentiamo svegli o assonnati a seconda della concentrazione di certe proteine all’interno delle cellule o di certi segnali provenienti dal nucleo soprachiasmatico, ma non sperimentiamo il momento del giorno allo stesso modo in cui sentiamo, ad esempio, il calore del Sole. Tuttavia, abbiamo una percezio-
198
Cinque parole della scienza
ne vivida del passare del tempo e, mentre gli eventi si svolgono, siamo acutamente consapevoli della loro durata. È evidente che il cervello possiede altri mezzi per giudicare il passaggio del tempo. Mezzi che trascendono la misurazione passiva del tempo e generano in qualche modo una sensazione “soggettiva” del suo scorrere. Non abbiamo recettori speciali per il tempo, come accade per la luce o il suono, ma esso ci raggiunge in maniera indiretta, attraverso ciò che contiene. Un’affermazione divenuta fondamentale per molti studiosi del tempo è che gli eventi sono percepibili, mentre il tempo non lo è. Il tempo, infatti, non è una cosa, ma un passaggio attraverso cose. Non è un nome, ma un verbo. Che cos’è “leggere” senza le parole e la progressione dall’una all’altra? Il tempo è semplicemente la parola con cui indichiamo il succedersi delle sensazioni che il susseguirsi degli eventi genera in noi stessi. Anche sant’Agostino era dello stesso parere. Nelle Confessioni (Libro XI, cap. 27) scriveva: «In te, anima mia, misuro il tempo. Non frastornarmi con i tuoi “cosa? come?”. Non frastornare te stessa con la folla delle tue impressioni. In te, dico, io misuro il tempo. Si, l’impressione che le cose passando producono in te rimane quando le cose son passate: è questa che è presente, non quelle, che son passate perché lei ne nascesse. È questa che misuro, quando misuro il tempo. Il tempo è lei – o non è il tempo quello che misuro». Non percepiamo il “tempo”, ma soltanto il suo passaggio.
Nota bibliografica A. Benini, Neurobiologia del tempo, Raffaello Cortina, Milano 2017. C. Borghi, Dagli orologi al tempo. Verso una nuova teoria del tempo, Mimesis, Milano-Udine 2018. D. Buonomano, Il tuo cervello è una macchina del tempo, Bollati Boringhieri, Torino 2018. A. Burdick, Perché il tempo vola, Il Saggiatore, Milano 2018. D. Calonico – R. Oldani, Il tempo è atomico. Breve storia della misura del tempo, Hoepli, Milano 2013. R. Foster – L. Kreitzman, I ritmi della vita, Longanesi, Milano 2007.
L’enigma del tempo e i ritmi della vita
199
S. Hawking, Dove il tempo si ferma. La nuova teoria sui buchi neri, Rizzoli, Milano 2016. W. Kinnebrock, Dove va il tempo che passa. Fisica, filosofia e vita quotidiana, Il Mulino, Bologna 2013. E. Klein, Il tempo non suona mai due volte, Raffaello Cortina, Milano 2008. S. Klein, Il tempo. La sostanza di cui è fatta la vita, Bollati Boringhieri, Torino 2015. O. Marchon, Il 30 febbraio. E altre curiosità sulla misurazione del tempo, Archinto, Milano 2018. C. Rovelli, Che cos’è il tempo? Che cos’è lo spazio?, Di Renzo, Roma 2013. C. Rovelli, L’ordine del tempo, Adelphi, Milano 2017. J. Silvertown, Mille anni o un giorno appena. I segreti della durata della vita, Bollati Boringhieri, Torino 2015.
Informatica, logica e tempo Angelo Montanari
1. Introduzione1 In questo contributo ci occuperemo della nozione di tempo in logica e informatica. Vogliamo, però, iniziare la nostra riflessione con alcune brevi considerazioni di natura pratica/esistenziale sul tempo, legate al lavoro concreto dello scienziato (e non solo), a partire dalla constatazione che molte attività hanno bisogno di tempo. Innanzitutto, in un periodo storico in cui assistiamo a molteplici e variegate forme di ignoranza al potere, crediamo sia importante ribadire la necessità di avere del tempo per studiare e prepararsi: non esistono scorciatoie che permettano di evitare tale passaggio. Sarebbe, però, sbagliato immaginare che la disponibilità di un tempo adeguato sia richiesta soltanto negli anni della formazione: occorre sempre del tempo per pensare, per riflettere, per cercare la soluzione di un problema. In matematica (ma situazioni analoghe si presentano in diverse altre discipline), si incontrano di frequente problemi che richiedono giorni di analisi e studio (e di tentativi falliti) per poter essere risolti, altri che hanno richiesto mesi o anni per la loro risoluzione e problemi aperti da decenni se non da secoli. L’informatica ci ha, inoltre, mostrato che il tempo è necessario non soltanto all’uomo, ma anche alla macchina (calcolatore). Ci sono elaborazioni particolarmente complesse (ciò accade, ad esempio, nell’ambito dei Big Data) che richiedono un tempo di calcolo molto elevato per la loro esecuzione. Ci sono addirittura dei problemi la cui risoluzione, sia pure possibile da un punto di vista teorico, richiede una tale quantità di tempo da renderli praticamente irrisolvibi Angelo Montanari, Informatica, Università di Udine.
1
202
Cinque parole della scienza
li (sulla complessità dei problemi espressa in termini del tempo di calcolo richiesto per risolverli torneremo più avanti). Il contributo è organizzato in tre capitoli. Nel primo forniremo un inquadramento generale del tema, richiamando alcuni contributi fondamentali allo studio del tempo offerti dalle varie discipline, spaziando dalla linguistica alla fisica. Nel secondo ripercorreremo la riflessione logico-filosofica sul tempo da Aristotele ai giorni nostri, evidenziando alcuni passaggi cruciali. Nel terzo ci soffermeremo sul ruolo del tempo in informatica2.
2. Tempo: un inquadramento generale Sgombriamo subito il campo da possibili fraintendimenti: non è questo un contributo in cui si cerca di rispondere al famoso interrogativo di Sant’Agostino: «Cos’è il tempo?» («Cos’è il tempo allora? Se nessuno me lo chiede, lo so; se voglio spiegarlo a qualcuno che me lo chiede, non lo so», Confessioni XI, c. XIV, XVII). Ci limiteremo ad illustrare il modo in cui la nozione di tempo è presente in alcune specifiche discipline, in particolare la logica e l’informatica, e solo indirettamente ciò potrà favorire la comprensione di certi aspetti del concetto generale di tempo, senza alcuna pretesa di completezza. Uno degli elementi più interessanti, che possiamo già anticipare, è l’individuazione di un filo rosso che lega fra loro diverse problematiche relative al tempo che emergono all’interno delle varie discipline. Ad esempio, alcune questioni classiche riguardanti la natura del tempo, da sempre oggetto della riflessione logico-filosofica, riemergono più o meno esplicitamente nella ricerca contemporanea in ambito logico-matematico e informatico. Esse comprendono, per citarne solo alcune, la scelta delle unità di tempo fondamentali (punti o intervalli?), la natura discreta o densa del tempo, la struttura lineare, ramificata o circolare del tempo, il cosiddetto problema del dividing instant. Accanto a tali convergenze, vi sono ovviamente dei punti di discontinuità fondamentali anche all’interno 2 Una versione preliminare di questo lavoro è apparsa in: Angelo Montanari, La logica del tempo. Da Aristotele alla scienza dei calcolatori, in Il tempo: Bibbia, Scienza, Filosofia, Quaderni del Centro di Studi Biblici di Sacile, Vol. 7, 2007, pp. 91-109.
Informatica, logica e tempo
203
delle singole discipline. È questo il caso, ad esempio, della nozione di tempo assoluto. La fisica prerelativistica postulava l’esistenza di un tempo universale, uguale per tutti gli osservatori. Scrive Newton nei Principia: «Il tempo assoluto, vero e matematico fluisce di per se stesso e per la sua propria natura, in modo eguale senza relazione con alcuna cosa esterna»3. A tale concetto di tempo assoluto si oppone Leibniz: se per Newton l’universo ha un orologio (gli istanti di tempo esistono indipendentemente dagli eventi), per Leibniz è un orologio (il tempo è derivato dagli eventi, non viceversa). 2.1. Tempo oggettivo e soggettivo Un’altra distinzione che ricorre in molte riflessioni sul tempo è quella tra tempo oggettivo e tempo soggettivo. L’esempio classico di tempo oggettivo è il calendario gregoriano e l’insieme di strumenti concettuali e pratici che ad esso s’accompagnano (date, orologi, ecc.). Il tempo soggettivo è, invece, comunemente associato alla nozione di istante corrente (tempo presente) e all’idea di una direzione del tempo (passato/presente/futuro). Si tratta, in verità, di una distinzione controversa. Come osservato, ad esempio, da Lawrence, ogni concetto di tempo sorge nel contesto di una specifica attività umana, finalizzata ad uno dato scopo, ed è segnato, in modo inevitabile ed essenziale, da tale scopo4. Ciò vale sia per il tempo oggettivo sia per il tempo soggettivo. Una critica analoga dell’idea di un tempo oggettivo è presente anche in Heidegger5. 2.2. Tempo e linguaggio Come già osservato, molteplici sono le discipline nelle quali la nozione di tempo gioca un ruolo essenziale. Fra di esse, l’analisi del linguaggio naturale occupa sicuramente un posto privilegiato. Un’investigazione sistematica del concetto di tempo non può, infatti, pre I. Newton, Philosophiae Naturalis Principia Mathematica, 1687. N. Lawrence, Levels of Language of Discourse about Time, in The Study of Time III, Proceedings of the Third Conference of the International Society for the Study of Time, J.T. Fraser – N. Lawrence – D.A. Park (edd.), Springer, Alpbach (Austria) 1978, pp. 22-52. 5 Si veda, ad esempio, M. Heidegger, Der Begriff der Zeit, 1924. 3 4
204
Cinque parole della scienza
scindere dallo studio delle caratteristiche e degli strumenti generali della comunicazione (linguistica). Buona parte della filosofia del Novecento è caratterizzata da un approccio logico-linguistico ai problemi filosofici e lo studio del linguaggio, in particolare lo studio del significato delle espressioni in linguaggio naturale, è essenziale per la comprensione del tempo. In tale contesto, la logica si è rivelata strumento essenziale per l’analisi e la formalizzazione delle strutture sintattiche e semantiche del linguaggio naturale. Il tentativo di fornire una caratterizzazione logica del linguaggio naturale, a partire dai filosofi e teologi medievali fino a Prior, coinvolge in modo essenziale il trattamento della dimensione temporale. Per catturare la dimensione temporale, costitutiva del linguaggio naturale, è stata sviluppata, in particolare, la logica dei tempi verbali (in inglese, tense logic)6. Più in generale, per formalizzare in modo rigoroso e, al tempo stesso, naturale la nozione di tempo si è passati dalla verità atemporale della logica classica ai modi della verità della logica modale/temporale. Vogliamo illustrare tale passaggio attraverso alcuni esempi. I primi tre sono esempi di verità atemporali di natura diversa. La verità dell’enunciato: «Se nessuno scapolo è un uomo felice, allora nessun uomo felice è scapolo» (Carnap) dipende unicamente dal significato delle parole logiche “se”, “allora”, “non” ed “è”, non dal significato delle parole “scapolo”, “felice” e “uomo”. Al contrario, la verità dell’enunciato: «Nessuno scapolo è sposato» (Quine) dipende dal significato attribuito alle parole “scapolo” e “sposato” o, meglio, dal sapere che tali parole hanno significati incompatibili. Il terzo enunciato: «I corpi cadono verso la terra con una accelerazione di 9,8 metri al secondo per secondo» (Carnap) è di natura diversa: la sua verità (atemporale) dipende dall’informazione fattuale sul mondo fisico7. I prossimi tre esempi sono, invece, affermazioni la cui verità (o falsità) dipende dal tempo. La verità dell’affermazio6 Come avremo modo di approfondire in seguito, i destini del linguaggio e della logica (temporale) sembrano essere strettamente legati. L’interesse/disinteresse per l’uno e per l’altra sembrano procedere di pari passo. Non a caso, la nozione di linguaggio (formale) occupa una posizione centrale in informatica. 7 In verità, dovremmo collocare la verità di un tale enunciato all’interno di un opportuno modello/teoria del mondo fisico e delle leggi che lo definiscono. Ciò esula, però, dal significato inteso dell’esempio nel nostro specifico contesto.
Informatica, logica e tempo
205
ne: «Il presidente della repubblica italiana è calvo» può variare nel tempo in quanto dipende dal momento in cui è/è stata formulata. Il secondo è un esempio ben noto proposto da Aristotele: «Domani ci sarà una battaglia navale». È possibile assegnare un valore di verità, e se sì quale, ad un’affermazione di questo tipo? Torneremo estesamente su tale esempio nel prossimo capitolo. L’ultima affermazione: «Se è vero che sto facendo una certa cosa, allora sarà sempre vero che ho fatto quella determinata cosa» rimane vera quale che sia la cosa che sto facendo (ad esempio, tenere un seminario su logica, informatica e tempo). In riferimento agli esempi proposti, vogliamo fare due osservazioni. La prima: non bisogna confondere la tradizionale distinzione tra verità analitiche e verità sintetiche/fattuali con la distinzione tra logiche classiche e logiche modali/temporali. Si tratta di distinzioni in larga misura ortogonali. La seconda: a differenza di quelle della logica classica, le proposizioni della logica temporale sono funzioni proposizionali con argomenti temporali (la terminologia è mutuata da van Frassen), ossia non sono semplicemente vere o false, ma sono vere o false in un dato istante/intervallo temporale. 2.3. Il tempo della fisica La storia della nozione di tempo in fisica è una storia lunga e articolata, che ha subito delle trasformazioni radicali. Qui ci limitiamo a ricordare alcuni passaggi fondamentali. Il legame costitutivo tra tempo e cambiamento, dove il cambiamento coinvolge in qualche forma il movimento, descrivibile attraverso il numero, è già presente nel pensiero di Aristotele. Torneremo su tale legame all’inizio del prossimo capitolo. Il tempo riveste un ruolo essenziale nella meccanica newtoniana (meccanica classica). Lo troviamo, infatti, nelle leggi della cinematica e della dinamica. In tali leggi, possiamo rilevare una perfetta simmetria temporale tra futuro (predizioni) e passato (postdizioni). Il tempo è presente anche nel lungo percorso che conduce dai paradossi di Zenone (l’infinita divisibilità del tempo/tempo denso) all’analisi infinitesimale8. 8 Della distinzione tra (tempo) discreto e denso ci siamo occupati in A. Montanari, Discreto (e continuo) in matematica e informatica, in M. Bernardoni – S. Rondinara (edd.), Continuo, Discreto, SEFIR-Città Nuova, Roma 2016, pp. 77-94.
206
Cinque parole della scienza
Il primo rivolgimento radicale si ha col passaggio dalla meccanica classica alla meccanica statistica (o termodinamica). Le leggi della termodinamica descrivono le trasformazioni cui è soggetto un sistema per effetto di un processo di scambio di energia con altri sistemi o con l’ambiente esterno. Una caratteristica fondamentale dei processi termodinamici è la loro irreversibilità, che definisce un verso privilegiato del tempo (la freccia del tempo), rompendo la simmetria del tempo della meccanica classica. La grandezza utilizzata per descrivere tali processi è l’entropia, che misura il grado di equilibrio raggiunto da un sistema in un dato istante. In tutti i processi termodinamici relativi ad un sistema isolato, l’entropia non può mai diminuire. In meccanica statistica, l’entropia può essere intrepretata come (una funzione crescente del) la probabilità che un sistema si trovi in un dato stato macroscopico. I sistemi isolati evolvono in modo spontaneo verso configurazioni a entropia maggiore, che corrispondono a situazioni (a livello microscopico) con un grado minore di ordine. Ulteriori radicali revisioni della nozione tradizionale di tempo avvengono per effetto della teoria della relatività e della meccanica quantistica, che fanno venir meno alcune proprietà apparentemente indubitabili del tempo fisico, quali, ad esempio, il suo scorrere uniforme (ossia l’unicità del tempo) e la possibilità di riferirsi ad un tempo presente (l’espressione adesso perde di significato)9.
3. Logica e tempo In questo capitolo, illustreremo alcuni passaggi fondamentali della lunga e articolata riflessione logico-filosofica sulla natura del tempo in una prospettiva storica10. Ovviamente, simili ricostruzio Per una trattazione approfondita del ruolo fondamentale della nozione di tempo in fisica, rimandiamo ai diversi testi disponibili sull’argomento. Ci limitiamo a segnalare un testo classico sui fondamenti filosofici della fisica: R. Carnap, Philosophical Foundations of Physics, Basic Books Inc., New York 1966, e un recente testo di natura divulgativa: C. Rovelli, L’ordine del tempo, Adelphi, Milano 2017. 10 Lo sviluppo dei rapporti tra logica e tempo nel corso dei secoli, così come descritto nel presente capitolo, è l’argomento del libro: P. Ohrstrom – P.F.V. Hasle, Temporal Logic. From Ancient Ideas to Artificial Intelligence, Kluwer Academic Publishers, 9
Informatica, logica e tempo
207
ni si scontrano con un problema metodologico fondamentale, che non è possibile evitare: in quale misura è lecito utilizzare gli strumenti della logica contemporanea per (ri)formulare problemi classici, quali, ad esempio, la battaglia navale di Aristotele e l’“argomento vittorioso” di Diodoro Crono, di cui ci occuperemo a brevissimo, quando una delle principali difficoltà, se non la difficoltà, di questi problemi era proprio l’assenza di un formalismo adeguato per la loro formulazione? Lasciamo la questione aperta. Sottolineiamo solo come l’obiettivo di questo capitolo sia essenzialmente quello di evidenziare come alcuni problemi centrali riguardanti il trattamento del tempo nella ricerca contemporanea in logica e informatica abbiano delle naturali controparti in alcune questioni classiche della riflessione logico-filosofica sulla natura del tempo. Volendo dare un minimo di strutturazione alla storia dei rapporti tra logica e tempo, si possono distinguere tre fasi fondamentali: sintesi, dissociazione, riconciliazione. A partire dalla filosofia classica, fino alla riflessione medievale, quella che, con un’espressione corrente, potremmo definire la logica del tempo è, a pieno titolo, parte integrante della riflessione filosofica e teologica (sintesi). L’attenzione alla dimensione temporale viene, invece, meno in età rinascimentale (dissociazione). Tornerà a far parte dell’agenda della riflessione logico-filosofica, per non uscirne più, nel diciannovesimo secolo (riconciliazione). 3.1. Sintesi La ricchezza degli studi classici e medievali sul tempo è testimoniata dal numero e dalla qualità dei protagonisti. Dei rapporti tra movimento e tempo si occupa già Aristotele, che solleva il problema dei contingenti futuri attraverso il famoso esempio della battaglia navale. Il legame tra possibilità e necessità è l’oggetto dell’“argomento vittorioso” di Diodoro Crono. Sull’amplatio, ovve1995, cui siamo fortemente debitori. Una breve analisi critica del contenuto del libro, dal punto di vista logico-matematico, è fornita nella recensione: A. Montanari – A. Policriti, Temporal Logic. From Ancient Ideas to Artificial Intelligence, by Peter Ohrstrom and Per F.V. Hasle (book review), in «Journal of Symbolic Logic», vol. 62, n. 3, settembre 1997, pp. 1044-1046.
208
Cinque parole della scienza
ro su quei termini che fanno riferimento ad entità che attualmente non esistono, riflette Alberto di Sassonia. Fra le questioni a lungo dibattute vi sono anche quelle relative alla durata del presente (su cui si sofferma Buridano) e quelle che riguardano la caratterizzazione temporale dell’inizio e della fine di un dato stato delle cose o di un certo accadimento (incipit/desinit). Le relazioni tra tempo e conseguenza logica sono fra gli argomenti studiati da Ockham e Buridano, così come ai connettivi e alle proposizioni temporali (temporalis) si interessano Avicenna e Buridano. Infine, la questione relativa ai legami tra prescienza divina, determinismo e libero arbitrio è affrontata da numerosi pensatori, compresi Anselmo e Ockham. Quest’ultima questione verrà trattata in seguito, fra gli altri, anche da Leibniz. Concentreremo la nostra attenzione solo su alcuni di questi temi. La riflessione sul tempo di Aristotele muove dalla constatazione dello stretto legame che intercorre tra tempo e movimento. Il movimento è caratteristica distintiva della sostanza sensibile, oggetto di indagine della filosofia seconda, o fisica. Esso caratterizza il passaggio dall’essere in potenza all’essere in atto. Sua proprietà fondamentale è la continuità e nel continuo si distinguono il prima e il poi: «Il tempo è il numero del movimento secondo il prima e il poi» (Aristotele, Fisica). Per Aristotele, il tempo è un infinito potenziale, in quanto non può esistere tutto assieme attualmente, ma si svolge e si accresce senza fine. All’interno di tale riflessione si colloca il famoso esempio della battaglia navale, che pone il problema dei contingenti futuri, ossia del legame tra tempo, verità e possibilità. Nel De Interpretatione, Aristotele si domanda come vadano interpretate le affermazioni: «Domani ci sarà una battaglia navale» e «domani non ci sarà una battaglia navale». Possiamo oggi attribuire un valore di verità, vero o falso, a tali affermazioni? O, al contrario, dobbiamo affermare che il loro valore di verità è indeterminato e che, quindi, non si può affermare che esse possiedano oggi un effettivo valore di verità? Le risposte a tali questioni sono strettamente connesse alle nozioni modali di necessità e possibilità, ossia di quelli che la logica modale contemporanea chiama i modi della verità. Se assumiamo la verità della prima affermazione oggi, non ne segue che essa è necessariamente vera oggi? Ancora, se domani dovessimo constatare
Informatica, logica e tempo
209
che non vi è stata alcuna battaglia, sarebbe corretto affermare oggi una tale possibilità? Sulla base di un’assunzione di base di indeterminatezza, Aristotele afferma che nessuna delle due affermazioni è oggi necessaria (necessariamente vera). Lo stesso non vale per affermazioni relative al passato o al presente, che per Aristotele sono o necessariamente vere o necessariamente false. La riflessione di Aristotele attorno alla distinzione tra possibile e contingente è stata oggetto dell’attenzione di diversi logici del secolo scorso. Secondo Lukasiewicz, Aristotele considera le affermazioni (proposizioni) relative a fatti futuri contingenti né vere né false. In accordo con tale interpretazione, egli vede nella posizione di Aristotele un argomento in favore delle logiche a tre valori (vero, falso e indefinito/indeterminato). Una diversa lettura della posizione aristotelica viene fornita da Rescher, il quale mostra come un’interpretazione realista, che mantenga il principio di bivalenza (vero/falso), possa essere consistentemente sostenuta, riprendendo il punto di vista di molti filosofi medievali. Per un certo periodo, Prior condivise l’interpretazione di Lukasiewicz, ritenendola l’unica via possibile per costruire una logica temporale non deterministica. Successivamente, però, egli propose due diverse logiche temporali non deterministiche bivalenti (vero/falso), l’una basata su idee di Ockham, l’altra su idee di Peirce. La risposta alla questione circa la possibilità di modellare i futuri contingenti (non determinismo) con le nozioni modali di necessità e possibilità viene trovata nel tempo ramificato. Scrive Burgess: «Se il determinista vede il tempo come una linea, l’indeterminista lo vede come un sistema di cammini ramificati»11. In modo sintetico (e un po’ semplificato), potremmo dire che il determinismo si identifica con la nozione di tempo (futuro) lineare, il non determinismo con la nozione di tempo (futuro) ramificato12. A tali considerazioni si lega naturalmente l’“argomento vittorioso” di Diodoro Crono, che fu interpretato nel mondo classico J.P. Burgess, The unreal future, in «Theoria», 44(1978)3, pp. 157-179. È interessante osservare come l’asimmetria tra futuro (contingente e, quindi, ramificato) e presente/passato (univoco e, pertanto, lineare) si ritrovi nelle logiche degli alberi computazionali (Computational Tree Logics, abbreviate CTL, CTL*) comunemente utilizzate in informatica per modellare le computazioni nondeterministiche dei sistemi. 11 12
210
Cinque parole della scienza
come un argomento a favore della verità del fatalismo. Sfortunatamente, solo le premesse e la conclusione dell’argomento sono note. L’“argomento vittorioso” è un trilemma. Nella formulazione di Epitteto, Diodoro prova che le seguenti tre proposizioni non possono essere tutte vere: (i) «Ogni proposizione vera circa il passato è necessaria», (ii) «una proposizione impossibile non può seguire da una possibile» e (iii) «c’è una proposizione che è possibile, ma che non è né sarà vera». Ci si è a lungo domandati quale sia il significato dell’“argomento vittorioso” di Diodoro Crono. Diodoro usa l’incompatibilità delle tre proposizioni, in combinazione con la plausibilità delle prime due, per concludere la falsità della terza. Assumendo la verità delle prime due proposizioni, Diodoro definisce le nozioni di possibilità e necessità nel seguente modo: il possibile è ciò che è o sarà vero, il necessario è ciò che, essendo vero, non può essere falso. Tali definizioni sono molto vicine a quelle della logica modale contemporanea. L’“argomento vittorioso” di Diodoro Crono ha conosciuto nei secoli una notevole fortuna. In particolare, nel secolo scorso è stato interpretato sia come un argomento a favore del determinismo, sia come un tentativo significativo di chiarire le relazioni concettuali tra tempo e modalità. Un altro tema a lungo dibattuto è quello dei limiti temporali, ossia dell’iniziare e del finire (rispettivamente, incipit e desinit). La logica medievale ha dedicato particolare attenzione all’analisi delle problematiche poste dall’uso dei verbi iniziare e finire. Tali problematiche sono legate alla definizione di limite temporale e riprendono questioni in una certa misura già presenti nella Fisica di Aristotele. Si consideri, ad esempio, la differenza che intercorre tra la frase: «Socrate comincia a correre» (o, anche, la frase: «Socrate cessa di vivere») e la frase «Socrate comincia a incanutire». Occorre distinguere tra stati/cose permanenti, che possono manifestarsi simultaneamente (i capelli di Socrate, in un certo istante, possono essere in parte bianchi e in parte no), e stati/cose successivi (non è possibile essere fermi e correre nello stesso istante), che si manifestano uno dopo l’altro. È la distinzione classica tra permanentia e successiva. Come va, dunque, compresa la frase: «Socrate comincia a correre»? Può essere interpretata come: «Ora
Informatica, logica e tempo
211
Socrate non sta correndo, ma correrà immediatamente dopo»? Il problema diventa quello di stabilire come si passa dallo stato di quiete allo stato di moto (ritorna il legame aristotelico tra movimento e tempo). In vari ambiti della logica e dell’informatica contemporanee (ad esempio, nel contesto della rappresentazione della conoscenza e del ragionamento automatico in intelligenza artificiale) tale questione è nota come il problema del dividing instant (l’istante che divide). Nel caso di stati successivi, occorre evitare sia la coesistenza di stati incompatibili (ad esempio, vita e morte) sia la presenza di buchi (gap) nei valori di verità (in ogni stato Socrate o è vivo o è morto). La questione coinvolge vari aspetti della modellazione del tempo, quali, ad esempio, la distinzione tra domini temporali discreti e densi. Nella soluzione di alcuni “sofismi” relativi alla coppia incipit/desinit proposta da Sherwood13 si prefigura la possibilità di distinguere tra tempo discreto e denso attraverso formule (assiomi) della logica temporale, operazione che la logica temporale contemporanea ben conosce. La distinzione tra permanentia e successiva in qualche modo anticipa anche la suddivisione dei verbi in verbi che descrivono stati (permanentia), ad esempio, incanutire; verbi che definiscono eventi istantanei (achievement); verbi che caratterizzano eventi non istantanei/ processi (accomplishment) e verbi che esprimono attività (successiva), come, ad esempio, il verbo correre. In linea con Prior, il rapporto della logica medievale col tempo può essere riassunto nelle seguenti due affermazioni: (i) le distinzioni temporali sono un tema rilevante per la riflessione logica e (ii) ciò che è vero in un dato istante è in molti casi falso in un altro e viceversa. Riletta col vocabolario moderno, la seconda affermazione sostanzialmente asserisce che le formule della logica temporale sono funzioni proposizionali con argomenti temporali. In modo sintetico, possiamo affermare che la logica medievale affronta molti temi fondamentali, ma paga l’assenza di un formalismo adeguato.
13 William of Sherwood, William of Sherwood’s Treatise on Syncategorematic Words. Translated by Norman Kretzmann, University of Minnesota Press, Minneapolis 1968.
212
Cinque parole della scienza
3.2. Dissociazione Nel passaggio dalla scolastica all’umanesimo rinascimentale viene meno l’attenzione per la disciplina della dialettica, in particolare per gli studi e le dispute di natura logica, ritenuti astratti e senza costrutto. Nei secoli successivi prevale il disinteresse per le questioni legate al tempo (non sembra più esserci spazio per il tempo). Ci si occupa dei legami tra la logica e la disciplina della retorica (Valla, Agricola), viene sviluppata la logica umanistica, vista come l’arte dell’argomentazione, che fra i suoi punti programmatici include il rifiuto del linguaggio “artificiale” (oggi diremmo formale/logico) dei logici scolastici (Vives, Ramus). La logica viene considerata una metodologia, separata dal linguaggio (Bacone), e l’attenzione viene rivolta alla verità (logica) senza tempo (Leibniz, Kant, Frege). Per Frege, ad esempio, la verità logica è completamente atemporale: il tempo in cui viene fatta una certa affermazione è considerato parte del pensiero che si vuole esprimere. Ad esempio, se qualcuno vuol dire oggi la stessa cosa che ha detto ieri deve semplicemente sostituire il termine oggi col termine ieri. Non c’è spazio, in tale prospettiva, per una interpretazione delle proposizioni come funzioni nella variabile tempo. 3.3. Riconciliazione La riconciliazione di logica e tempo inizia nell’Ottocento e trova piena realizzazione nel secolo scorso. Dei legami tra logica, linguaggio e tempo si interessa Boole, mentre i rapporti tra tempo e modalità sono oggetto dell’attenzione di Peirce. Come già anticipato, Lukasiewicz stabilisce una connessione tra modellazione del tempo e logica trivalente (vero, falso e indefinito/indeterminato). Dei tempi verbali si occupa anche Reichenbach, che propone una struttura a tre punti dei tempi verbali in cui si distingue fra tempo dell’evento, tempo di riferimento e tempo dell’affermazione. Non necessariamente questi tre tempi sono distinti. Un esempio in cui lo sono è fornito dalla frase: «Io avrò visto Giovanni» (futuro anteriore). Il tempo dell’affermazione precede sia il tempo di riferimento sia il tempo dell’evento. Quest’ultimo si colloca tra il tempo dell’affermazione e il tempo di riferimento.
Informatica, logica e tempo
213
Un ruolo decisivo nella rinascita dell’interesse per la logica del tempo nel secolo scorso è quello di Prior. Il suo contributo spazia su più fronti e meriterebbe una trattazione specifica. La sua ricerca prende le mosse da questioni fondamentali attinenti ai legami tra determinismo, libero arbitrio e tempo ramificato, analizza in profondità i rapporti fra tempo, modalità e logica, fino ad arrivare a sviluppare diversi sistemi formali/calcoli per la logica dei tempi verbali. L’elenco degli interessi di Prior nei confronti della nozione di tempo è, però, molto più ampio. Per fare solo un esempio, egli stabilisce interessanti collegamenti tra l’enfasi posta sul tempo corrente dalla logica dei tempi verbali e la relatività ristretta. Sempre nel secolo scorso irrompe sulla scena un nuovo attore, l’informatica, che porrà il concetto di tempo al centro di molti suoi filoni di ricerca. Nel prossimo capitolo cercheremo di dar conto dei suoi contributi più importanti.
4. Informatica e tempo Il tempo entra in gioco in modo esplicito in un gran numero di aree dell’informatica. Senza alcuna pretesa di completezza, possiamo citare: (i) i sistemi per l’elaborazione del linguaggio naturale (riconoscimento del parlato, traduzione automatica, generazione automatica di sommari ecc.); (ii) i sistemi di pianificazione automatica in intelligenza artificiale (ad esempio, la pianificazione del comportamento di un robot finalizzato al conseguimento di un certo obiettivo, in un dato ambiente, date certe condizioni iniziali); (iii) le basi di dati temporali (archivi medici, sistemi di supporto alle decisioni, i sistemi per il riconoscimento, la modellazione e la gestione di traiettorie ecc.) e (iv) la specifica, verifica e sintesi di sistemi reattivi (sistemi per la produzione e la distribuzione di energia, dispositivi per il monitoraggio di sistemi remoti, sistemi distribuiti e mobili ecc.). In tali aree, la dimensione temporale svolge un ruolo fondamentale. La chiave per comprendere in profondità come il tempo sia visto e usato in informatica è, però, il concetto di algoritmo.
214
Cinque parole della scienza
4.1. Algoritmo Un algoritmo può essere definito come la descrizione finita e non ambigua di una sequenza di operazioni (passi) che consente ad un agente di risolvere un determinato problema. A scopo esemplificativo, consideriamo il problema della ricerca del massimo di un insieme di numeri naturali distinti. Assumiamo (senza perdita di generalità) che il numero n di elementi dell’insieme sia una potenza di 2, ossia che n sia uguale a 2 elevato alla k per qualche numero naturale k (ad esempio, se k è uguale a 3, allora n è uguale a 8) e che gli elementi dell’insieme siano contenuti in una lista non ordinata. Il problema può essere risolto usando diversi algoritmi. Concentriamo la nostra attenzione sui seguenti tre. Il primo verifica se il primo numero della lista è il massimo confrontandolo con gli altri n-1 numeri. Se non lo è, verifica se lo è il secondo confrontandolo con i rimanenti n-2 numeri, e così via. Il secondo algoritmo confronta il primo numero della lista col secondo. Se il primo è più grande del secondo, scambia i due numeri. Successivamente, confronta il secondo numero col terzo. Se il secondo è più grande del terzo, scambia i due numeri, e così via. Al termine, il numero in ultima posizione è il massimo. Il terzo algoritmo confronta il primo numero col secondo e colloca in prima posizione il più grande dei due, confronta il terzo col quarto e pone in terza posizione il più grande dei due, e così via. Effettuati i primi n/2 confronti, riparte confrontando il numero in prima posizione con quello in terza, collocando in prima posizione il più grande dei due, il quinto col settimo, inserendo in quinta posizione il più grande dei due, e così via. Il massimo uscirà dal confronto finale tra il numero in prima posizione e quello in posizione 2 elevato alla k-1 più 1 (ad esempio, se k è uguale a 3, il numero in quinta posizione). In generale, due sono le caratteristiche fondamentali di un algoritmo: uniformità ed effettività. Un algoritmo si applica a tutte le istanze di un problema, potenzialmente un numero infinito, e non ad una singola istanza, e la sua formulazione non dipende dalla singola istanza, ma è la stessa per ogni istanza (uniformità). Inoltre, un algoritmo deve garantire il raggiungimento della soluzione voluta in un tempo finito o, equivalentemente, in un numero finito di passi (effettività). L’ese-
Informatica, logica e tempo
215
cuzione di un algoritmo su una data istanza (input dell’algoritmo) è detta computazione. 4.2. Complessità di algoritmi e problemi Il semplice problema preso in esame ci consente di introdurre le nozioni di complessità di un algoritmo e di un problema. Osserviamo innanzitutto come un problema possa essere risolto da algoritmi diversi. Ne segue la necessità di trovare dei criteri per confrontare un algoritmo risolutivo con un altro. Più in generale, vi è la necessità di valutare la bontà/qualità di un algoritmo che risolve un dato problema. Il tempo, inteso come numero di passi necessario ad un algoritmo per risolvere un problema, è la principale misura della complessità di un algoritmo e anche, come vedremo, della complessità di un problema14. È del tutto evidente che il modello del tempo sotteso al concetto di algoritmo è un modello discreto. Per misurare correttamente la complessità di un algoritmo, e di un problema, occorre prestare attenzione ad alcuni elementi fondamentali. Primo: il tempo (così come lo spazio e l’energia) necessario per l’esecuzione di un algoritmo dipende dalla dimensione dell’istanza considerata, ossia cresce al crescere di tale dimensione. Per fornire una misura uniforme viene svolta un’analisi asintotica della complessità (complessità al crescere della dimensione dell’input). Vi sono, ad esempio, algoritmi che richiedono un tempo lineare nella dimensione n dell’input (è questo il caso del secondo e del terzo algoritmo per la ricerca del massimo descritti in precedenza), altri che richiedono un tempo quadratico in n, altri ancora che richiedono un tempo addirittura esponenziale in n. Secondo: a parità di dimensione, la complessità può variare al variare dell’input. Di norma, si sceglie di analizzare il caso peggiore. Non è l’unica scelta possibile, né sempre la più ragionevole, ma è sicuramente la più prudente. Ad esempio, il tempo richiesto del primo algoritmo per la ricerca del massimo è almeno lineare (un numero lineare di passi è sufficiente quando il massimo occupa la prima posizione della lista di input), ma può es Altre misure sono lo spazio di memoria richiesto dall’algoritmo e, come emerso più di recente, l’energia necessaria per risolverlo. 14
216
Cinque parole della scienza
sere quadratico (ciò accade, ad esempio, quando il massimo si trova nell’ultima posizione della lista di input). La disponibilità di un algoritmo che risolve un dato problema in un determinato tempo stabilisce un limite superiore al tempo necessario per risolverlo. Ovviamente, meno tempo impiega un algoritmo a risolvere un problema meglio è. È questa la ragione per la quale, in riferimento al problema della ricerca del massimo, il secondo e il terzo algoritmo sono migliori del primo. Potremmo, però, domandarci se non sia possibile fare ancora meglio, ossia risolvere il problema in ancor meno tempo. È possibile mostrare che ogni problema ha una complessità intrinseca, non sempre facile da stabilire, che pone dei limiti inferiori al tempo necessario per risolverlo. Nel caso del problema della ricerca del massimo, è possibile dimostrare che tale limite inferiore alla complessità è lineare (ogni elemento diverso dal massimo deve uscire sconfitto da almeno un confronto). Il secondo e il terzo degli algoritmi proposti sono, pertanto, ottimali. 4.3. Problemi decidibili e indecidibili Non tutti i problemi, però, ammettono degli algoritmi risolutivi. L’esistenza di problemi per i quali non esistono algoritmi in grado di risolverli si può mostrare facendo vedere che esistono funzioni non computabili (funzioni per le quali non esiste un algoritmo in grado di calcolarle), sfruttando il metodo della diagonale di Cantor15. Un problema privo di un algoritmo risolutivo è detto problema non computabile. Se restringiamo la nostra attenzione ai problemi che richiedono algoritmi in grado di stabilire se una data proprietà sia vera o falsa (problemi decisionali)16, un problema privo di un algoritmo risolutivo è detto indecidibile. Una classe di problemi indecidibili di particolare interesse è quel Una breve illustrazione dell’argomento è fornita in: A. Montanari, Per un vocabolario filosofico dell’informatica, in G. Cicchese – A. Pettorossi – S. Crespi Reghizzi – V. Senni (edd.), Scienze informatiche e biologiche. Epistemologia e ontologia, SEFIRCittà Nuova, Roma 2011, pp. 82-106. 16 Tale è, ad esempio, il problema di stabilire se un dato intero positivo n sia o meno un numero primo, 15
Informatica, logica e tempo
217
la dei problemi semi-decidibili. Un problema si dice semi-decidibile se, quando la proprietà risulta vera, vi è modo di rispondere affermativamente, ma qualora la proprietà risulti falsa o si risponde, correttamente, negativamente o non viene fornita alcuna risposta. Un classico esempio di problema semi-decidibile è il problema della terminazione dei programmi. Un “algoritmo di semidecisione” per tale problema è il seguente: dati un programma P e un suo input i, per stabilire se l’esecuzione di P su i termina basta “eseguire P su i e verificarne la terminazione”. Si noti come non sia possibile fissare una durata massima per le esecuzioni terminanti (tempo indefinito); se lo fosse, il problema risulterebbe decidibile. 4.4. Problemi trattabili e intrattabili La distinzione tra problemi decidibili e indecidibili non è l’unica distinzione di interesse in informatica. Ci sono problemi computabili/decidibili la cui soluzione risulta troppo costosa dal punto di vista del tempo (e/o dello spazio di memoria) necessario ad un algoritmo per risolverli. Un problema che ammette un algoritmo risolutivo che richiede un tempo polinomiale, o inferiore, è detto trattabile; un problema che ammette solo algoritmi che richiedono un tempo esponenziale (trascuriamo ciò che sta nel mezzo), o superiore, è detto intrattabile. Una classe di problemi (decidibili) di grande interesse è quella dei problemi NP-completi17. Essa contiene un insieme di problemi fra loro equivalenti, nel senso di riducibili l’uno all’altro (completezza della classe), che possiedono limiti inferiori polinomiali, per i quali sono noti solo algoritmi esponenziali. Inoltre, tali problemi possono essere risolti in tempo polinomiale (la lettera P di NP sta per tempo Polinomiale) da un “algoritmo” che, ogni qualvolta deve effettuare una scelta, compie la scelta giusta, se una tale scelta esiste (“algoritmi” di tale natura vengo-
Riprendiamo quanto scritto più estesamente in: A. Montanari, Per un vocabolario filosofico dell’informatica. 17
218
Cinque parole della scienza
no detti nondeterministici; la lettera N di NP sta per “algoritmi” Nondeterministici). 4.5. Tempo e spazio Può essere utile illustrare brevemente il rapporto tra complessità temporale e spaziale di algoritmi e problemi18. Per introdurre il tema, consideriamo il problema di stabilire se due numeri naturali, codificati in binario, siano o meno uguali. È immediato produrre un algoritmo di complessità temporale lineare che confronta i due numeri bit a bit e termina con successo se, e solo se, completa contemporaneamente la loro scansione al termine di una sequenza di confronti tutti con esito positivo. Il numero di confronti necessario (tempo di calcolo) è pari al più al numero di cifre del più piccolo dei due numeri. La complessità spaziale è, invece, costante, dato che non è necessario memorizzare né i due numeri forniti in input né il risultato dei confronti via via effettuati. La complessità spaziale risulta, pertanto, inferiore a quella temporale. È possibile mostrare che ciò vale in generale: la complessità spaziale fornisce sempre un limite inferiore a quella temporale. Prendiamo quale modello di calcolo la macchina di Turing19. Una macchina di Turing consiste di un controllo finito, un nastro di ingresso, suddiviso in celle, e una testina in grado di leggere una cella del nastro alla volta. Assumiamo che il nastro sia limitato a sinistra e infinito a destra. Ogni cella del nastro può contenere esattamente un simbolo appartenente ad un alfabeto finito di simboli Γ (assumiamo, per semplicità, un alfabeto binario). Inizialmente, le n celle più a sinistra del nastro, per un qualche n maggiore o uguale a 0, contengono l’input, costituito da una stringa di simboli scelti da un opportuno sottoinsieme di Γ (simboli di input). Le restanti (infinite) celle del nastro contengono un simbolo speciale (blank), non appartenente ai simboli di input. In una mossa, in base al sim18 Questa sezione ne ricalca una analoga presente in un altro dei contributi del presente volume: S. Crespi Reghizzi – A. Montanari, Memoria e previsione. Il punto di vista dell’informatica. Lì il focus è sullo spazio, qui sul tempo. 19 Per una descrizione sintetica della macchina di Turing, si rimanda il lettore al testo: A. Montanari, Per un vocabolario filosofico dell’informatica.
Informatica, logica e tempo
219
bolo letto dalla testina, contenuto nella cella corrente, e dello stato del controllo, la macchina di Turing passa in un nuovo stato, inserisce un nuovo simbolo nella cella corrente e muove la testina nella cella immediatamente a destra o a sinistra di quella corrente. Se indichiamo con k il numero (finito) di stati della macchina, con t(n) il tempo (numero di passi) massimo richiesto e con s(n) lo spazio (numero di celle) massimo richiesto, è immediato concludere che t(n) è maggiore o uguale a s(n), dato che il numero di celle utilizzate non può eccedere il numero di passi compiuti. È anche possibile mostrare che t(n) è minore o uguale al numero di possibili configurazioni della macchina di Turing su uno spazio massimo utilizzato di dimensione s(n) (pari a k.s(n).3s(n)). 4.6. Programmi reattivi e tempo infinito Sin qui abbiamo preso in considerazione programmi trasformazionali, i quali, dato un certo input, devono produrre in un tempo finito (e limitato) l’output desiderato. Vi è, però, un altro insieme molto ampio e importante di programmi, detti programmi/sistemi reattivi, il cui scopo è mantenere nel tempo (durata indefinita/infinita) una data modalità di interazione con l’ambiente in cui operano. Appartengono a tale insieme i sistemi operativi, i programmi concorrenti e real-time, i programmi per il controllo di processi, i programmi integrati nel sistema che controllano (programmi embedded). Un esempio classico è quello dei programmi per la gestione in mutua esclusione di una risorsa critica condivisa da più utenti/sistemi. È questo il caso, ad esempio, di un programma per la gestione di una stampante, che, a fronte di una molteplicità di richieste di utilizzo provenienti da utenti/sistemi diversi, assegna la stampante in modo esclusivo ad uno dei richiedenti. Ogni computazione (infinita) del programma deve soddisfare due requisiti fondamentali: (i) ogni richiesta di accedere alla risorsa critica da parte di un utente/sistema deve essere prima o poi (in un tempo arbitrariamente lungo, ma finito) soddisfatta (proprietà di accessibilità) e (ii) non è possibile che due o più utenti/sistemi dispongano contemporaneamente della risorsa critica (proprietà di mutua esclusione). Le proprietà attese dei programmi/sistemi reattivi possono es-
220
Cinque parole della scienza
sere specificate attraverso formule della logica temporale e verificate su un opportuno modello del programma/sistema reattivo20. Due sono i fattori critici, strettamente collegati tra loro, nella descrizione del comportamento atteso di un programma reattivo (a stati finiti): non determinismo e infinito. Dato lo stato corrente del programma ad un certo punto della computazione, può accadere che più stati successivi siano possibili. In tal caso, il programma sceglie non deterministicamente uno di essi quale stato successivo della computazione (tempo ramificato). Se stati di questo tipo vengono raggiunti un’infinità di volte, il numero di possibili computazioni del programma, tutte di lunghezza infinita, risulta essere infinito (tempo infinito). La duplice infinità dei programmi reattivi (un’infinità di computazioni infinite) rende la verifica automatica delle loro proprietà attese un obiettivo per niente banale. Se consideriamo, ad esempio, un programma per la gestione in mutua esclusione di una risorsa critica, il problema è verificare in modo effettivo (ossia in un tempo finito) se le sue computazioni rispettano o meno i requisiti di accessibilità e di mutua esclusione. In letteratura sono stati identificati due problemi di interesse fondamentale: la verifica di consistenza e la verifica del modello. La verifica di consistenza ha l’obiettivo di certificare l’assenza di richieste contraddittorie, e pertanto insoddisfacibili, in una specifica. Essa costituisce una sorta di verifica di integrità (sanity check) preliminare. Da un punto di vista logico, essa consiste nel verificare che la formula della logica temporale che esprime le proprietà attese del sistema (specifica) sia soddisfacibile, ossia ammetta almeno un modello. La verifica del modello vuole controllare che tutte le possibili computazioni del (modello del) programma reattivo rispettino le proprietà richieste. Da un punto di vista logico, essa consiste nel verificare che tutte le computazioni del programma siano (possano essere interpretate come) dei modelli della specifica. La decidibilità e la complessità computazionale di tali problemi dipende dalla logica temporale e dal modello uti20 A. Pnueli, The temporal logic of programs, Proceedings of the 18th Annual Symposium on Foundations of Computer Science, IEEE Computer Society, 1977, pp. 46-57.
Informatica, logica e tempo
221
lizzati. In generale, esiste un trade-off tra l’espressività della logica e del modello impiegati e la complessità dei problemi: più è elevato il potere espressivo dei formalismi adottati, meno trattabili risultano i problemi di verifica. Da un punto di vista tecnico, i programmi/sistemi reattivi a stati finiti (che possono trovarsi in un numero finito di stati diversi) e le formule che esprimono le loro proprietà attese possono essere rappresentati mediante grafi. È possibile mostrare che nella soluzione dei problemi di verifica giocano un ruolo fondamentale i cicli presenti in tali grafi, che catturano periodicità presenti nelle computazioni. I problemi di verifica non sono gli unici problemi di rilievo. Un problema classico, che negli ultimi anni ha visto un notevole ritorno di interesse, è quello della sintesi. Esso consiste nella realizzazione di una macchina a stati finiti che trasforma passo passo una sequenza infinita di simboli di ingresso (in) in una sequenza infinita di simboli di uscita (out), garantendo che la coppia (in, out) soddisfi una data specifica espressa in una logica temporale appropriata. Il problema della sintesi è, in generale, più complesso dei problemi di verifica: il programma/sistema non è dato, ma deve essere generato, e lo stato è definito passo passo congiuntamente dall’ambiente, che genera l’input, e dal sistema/macchina, che produce l’output (il problema si presta in modo naturale ad una caratterizzazione in forma di gioco tra l’ambiente e il sistema). 4.7. Miscellanea Siamo partiti dal requisito di effettività dei programmi (algoritmi) trasformazionali, che impone loro di determinare, a partire da uno specifico input, il corrispondente output in un tempo finito (e limitato) e siamo arrivati ai programmi reattivi, il cui compito è garantire nel tempo (indefinitamente) il rispetto di alcune proprietà attese (proprietà di sicurezza, vitalità e reattività). Il tempo, però, entra in scena in molte altre forme e dimensioni. Vogliamo fornire qui tre esempi tratti da tre campi di ricerca molto attivi. Il primo riguarda i sistemi ibridi, che integrano componenti discrete e continue. Classici esempi di sistemi ibridi sono i termostati e i cambi automatici delle automobili, ma anche molti sistemi bio-
222
Cinque parole della scienza
logici. Per specificare e verificare il comportamento di un sistema ibrido vengono utilizzate logiche del tempo denso. Il secondo esempio è quello dei sistemi distribuiti. Per modellare l’interazione fra le componenti di un sistema distribuito, che evolvono in larga misura in modo indipendente, non è possibile utilizzare un unico orologio (universale) di sistema. Ogni componente dispone di un proprio orologio e sfrutta opportuni meccanismi di comunicazione asincrona per scambiare informazioni (messaggi) con le altre componenti. L’ultimo esempio riguarda i sistemi multiagente. In tali sistemi, per determinare le responsabilità dei singoli attori al verificarsi di una data situazione risulta estremamente naturale estendere le logiche temporali con degli operatori che consentono di far riferimento al passato. In generale, tali operatori non aumentano l’espressività della logica, ma consentono di esprimere le proprietà di interesse in modo molto più naturale e compatto (succintezza).
5. Conclusione Come dichiarato fin dalle prime pagine, questo contributo non intendeva in alcun modo affrontare gli interrogativi sollevati già da Sant’Agostino circa la natura del tempo. Ci si è limitati all’esplorazione della nozione di tempo così come formulata e usata nei territori dell’informatica, dopo aver brevemente ripercorso la storia dei rapporti tra logica e tempo. Indiscutibilmente, il tempo è una dimensione essenziale di una molteplicità di discipline, oltre che della vita umana. Questo lavoro ha voluto mostrare come esso sia al centro anche dell’informatica. Abbiamo ritrovato problemi e concetti noti, riformulati in nuovi contesti, e abbiamo incontrato problemi nuovi, che necessitano di nuovi strumenti concettuali. Se è possibile trarre una conclusione da quanto presentato, essa è: tanto è stato fatto, ma c’è ancora molto spazio per la ricerca sul tempo in informatica (e non solo).
Padre Angelo Secchi e il suo tempo Scienza e fede in un’epoca di transizione politica, scientifica e culturale Giuseppe Tanzella-Nitti
1. Introduzione1 Angelo Secchi (1818-1879) fu una delle figure scientifiche che maggiormente influì sulla nascita della moderna astrofisica, avendo inaugurato la classificazione e l’analisi degli spettri elettromagnetici dei corpi celesti: grazie ad essi l’astronomia ottiene le principali informazioni sulla struttura, composizione chimica, dinamica ed evoluzione non solo dei corpi più vicini, ma anche di quelli distribuiti su scala galattica e cosmologica. L’interesse per la figura di questo astronomo gesuita, a lungo direttore dell’Osservatorio del Collegio Romano, deriva anche dal fatto che egli riflette, nella sua vita di scienziato e di sacerdote cattolico, le implicazioni e le tensioni – sociali, politiche e culturali – di uno dei periodi storici più complessi e importanti della storia d’Italia, quello della metà del XIX secolo, che vedrà la trasformazione dell’immagine socio-politica della Chiesa cattolica in Italia e la nascita del Regno d’Italia con Roma capitale. Nella sua vita di credente, egli affrontò alcuni importanti temi del dibattito culturale fra scienze naturali e fede cristiana, maturati nel XIX secolo ma destinati ad accompagnare buona parte delle epoche successive. L’astronomia italiana deve a Secchi la nascita della sua prima associazione professionale del settore, avendo egli fondato nel 1871, insieme a Pietro Tacchini, la Società Giuseppe Tanzella-Nitti, teologia fondamentale, Pontificia Università della Santa Croce; Scuola Internazionale Superiore per la Ricerca Interdisciplinare (SISRI); Vatican Observatory. Il testo dell’articolo raccoglie i contenuti di una conferenza pubblica tenuta il 26 ottobre 2018 al Laterano in occasione del Seminario SEFIR “Parole della scienza” e s’inserisce nel quadro delle celebrazioni per il II centenario della nascita di Angelo Secchi. 1
224
Cinque parole della scienza
degli spettroscopisti italiani, dalla quale decenni dopo prenderà poi avvio, nel 1920, la contemporanea Società Astronomica Italiana2. In questo contributo esaminerò brevemente il contesto storicoculturale in cui Angelo Secchi visse e operò, soffermandomi in particolare su due circostanze emblematiche. La prima riguarda il relativo conflitto tra le strategie politiche del neonato Regno d’Italia (1861) e la nuova situazione vissuta da Secchi e dai suoi colleghi gesuiti a Roma dopo l’ingresso delle truppe piemontesi nella nuova capitale del Regno (1870). La seconda concerne la ricerca di sintesi innovative tra esegesi biblica, teologia e scienza, di cui Secchi fu certamente protagonista, dovendo confrontarsi con movimenti di opinione, fuori e dentro la Chiesa, che guardavano le novità scientifiche con senso di sospetto. Per molti decenni, entrambe le circostanze hanno influenzato il modo di intendere il rapporto tra scienza e religione in Europa. Nel primo caso, perché i contrasti politici tra gli Stati pontifici e gli altri Paesi europei venivano sovente trasferiti sul piano teorico, come contrasto tra i contenuti della fede cattolica e le conoscenze determinate dal nuovo ordine politico e culturale. Nel secondo caso, perché i sospetti di alcuni cattolici conservatori influirono sullo sviluppo di una teologia capace di abbracciare i risultati delle scienze naturali, rendendo più difficile l’uso del sapere scientifico come fonte positiva di progresso dogmatico.
2. Angelo Secchi, direttore dell’Osservatorio astronomico del Collegio Romano Il caso di un sacerdote gesuita che fosse anche astronomo professionista non era insolito all’epoca di Angelo Secchi. La presenza degli studi astronomici nella vita della Chiesa cattolica e, più in ge Per la vita e l’opera di Angelo Secchi si vedano i bei contributi raccolti nel volume commemorativo A. Altamore – S. Maffeo (edd.), Angelo Secchi. L’avventura scientifica del Collegio Romano, Quarter, Foligno 2012; in particolare, I. Chinnici, Il profilo scientifico e umano di Angelo Secchi, pp. 43-64. Come fonte di riferimento, cf. I. Chinnici, Decoding the Stars: A Biography of Angelo Secchi, Jesuit and Scientist, Brill, Leiden 2019. 2
Padre Angelo Secchi e il suo tempo
225
nerale, nella visione della natura veicolata dal cristianesimo, è parte di una tradizione lunga e feconda. Vi sono infatti ragioni teologiche, storiche e intellettuali alla base dell’interesse del cristianesimo per la scienza. La Sacra Scrittura trasmette l’idea che la natura – il cielo stellato in particolare – è effetto della Parola di Dio. La bellezza e l’ordine razionale delle creature dichiarano la gloria e gli attributi del Creatore (cf. Gen 1; Sal 8; Sal 33 ecc.). Dialogando con i filosofi dei primi secoli dell’era cristiana, i Padri della Chiesa furono convinti della consonanza tra il Logos di cui parlavano i filosofi della natura e l’unico vero Dio rivelato in Gesù Cristo. L’osservazione del cielo fu così protetta dalla deriva dell’idolatria e riconosciuta come un percorso che conduceva alla conoscenza di Dio. Da un punto di vista pratico, inoltre, la comunità cristiana era interessata allo studio dei moti celesti e del calendario per stabilire l’esatta determinazione della data della Pasqua, che dipende dalle fasi lunari e dalla posizione dell’equinozio di primavera. Accanto all’aritmetica, alla geometria e alla musica, l’astronomia entrò subito a far parte degli studi richiesti agli allievi delle Scuole cattedralizie, dando così origine alle discipline del Quadrivium, che insieme alle tre discipline del Trivium, cioè grammatica, retorica e logica, diedero poi vita alla Facoltà di Arti Liberali nelle prime università dell’epoca medievale. Varie scienze naturali furono inoltre praticate in molte scuole e comunità religiose del Rinascimento e dell’età moderna, in particolare botanica, astronomia, meteorologia, alchimia, cristallografia, e più tardi biologia, chimica e geologia. All’inizio del XIX secolo i seminari cattolici includevano nei loro studi per i futuri sacerdoti insegnamenti di matematica, astronomia, fisica e chimica. Il fatto che un sacerdote cattolico potesse essere chiamato a dirigere un osservatorio astronomico di certa rilevanza nazionale era, per tutte queste ragioni, un fatto ampiamente accettato. All’epoca di Secchi lo stretto rapporto tra astronomia e Chiesa cattolica era ben testimoniato in Italia dai numerosi osservatori promossi da ordini religiosi o da singoli sacerdoti-scienziati. Questi studiosi del cielo stellato operavano non solo nella piccola area degli Stati ponti-
226
Cinque parole della scienza
fici, ma anche sul resto del territorio italiano, dalla Lombardia fino alla Sicilia. Quasi tutti gli osservatori astronomici italiani, istituiti dalla fine del XVIII secolo in avanti, avranno come fondatore un religioso o un sacerdote. Sebbene non mancarono correnti minoritarie che guardavano alla cultura scientifica con diffidenza, soprattutto a causa dei contrasti tra alcuni ambienti scientifici e la Chiesa causati dalle conseguenze storiche del caso Galilei, il contributo positivo della Chiesa cattolica alla nascita e alla promozione dell’astronomia in Italia è storiograficamente ben accertato3. Su un piano minore, qualcosa di simile avvenne in altri paesi europei e anche lontani da Roma, come testimonia l’eredità di Matteo Ricci (15521610) in Cina. Fin dal XV secolo, il papa aveva fornito Roma di un’Università, favorendo gli studi scientifici. Questo valeva anche per l’astronomia, sebbene con strumenti meno avanzati rispetto ad altre risorse disponibili in Italia o all’estero. Quando nel 1850 Angelo Secchi prese la direzione dell’Osservatorio astronomico del Collegio Romano, altri due piccoli osservatori già esistevano nella città papale: la Torre dei Venti nei Giardini Vaticani, istituita nel 1576 da papa Gregorio XIII, la cui linea meridiana fu utilizzata per fissare la riforma del calendario gregoriano nel 1582; e l’osservatorio del Campidoglio, costruito su un tetto del Palazzo Comunale come osservatorio dell’Università “La Sapienza”. Angelo Secchi attrezzò l’Osservatorio del Collegio Romano spostandolo dai limitati ambienti della Torre Calandrelli sulla terrazza della adiacente Chiesa di sant’Ignazio, dotandolo di un rifrattore equatoriale Merz con obiettivo di 22 cm, di un rifrattore Cauchoix con obiettivo di 16 cm e di un Cerchio Meridiano Ertel. I locali del nuovo osservatorio includevano anche una stazione metereologica e geomagnetica, sempre sotto la direzione di Secchi.
Cf. Ministero della Pubblica Istruzione, Osservatori astrofisici, astronomici e vulcanologici Italiani, Roma 1956; R. Buonanno, Il cielo sopra Roma. I luoghi dell’astronomia, Springer-Italia, Milano 2008; S. Maffeo, La Specola Vaticana. Nove Papi, una missione, LEV, Città del Vaticano 1991. 3
Padre Angelo Secchi e il suo tempo
227
3. I rapporti di Secchi con il Regno d’Italia e la vicenda della cattedra di “Astronomia fisica” all’Università La Sapienza Come ricordano i libri di storia, la data del 20 settembre 1870 segna la presa di Porta Pia a Roma da parte delle truppe piemontesi4. Quella stessa sera, con un tempismo davvero sorprendente, viene fatta recapitare a Secchi una lettera da parte del Segretario generale del Ministero della Pubblica Istruzione, Giovanni Cantoni, in cui il nuovo Governo esprime il desiderio che egli resti all’osservatorio, rassicurandolo inoltre che si sarebbe provveduto alle sue necessità. Contestualmente gli viene proposto di assumere un insegnamento universitario all’Università “La Sapienza”, immediatamente passata sotto il controllo del Regno d’Italia. Data la gravità del momento Secchi prende tempo5, ma lascia capire che vorrebbe continuare a lavorare in patria, senza dover espatriare come era già accaduto durante i moti del 18496. Solo due giorni più tardi gli viene consegnata una nuova lettera, sempre da parte di Cantoni, in cui sono ribadite le condizioni della prima missiva. In quello stesso giorno il senatore Francesco Brioschi si reca da Secchi, chiedendo di visitare l’osservatorio, la biblioteca, gli uffici e Per le vicende storiche qui riassunte, cf. G. Castellani, Nomina e rinunzia del P. Angelo Secchi a professore di Astrofisica nell’Università di Roma, in «Civiltà Cattolica», 95(1944), pp. 39-46 e pp. 170-179; M. Viganò, I cieli cantano ancora la gloria di Dio?, in «Civiltà Cattolica», 130(1979), pp. 450-460; I. Chinnici, Il profilo scientifico e umano di Angelo Secchi, pp. 43-64. 5 Annota Secchi sul suo Diario: «Mi tenni così sulle generali, benché avessi giorni prima scandagliato l’animo del Padre Provinciale che mi avea detto di fare il possibile per sostenere i miei diritti personali all’Osservatorio, e farmi ricompensare i miei capitali che avea sospeso in questo stabilimento (...) il mio credito personale era di 8 in 9 mila scudi», Archivio della Pontificia Università Gregoriana, Roma, «Mss. Secchi» Cartella n. 23, Lettere riguardanti l’accettazione e la rinunzia del P. Secchi alla Cattedra dell’Università Governativa (1870), II, (Diari) Viaggio in Sicilia per l’eclisse (ottobre 1870-gennaio 1871), ff. 27-51. 6 Lasciata Roma insieme ai suoi confratelli gesuiti nella parentesi della Repubblica romana, Secchi si recò prima in Inghilterra, presso il Collegio di Stonyhurst, e poi negli Stati Uniti, a Washington, dove approfondì i suoi studi di astronomia e fisica presso il Collegio di Georgetown, giovandosi di importanti contatti scientifici con ricercatori statunitensi. 4
228
Cinque parole della scienza
le abitazioni. Brioschi consegna a Secchi una lettera firmata questa volta dal Ministro delle Finanze, Quintino Sella. Scrive il ministro: Ella occupa nel mondo scientifico un posto troppo eminente, e la scienza occupa nel mondo civile un posto troppo importante perché ella non si preoccupi di ciò che accade. Il Brioschi [che ha consegnato la lettera brevi manu – ndr] potrà meglio di ciò che si possa fare per lettera spiegare gli intendimenti del Governo, il quale se si eccettua la questione del potere temporale, debbono dirsi favorevolissimi al clero7.
Secchi non fornisce risposte esplicite riguardo al tema della cattedra, ma esprime al senatore la sua preoccupazione per lo scioglimento del corpo insegnante del Collegio Romano; approfitta infine per chiedere al nuovo Governo un sostegno economico per partecipare alla spedizione italiana per l’eclissi totale di sole in Sicilia, fenomeno che lo porterà lontano da Roma proprio nei giorni in cui le questioni circa la sua nomina si faranno più difficili. Verso la fine di settembre, di fronte a un nuovo sollecito circa l’accettazione della nomina a professore universitario, lo scienziato chiede alcune garanzie: non dover prestare giuramenti al nuovo Regno, essere libero di servire e rispettare i suoi doveri verso la Compagnia di Gesù e il papa e, infine, mantenere la libertà di scelta del personale che collaborerà con lui. A queste richieste il 18 ottobre risponde lo stesso Cantoni rassicurandolo che non dovrà fare giuramenti e che il suo lavoro sarà retribuito: È inutile Vi rinnovi l’assicurazione da parte del Ministro che, senza giuramento alcuno, Voi sarete nominato di tal modo da essere pareggiato ai nostri professori d’Astronomia e Direttori di Specula di I grado. A nome anche del Ministro, vi prego di scrivermi, direttamente e in tutta confidenza, tutto quanto vi paresse utile per gli studi tra voi, e anche per avviare e accelerare la desiderata unificazione delle aspirazioni vostre con le nostre. Ci troverete più arrendevoli assai che non possiate pensarlo8. 7 G. Castellani, Nomina e rinunzia del P. Angelo Secchi a professore di Astrofisica nell’Università di Roma, p. 41. 8 Ibid., p. 43.
Padre Angelo Secchi e il suo tempo
229
Il 2 novembre avviene un importante incontro fra il senatore Brioschi e Secchi, durante il quale il gesuita affronta anche il tema delicato della libertà di insegnamento dei suoi confratelli nelle scuole del Collegio Romano. Egli accetta verbalmente la cattedra tornando a chiedere al senatore le garanzie già assicurategli da Cantoni il 18 ottobre. Ne veniamo a conoscenza dal suo diario: Domandandomi esso se avessi accettato una scuola in Sapienza dissi di sì (...). Esso mi rispose non esservi nessuna difficoltà a continuare le scuole in collegio, e che i Gesuiti potevano fare una scuola privata e libera, come gli Scolopi a Firenze, perché il Governo voleva contentar tutti. Io recai a casa queste notizie che furono accolte con gioie. Ma per più sicurezza, impegnai il Rettore [Pietro Ragazzini, Rettore del Collegio Romano dal 1867 al 1872 – ndr] e il Provinciale ad andare essi stessi dal Brioschi9.
È questa l’occasione in cui Secchi e Brioschi definiscono insieme il nome della cattedra, “Astronomia fisica”. Il 3 novembre, con un biglietto, Brioschi chiede a Secchi un’accettazione per iscritto, che il gesuita formulerà brevemente il 4 novembre, perfezionando il titolo della cattedra in “Astronomia fisica e Meteorologia”, un giorno prima di partire per la Sicilia, dopo aver consultato ancora una volta i suoi superiori. La sua nomina sulla nuova cattedra viene pubblicata pochi giorni dopo, sulla Gazzetta ufficiale del 13 novembre 1870. Intanto – ed è questo un evento che influirà in modo determinante sul prosieguo della vicenda – il Rettore del Collegio Romano riceve una lettera dal senatore Brioschi, datata 3 novembre, nella quale lo si avverte che la libertà di insegnamento nel Collegio Romano sarà certamente assicurata per le materie teologiche rivolte ai chierici e membri pontifici, ma lo Stato italiano non avrebbe riconosciuto i titoli in altre discipline ottenuti da studenti italiani Archivio della Pontificia Università Gregoriana, Roma, «Mss. Secchi» Cartella n. 23, Lettere riguardanti l’accettazione e la rinunzia del P. Secchi alla Cattedra dell’Università Governativa (1870), II, (Diari) Viaggio in Sicilia per l’eclisse (ottobre 1870-gennaio 1871), ff. 32-35; riportato da G. Castellani, Nomina e rinunzia del P. Angelo Secchi a professore di Astrofisica nell’Università di Roma, pp. 43-45. 9
230
Cinque parole della scienza
presso questa scuola, non avendo essi valore per il loro ingresso in licei e università del Regno d’Italia, né per l’impiego presso lo Stato. Durante l’assenza di Secchi, impegnato a Palermo con i preparativi dell’eclissi, la questione della nomina sulla cattedra di Astronomia fisica alla Sapienza viene commentata il 16 novembre a Pio IX. Il pontefice esprime alcune perplessità, dovute al generale clima di tensione nei confronti del Regno d’Italia, manifestando anche la speranza che Secchi rifiuti. Recatosi a trovare Pio IX per ragguagliarlo sui fatti, il padre provinciale dei gesuiti comunica al papa che Secchi aveva consultato i suoi superiori e ricevuto la loro approvazione. A chi segnala che altri gesuiti, già docenti all’Università “La Sapienza” prima del 20 settembre, erano rimasti in carica sulle loro cattedre, Pio IX fa osservare che i loro incarichi erano conferme di una precedente nomina pontificia, mentre nel caso di padre Secchi si sarebbe trattata di una nomina del Governo italiano. Il papa rinnova pertanto le sue perplessità, ma suggerisce di aspettare che Secchi ritorni a Roma. Da Palermo Secchi viene a sapere dei nuovi sviluppi nella città di Roma: ai gesuiti e alle altre scuole cattoliche della neo-capitale d’Italia viene negato il riconoscimento dei titoli e limitata la libertà di insegnamento, cosa che suscita forti tensioni anche nella popolazione cittadina. E viene altresì informato, per lettera, delle opinioni di Pio IX al riguardo. Sarà il preposito generale dei gesuiti, Pierre-Jean Beckx, a scendere in campo scrivendo a Secchi di non di inviare al Governo italiano una lettera di rinuncia alla cattedra, bensì una lettera di chiarimento ove restasse chiara la sua fedeltà al papa e alla Compagnia di Gesù: «Mi sembra necessario tener conto del sentimento del santo Padre – afferma Beckx – dell’onore di Vostra Reverenza e della Compagnia, come anche dell’opinione pubblica dei buoni cattolici». Secchi assicura il preposito generale che chiederà al Governo italiano ulteriori garanzie, compreso il fatto che la comunità dei gesuiti del Collegio Romano sia rispettata e lasciata nella propria sede. Al tempo stesso, con molta umiltà, afferma che se gli verrà chiesto dai suoi superiori di rinunciare alla cattedra lo farà e, immaginando di non poter più dirigere l’osservatorio, sarà disposto come gesuita a lasciare Roma per essere assegnato volentieri ad altro incarico.
Padre Angelo Secchi e il suo tempo
231
Le cose a Roma erano però nel frattempo precipitate. I gesuiti diedero ugualmente inizio all’anno scolastico, ma furono poco dopo costretti dal Regno d’Italia a chiudere gli studi al Collegio Romano, perché ritenuti responsabili di non aver avvertito le famiglie delle nuove disposizioni governative. Il 3 dicembre 1870, il Collegio Romano veniva rimpiazzato e inaugurato dal Governo un nuovo liceo, intitolato a Ennio Quirino Visconti, scuola che ancora oggi risiede nella piazza che prende il nome dallo storico Collegio ivi ospitato per secoli. L’evento più significativo fu però quello che ebbe luogo il 19 novembre, in occasione della lezione inaugurale del nuovo anno accademico tenuta all’Università “La Sapienza”. Il discorso di apertura, innervato da una forte vena anticlericale, giunse ad esortare i docenti ad una pubblica professione di ateismo, raccogliendo le lodi dei politici presenti, fra cui lo stesso Brioschi. Informato di quanto accaduto, Secchi prepara da Palermo una lettera, datata 25 novembre 1870, nella quale manifesta la sua rinuncia alla cattedra universitaria. Prima di essere consegnata a Brioschi, una bozza della lettera viene letta dal padre Beckx e dallo stesso Pio IX, che ne approvano il contenuto. Scrive Angelo Secchi, dirigendosi al senatore Brioschi: Devo però parteciparle che quando io accettai detto onorevole incarico, prima che venisse emanato il decreto, le circostanze erano assai diverse dalle presenti. La favorevole disposizione che V.S. mi esternò verso le nostre scuole del Collegio Romano era tale, che indusse me ad accettare e i miei superiori a non opporsi a tale risoluzione, sperando che con una mutua condiscendenza si sarebbe potuto giovare alla gioventù. Ora le cose sono molto mutate: gli avvenimenti successi in Roma, tanto in Collegio che all’Università e nell’andamento generale degli affari, mi impongono maggiore riserva, e perciò prego V.S. ad accettare la mia rinunzia del suddetto onorevole incarico10.
Brioschi risponde il 5 dicembre da Roma a Secchi, manifestando dispiacere e stupore, augurandosi che quest’ultimo torni sui suoi G. Castellani, Nomina e rinunzia del P. Angelo Secchi a professore di Astrofisica nell’Università di Roma, p. 175. 10
232
Cinque parole della scienza
passi e sospenda la rinunzia. Secchi, ricevuta la lettera da Brioschi, invia da Augusta, dove si trovava per attrezzare la stazione di osservazione dell’eclisse, una lettera lunga e articolata, datata dicembre 1870, un capolavoro di chiarezza e di libertà di coscienza, in cui biasima il Governo italiano per la critica anticattolica promossa a Roma, le ingiustizie sofferte dai gesuiti e dagli altri ordini religiosi e la condotta ambigua avuta dalle autorità governative italiane nei suoi confronti. I riferimenti al discorso inaugurale della Sapienza, riferitogli da padre Bollig, docente universitario gesuita presente all’evento, sono espliciti: I sensi che vennero esposti nel discorso inaugurale dell’Università erano tali da non potersi tollerare da tutte le orecchie. Come poteva applaudirsi ad una inaugurazione che insultava la religione del Paese? (...) Come poteva io entrarne a farvi parte specialmente dopo lo scioglimento dei Collegi, che in certo modo mi degradava dopo 18 anni che ne faceva parte? (...) La speranza che Roma sarebbe rispettata e governata con leggi particolari e conciliabili colla maestà del Pontefice essendo oggidì svanita, io mi ritiro nel mio nulla. Pronto sempre a servire il mio Paese dovunque la gratitudine e i miei sentimenti non fossero compromessi, non posso prender parte ai suoi favori11.
Nel 1876 il sacerdote e matematico torinese Francesco Faà di Bruno, trovatosi in una situazione analoga e dovendo sciogliere il dubbio se continuare o meno la sua carriera di professore all’università di Torino, chiederà lumi a Secchi, venendo però da quest’ultimo esortato a continuare il suo lavoro accademico nell’università della capitale piemontese12.
Ibid., pp. 177-179. Secchi spiegherà a Faà di Bruno la diversità della situazione nella quale versava il suo collega piemontese rispetto a quella creatasi con lui a Roma: «Ella è già vecchio membro dell’Università e non entra in essa in un momento di crisi e per la grazia di Dio l’Università di Torino, se non manca di qualche persona che pensa troppo liberamente, non ha però commesso quegli scandali in corpo che ha commesso l’Università di Roma, onde qui ad un cattolico e sacerdote non sarebbe decoroso starvi in mezzo come è accaduto a me, onde mi ritirai», Archivio della Pontificia Università Gregoriana, Roma, corrispondenza fra p. Angelo Secchi e Francesco Faà di Bruno, Roma, 22 11 12
Padre Angelo Secchi e il suo tempo
233
La fama di Angelo Secchi, dovuta ai suoi molteplici meriti scientifici, e la stima assicuratagli dai suoi colleghi astronomi italiani, fece sì che egli potesse continuare a dirigere l’Osservatorio del Collegio Romano nonostante la rinuncia alla cattedra universitaria. Egli ottenne dal Governo italiano l’autonomia dei locali dell’osservatorio e la possibilità di accedervi attraverso un’entrata indipendente, nonostante l’intero edificio fosse stato confiscato dal Regno d’Italia. Secchi rimase direttore fino sua alla morte, avvenuta il 26 febbraio del 1878. L’anno successivo il Regno d’Italia esproprierà anche i locali dell’osservatorio13. Si dovrà attendere il 1891 per riannodare la tradizione di un osservatorio astronomico pontificio, quando Leone XIII, con il motu proprio Ut mysticam, rifonderà la Specola Vaticana, affidandone la direzione al religioso barnabita Francesco Denza. Gli strumenti e gli studi furono limitati ad installazioni create all’interno delle mura della Città del Vaticano a Roma per poi spostarsi, alla fine degli anni Venti del XX secolo, nella sede di Castel Gandolfo.
4. Angelo Secchi e il contesto intellettuale del XIX secolo Analogamente ad altri sacerdoti-scienziati che operarono durante il XVIII e il XIX secolo, Angelo Secchi non ci offre un pensiero sistematico sui rapporti fra scienza e fede. La sua visione epistemologica o filosofica per tali rapporti si evince dalle considerazioni presentate nelle pagine finali di alcune sue opere, in particolare nei capitoli conclusivi de L’unità delle forze fisiche. Saggio di filosofia naturale (1864) e del volume Le stelle. Saggio di astronomia siderale (1877). L’edizione pubblicata postuma delle Lezioni di Fisiottobre 1876, citato in P. Palazzini, Al margine di due centenari: Pio IX e P. Angelo Secchi, in «Pio IX», 9(1980), pp. 4-25, qui p. 23. 13 Allontanato il nuovo direttore subentrato a Secchi, padre Gaspare Ferrari, l’Osservatorio del Collegio Romano fu inglobato nell’Ufficio Centrale di Meteorologia, e la direzione affidata a Pietro Tacchini astronomo chiamato da Palermo. Tacchini, che aveva fondato nel 1871 insieme a Secchi la Società degli spettroscopisti italiani, poi diventata Società Astronomica Italiana, ricoprirà anche la cattedra di Astronomia e Fisica alla Sapienza, cattedra alla quale Secchi aveva rinunciato.
234
Cinque parole della scienza
ca terrestre (1879) riporta in Appendice i testi di due conferenze divulgative, tenute nel 1876 e 1877 all’Accademia Tiberina, che toccano alcune questioni interdisciplinari14. Riferimenti alla fede cristiana sono presenti in altre conferenze non pubblicate o di difficile reperimento e, soprattutto, nell’epistolario. La natura frammentata del materiale a disposizione ha finora impedito una ricostruzione completa del suo pensiero in materia, ma è comunque sufficiente per farsene un’idea. Risulta naturale, in proposito, accostare Angelo Secchi ad altre due importanti figure di sacerdoti-scienziati italiani suoi contemporanei, Antonio Stoppani (1824-1891) e Francesco Faà di Bruno (1825-1888). Egli condivide con il geologo Stoppani la persuasione che una migliore conoscenza del pensiero scientifico giovi alla formazione del clero e che una corretta impostazione delle principali questioni bibliche o dogmatiche sarà possibile solo conoscendo in profondità ciò che la scienza dice e come lo dice. Analogamente al matematico Faà di Bruno, anche Secchi ha una visione della scienza come servizio, perché vede in essa un fattore di promozione umana; la sua divulgazione deve essere promossa presso tutte le classi sociali. Secchi, Stoppani e Faà di Bruno sono tutti convinti che la ricerca scientifica non vada vista come un ostacolo alla fede, bensì come un’avventura di conoscenza capace di favorire una più profonda intelligenza della teologia e una migliore esegesi biblica. Si tratta di una prospettiva presente già secoli prima in Tommaso d’Aquino, quando questi affermava che una migliore conoscenza della natura si traduce in una meno imperfetta conoscenza di Dio15; prospettiva, tuttavia, rimasta un po’ in ombra a causa dei rapidi progressi delle scienze fra Settecento e Ottocento, che alcuni vedevano erroneamente in contrasto con il quadro filosofico-religioso allora dominante. Angelo Secchi si muove, in sostanza, nell’alveo della tradizione di una Chiesa cattolica promotrice della scienza, che rappresentava Cf. A. Secchi, L’unità delle forze fisiche, 2a ed. aumentata, 2 voll., Treves, Milano 1874; Id., Le stelle. Saggio di astronomia siderale, Fratelli Dumolard, Milano 1877; Id., Lezioni elementari di fisica terrestre, E. Loescher, Torino-Roma 1879. 15 Cf. Tommaso d’Aquino, Summa contra gentiles, lib. II, capp. 2-4. 14
Padre Angelo Secchi e il suo tempo
235
almeno per buona parte del XIX secolo ancora una corrente maggioritaria, frutto del vasto lavoro di istruzione scolare e universitaria che diversi ordini religiosi, gesuiti e barnabiti in particolare, avevano condotto nel tempo. Il clima di familiarità della Chiesa cattolica con le scienze era in quell’epoca abbastanza evidente riguardo l’astronomia e conosceva esempi ugualmente importanti nel campo della matematica, della fisica e della meteorologia, della botanica e della biologia. Non va dimenticato che, all’epoca di Angelo Secchi, il dibattito fra scienze e pensiero teologico risultava influenzato dalle posizioni che vedevano su opposti fronti politici gli Stati pontifici e buona parte della cultura intellettuale italiana ed europea. Tale contrasto, che aveva primariamente come oggetto la missione della Chiesa cattolica e i rapporti di questa con il potere temporale del papato a Roma, veniva spesso trasposto in termini epistemologici e scientifici allo scopo di leggervi un conflitto fra fede e ragione, o fra fede e scienza, temi che possedevano un respiro certamente più ampio di quanto potessero dettare le circostanze politiche di uno specifico Paese. Ne fu esempio emblematico la lettura ottocentesca del caso Galilei, che si colorò in Italia di venature ideologiche: acquistando una vitalità sconosciuta alle epoche precedenti, il contrasto fra lo scienziato pisano e la Chiesa veniva espresso attraverso la costruzione di monumenti di denuncia e la pubblicazione di saggi critici. Era in fondo anche questo un modo di rafforzare l’immagine del nuovo Regno d’Italia, che ritrovava in Roma la sua capitale proprio grazie alla caduta degli Stati pontifici. Motivazioni politiche stavano anche condizionando, in Francia e in Italia, la vita di alcuni cattolici, come mostrano le vicende accademiche di Pierre Duhem o quelle di Faà di Bruno. Resta comunque vero che, sul piano filosofico, gli anni in cui Angelo Secchi visse e operò furono attraversati da correnti di pensiero in una certa tensione con la fede cristiana. La maggiore di queste correnti fu senza dubbio la progressiva ascesa del materialismo in Germania e in parte anche in Francia. Già nella seconda metà del Settecento, un’opera di larga diffusione come Système de la nature (1770), di Paul Heinrich Dietrich von Holbach, aveva affermato
236
Cinque parole della scienza
che tutto ciò che non apparteneva ai fenomeni naturali andava considerato pura immaginazione. Negli stessi anni, Jean-Baptiste Robinet esponeva nell’opera De la Nature (1761) l’idea di una progressiva evoluzione della natura come successione di meccanismi sempre più complessi e sofisticati, al cui vertice era posto l’essere umano, le cui facoltà psichiche e la stessa libertà erano però il mero risultato del progresso temporale di soli processi meccanici. Si era così affermata l’idea di un “materialismo naturalista” le cui principali componenti erano, da una parte, l’idea storicista proveniente dalla filosofia tedesca hegeliana, dall’altra, l’anticipazione e poi l’accoglienza del darwinismo quale precisa proposta di lettura del posto occupato dall’uomo nella natura e nel mondo animale. Il movimento avanzava una forte prospettiva anti-spiritualista, per la quale si cercavano appoggi, appunto, nei risultati delle scienze. È difficile stabilire se il materialismo naturalista fosse una corrente davvero maggioritaria negli ambienti scientifici europei, ma resta il fatto che i suoi esponenti godevano di una notevole visibilità. Non sorprende, pertanto, che nelle considerazioni di Secchi su fede e scienza la critica del materialismo sia vivace e puntuale, facendo da sfondo a quasi tutte le sue riflessioni. Per quanto riguarda il materialismo e le sue interpretazioni, va senza dubbio segnalata la sorprendente lettura che Fredrich Engels (1820-1895) riserva all’opera di Secchi, L’unità delle forze fisiche (1864, seconda edizione: 1874). Engels ritiene che la visione di Secchi dimostri la plausibilità dell’idea di una natura eterna e autosufficiente, base del materialismo dialettico della natura. È vero che, partendo dall’equivalenza tra energia meccanica ed energia calorica e osservando la stretta corrispondenza tra chimica e radiazione luminosa, Secchi aveva affermato la riducibilità della radiazione e dell’elettricità al moto. Anche la struttura atomistica della materia, basata su movimenti attraenti e repulsivi, veniva impiegata da Secchi come dimostrazione del fatto che ogni forma di energia poteva essere ridotta a movimento. Scrive l’astronomo gesuita nella prefazione: La grande scoperta che presentemente preoccupa tutti i dotti, e illustra la nostra epoca, è quella della teoria meccanica del calore, per
Padre Angelo Secchi e il suo tempo
237
la quale questo agente viene ridotto ad un semplice modo di movimento. L’esporre le basi di questa teoria ed estenderne le applicazioni agl’imponderabili [luce e magnetismo – ndr] e alle altre forze fisiche, è lo scopo dell’opera presente16.
Il programma di Secchi di proporre una teoria unificata del moto che includa tutte le forze fisiche è visto da Engels come un quadro teorico in grado di giustificare che le energie della materia sono, da sole, le forze in grado di sostenere il cosmo fisico e di determinarne l’evoluzione nel tempo. Angelo Secchi guadagna nella Dialettica della natura di Engels ben 11 citazioni; tra gli scienziati è dietro solo a Darwin, Newton e von Helmholtz; Engels cita Secchi più volte di Galilei. Il filosofo tedesco crede erroneamente di poter trovare nella visione di Secchi l’idea dell’indistruttibilità del movimento e della materia, affermando così l’eterno ciclo dialettico della natura. La correttezza epistemologica con cui Secchi non mescola la Causa prima trascendente con le cause secondarie, non invocando alcun intervento meccanico di Dio Creatore per far funzionare l’Universo, viene letta superficialmente da Engels come conferma dell’irrilevanza dell’ipotesi “Dio”, e quindi come prova della sua inesistenza. Engels ironizza così in proposito: In nessun luogo Dio viene trattato peggio di quel che lo sia nelle pagine degli scienziati che credono in lui... Padre Secchi lo pregò di accomodarsi fuori del sistema solare, completamente fuori, con tutti gli onori canonici, è vero, ma non perciò meno categoricamente, e gli permise ancora un atto di creazione solo relativamente alla nebulosa primitiva17.
In realtà, Secchi è molto chiaro su questo punto: riportare al moto tutta la struttura e l’energia del cosmo non significa che la materia sia sufficiente, da sola, a comprendere l’universo fisico. Quando la materia è separata dall’intelligenza e dall’intenzionalità, A. Secchi, L’unità delle forze fisiche, ed. 1864, vol. 1, p. 9. F. Engels, Dialettica della natura, tr. it. di L. Lombardo Radice, Editori Riuniti, Roma 1967, pp. 213-214. 16 17
238
Cinque parole della scienza
da un principio di creazione, allora essa rimane di per sé insufficiente. Il riferimento a un Creatore, che Engels considera solo un’appendice inutile, è invece per Secchi qualcosa di sostanziale, la ragione ultima per la comprensione del cosmo, l’origine di tutte le cose. Le riflessioni di Secchi su scienza e fede si collocano nell’alveo della Teologia naturale sviluppatasi principalmente nel Settecento, ma non cedono alle tentazioni del concordismo e della “fisico-teologia”. L’itinerario seguito da Secchi è quello di una filosofia spontanea: dall’osservazione della natura si può dedurre l’esistenza del Creatore come causa che ha tratto dal nulla tutte le cose conferendo loro l’essere, ma anche come Intelligenza responsabile dell’esistenza e del coordinamento delle leggi di natura. Nell’universo – egli afferma come studioso di fisica – tutto dipende dalla materia e dal moto, ma la materia e il moto non hanno in sé la propria causa. In particolare, l’azione creatrice di Dio è continua e trascendente, non si esaurisce nel chiamare le cose all’esistenza: creazione e conservazione nell’essere sono un medesimo atto. La causalità di Dio creatore trascende il piano delle cause naturali, ma rende quelle cause possibili, come l’artista trascende il piano delle cause meccaniche che danno origine alla sua opera, il cui piano originario è però presente nella sua mente18. Sappiamo che la visione scientifica di Secchi, basata su una fisica che andava progressivamente comprendendo tanto la struttura quanto le forze della materia, causò incomprensioni tra quegli ecclesiastici che non conoscevano le scienze. Secchi fu accusato di ateismo per i suoi studi in chimica e per l’uso della teoria atomica degli elementi. In un opuscolo critico alcuni cattolici tradizionalisti chiesero ai padri del Vaticano I di chiudere l’Osservatorio del Collegio Romano, ritenuto un luogo pericolosamente incline all’ateismo19. Dal 1870 in poi questa incomprensione divenne più acuta. Secchi fu attaccato da fronti opposti: da un lato, alcuni ecclesia Cf. A. Secchi, L’unità delle forze fisiche, ed. 1874, vol. 2, pp. 369-380. Cf. A. Altamore – R. Lay, Testimonianze del XIX e XX secolo sulla figura e l’attività di Angelo Secchi, in A. Altamore – S. Maffeo (edd.), Angelo Secchi. L’avventura scientifica del Collegio Romano, pp. 291-295, qui p. 291. 18 19
Padre Angelo Secchi e il suo tempo
239
stici romani lo consideravano un collaboratore del governo italiano; dall’altro, i rappresentanti anticlericali dell’ambiente scientifico lo qualificavano come “sacerdote retrogrado”. Alcuni politici strumentalizzarono il suo pensiero. In un discorso pubblico tenuto alla Camera nel gennaio 1877, Giovanni Bovio (1837-1903) lodò Secchi come libero pensatore, presentandolo come esempio di autonomia dall’autorità religiosa. L’astronomo gesuita dovette chiarire la sua posizione, scrivendo una lettera al direttore de L’Osservatore Romano, ribadendo la sua fedeltà alla Chiesa20. Dall’epistolario di Secchi sappiamo che questi confidò a Virginio Schiaparelli, scienziato cattolico e direttore dell’Osservatorio di Brera, alcune delle incomprensioni di cui era bersaglio21. Mentre alcuni vedono l’incredulità e l’ateismo nei miei scritti, altri vi vede invece un’esaltata teologia che falsifica la fisica per appoggiare la Bibbia (...). Chi si lamenta di non trovarvi le scoperte che aspettava, chi non vi trova la fisica di s. Tommaso. A questi dirò solo che la fisica dopo s. Tommaso ha camminato un poco, e che se s. Tommaso fosse stato a’ tempi nostri, non avrebbe adottato la fisica che adottò ma avrebbe preso quella adesso in uso nelle scuole ai tempi nostri, come allora prese quella in uso a tempo suo. (...) Coi suoi progressi però la scienza non è arrivata a fare a meno di Dio, né quelli che speravano che la scienza vi arrivi avranno mai, né essi né i loro successori, questo22.
Il confronto fra creazione ed evoluzione – che percorreva in quei decenni i suoi primi passi – viene riportato euristicamente da Secchi entro il dibattito sull’insufficienza della materia per comprendere la fenomenologia dei viventi e del pensiero umano, senza la necessità di ricorrere al quadro metafisico del rapporto fra Cau20 «Per me la scienza non è arrivata e non arriverà mai a far senza Dio, e finché vi sarà un mondo, sarà necessario che vi sia un Autore. Del resto, in materia di fede sto con gli insegnamenti del Vicario di Cristo; in fisica con gli ammaestramenti della natura e dell’esperienza, che non saranno mai contradditori ai primi» (Angelo Secchi citato in M. Viganò, I cieli cantano ancora la gloria di Dio?, p. 452). 21 Cf. L. Buffoni – A. Manara – P. Tucci (edd.), G.V. Schiaparelli, A. Secchi. Corrispondenza (1861-1878), Artes, Milano 1991. 22 Archivio della Pontificia Università Gregoriana, Roma, «Mss. Secchi» Cartella n. 23, I, 5.
240
Cinque parole della scienza
sa prima e cause seconde, che invece sarà abituale nell’impostazione neotomista. Il supporre che tutto sia effetto di forze cieche – scrive Secchi nelle sue Lezioni di fisica terrestre – di combinazioni accidentali di materia bruta, che restino poi così per caso permanenti, come per caso si formarono, è stata dai savi sempre riguardata come una stoltezza, anziché una filosofia degna di uomo ragionevole. (...) La mente è quella che veramente crea e concepisce, e se questo attributo è nell’uomo in qualunque modo, per partecipazione, non è render Dio pari a noi stessi l’attribuirgli eminentemente questo attributo, non è limitarlo ad una particolare esistenza il concepire che esso vede tutto, conosce tutto, spirito purissimo sostiene tutto, che in esso noi viviamo, ci moviamo ed esistiamo, e che siamo sua fattura23.
Non è per proiezione antropomorfa che collochiamo il pensiero e l’intelligenza all’origine di tutte le cose, ma perché conosciamo sperimentalmente la materia e le sue proprietà. Tale “insufficienza” della materia si rivelerebbe per Secchi in modo evidente nella fenomenologia della vita e in quella dell’essere umano, perché soggetto di riflessione razionale: L’idea delle successive trasformazioni – scrive ancora l’astronomo gesuita nelle sue Lezioni di fisica terrestre – presa con debita moderazione non è punto inconciliabile colla ragione, né colla religione. Infatti, ove non si voglia tutto eseguito per pure forze innate e proprie della materia bruta, ma si ammetta che queste forze non d’altronde derivassero che dalla Cagione prima che creò la materia, e ad essa diede la potenza di produrre certi effetti, non vi è nessuna intrinseca repugnanza per credere che, fino a tanto che non interviene nessuna forza nuova, possano svilupparsi certi organismi in un modo piuttosto che in un altro, e dar origine così a differenti esseri. Ma quando da una serie di questi esseri si passa ad un’altra che contiene un nuovo principio, la cosa muta aspetto. Dal vegetale senza sensibilità non potrà passarsi all’animale che ha sensazioni, senza un nuovo potere che non può venire dalla sola organizzazione, né dalla sola materia. E molto più dovrà dirsi ciò quando si passa dal bruto animale all’uomo che ragiona, A. Secchi, Lezioni elementari di fisica terrestre, p. 202.
23
Padre Angelo Secchi e il suo tempo
241
riflette ed ha coscienza. Un nuovo principio deve associarsi allora alle forze fisiche della materia per avere questi risultati24.
L’osservazione della materia, e in primis della fenomenologia dell’essere umano, conduce l’astronomo gesuita a concludere che alla base e nel fondamento del mondo vi sia un principio immateriale, ed è a questo “principio” che egli associa il nome di Dio25. Secchi sostiene che un simile principio creatore abbia ben potuto abbracciare dall’eternità, con un unico sguardo, l’avvicendarsi delle forme biologiche e il loro sviluppo dalle più semplici alle più complesse, facendo sì che le leggi fisiche fossero in armonia con quanto la vita avrebbe necessitato. Egli propone il paragone con una funzione parametrica in cui la medesima forma matematica, assimilata qui allo sguardo del Creatore, è capace di dare origine nel tempo a forme gradualmente diverse mediante una variazione dei parametri, producendo così effetti tutti previsti dalla sua forma matematica. Riconoscere che tutta l’evoluzione delle forme è contenuta nella medesima intelligenza creatrice – ovvero nella funzione matematica che trascende l’ordine della natura secondo il paragone proposto – dovrebbe tranquillizzare, afferma ancora Secchi, chi teme che le idee darwiniane rechino conseguenze negative sulla fede26. Quando il direttore dell’Osservatorio del Collegio Romano scrive queste idee sono passati solo pochi anni dalla pubblicazione de L’origine delle specie (1859) di Darwin. Se ci dirigiamo alla questione biblica, vivace soprattutto dopo che i progressi della geologia avevano datato la terra e l’origine della vita assai indietro nel tempo, le critiche mosse al contenuto della Sacra Scrittura coinvolgevano due fronti. Il primo era rappresentato proprio dagli studi geologici, che rivelavano una storia naturale assai più lunga di quanto una lettura ingenua e letterale dei testi biblici sulla creazione potesse far immaginare. Il secondo riguardava l’origine delle specie animali e dell’essere umano, temi sui qua-
Ibid., p. 199. Cf. A. Secchi, L’unità delle forze fisiche, ed. 1874, vol. 2, pp. 363-364. 26 Cf. ibid., pp. 359-360. 24 25
242
Cinque parole della scienza
li l’insegnamento biblico veniva frettolosamente posto in conflitto con l’evoluzionismo darwiniano. Secchi non esitò a difendere la verità della Scrittura e a comporla con i risultati certi delle scienze, senza per questo imbarcarsi in una teologia approssimativa. Non furono infrequenti, proprio in quegli anni, scritti apologetici di alcuni religiosi, impegnati a contrastare il pericolo di ateismo che ritenevano insito nelle nuove teorie scientifiche. Pur elogiando le buone intenzioni di questi autori, Secchi indica anche gli errori di fisica da loro commessi. I punti di partenza per una discussione, secondo l’astronomo gesuita, non dovevano essere tanto le questioni di principio, inevitabilmente soggettive, ma i dati sperimentali. Troviamo qui un’impostazione assai simile a quella seguita da Antonio Stoppani, che fra le sue “massime per l’apologista cattolico” aveva collocato al primo posto “combattere la scienza con la scienza”, volendo con ciò significare che quando qualche affermazione sorta in contesto scientifico sembrava contrastare con delle verità di fede andava prima di tutto verificato se esistevano ragioni scientifiche capaci di chiarire o negare quelle affermazioni. Non era dunque rivolgendosi alla Scrittura o alla teologia che si doveva chiarire il senso e la portata delle affermazioni scientifiche ma, come più logico, alla scienza stessa27. Di converso, quando i risultati scientifici fossero chiari e confermati, se abbiamo a che fare con delle pagine della Scrittura in apparente contraddizione con tali risultati sono queste pagine che devono essere lette adesso in un modo più confacente. Si muove in questa linea un testo di Secchi tratto da Le stelle. Saggio di astronomia siderale, nel quale l’autore precisa che la vastità dello spazio accessibile alle prime osservazioni al telescopio non andava negata sulla base di mal comprese interpretazioni bibliche: La grandezza del creato è una di quelle idee che spaventano la piccola mente umana. Quando si annunziò la prima volta che, rotte allo spazio etereo le barriere di una sfera materiale, le stelle erano tanti Soli, la mente restò sbalordita dalla vastità dell’Universo che gli si veniva lo27 Cf. A. Stoppani, Il dogma e le scienze positive ossia la Missione apologetica del clero nel moderno conflitto tra la ragione e la fede, Fratelli Dumolard, Milano 1884, pp. 117-150.
Padre Angelo Secchi e il suo tempo
243
gicamente presentando, e dalla copia sterminata de’ corpi che lo costituivano. Essa cercò quasi di sfuggire a queste conseguenze col trincerarsi dietro male interpretate sacre parole! Non ci meravigliamo del passato, perché anche oggidì si rinnova per la estensione nel tempo ciò che allora si fece per la vastità dello spazio, e si stenta a credere alle miriadi di secoli che deve avere attraversato il nostro globo per compiere le formazioni geologiche cui tocchiamo con mano. Ma una cosa aiuterà a comprendere l’altra, e saremo convinti che l’opera del Creatore è solo a lui commensurabile, se non nella infinità e nella eternità assoluta, almeno in tanta immensità di spazio e di durata, che noi saremo sempre incapaci di comprenderla interamente28.
A testimonianza dell’apertura mentale di Secchi su temi di cosmologia andrebbe citata anche la sua posizione circa la possibilità di vita nel cosmo. Sebbene suscettibile di diverse vedute religiose e filosofiche, il tema della vita extraterrestre era stato impostato in termini altamente critici per la fede cristiana da Thomas Paine, nella sua opera influente L’età della ragione (1794). Fra fine Settecento e primi Ottocento la teologia non aveva maturato specifiche posizioni al riguardo. Astronomi di fede religiosa, come William Herschel (1738-1822), si erano tuttavia dichiarati favorevoli all’ipotesi che la vita fosse diffusa nell’universo. Secchi tocca il tema sobriamente, ma in modo sufficientemente chiaro, probabilmente influendo su Schiaparelli, anch’egli cattolico, che scriverà qualche anno più tardi in modo più diffuso sull’argomento29. Francesco Denza, barnabita e neodirettore della rifondata Specola Vaticana, condividerà le medesime posizioni. Scrive Secchi nelle sue Lezioni elementari di fisica terrestre: Il creato, che contempla l’astronomo, non è un semplice ammasso di materia luminosa: è un prodigioso organismo, in cui, dove cessa l’incandescenza della materia, incomincia la vita. Benché questa non sia penetrabile ai suoi telescopii, tuttavia, dall’analogia del nostro globo, possiamo argomentarne la generale esistenza negli altri. La costituzio A. Secchi, Le stelle. Saggio di astronomia siderale, p. 288. Si veda la ristampa degli articoli di Schiaparelli raccolti in La vita sul pianeta Marte: tre scritti di Schiaparelli su Marte e i “marziani, a cura di P. Tucci – A. Mandrino – A. Testa, Mimesis, Milano 1998. 28 29
244
Cinque parole della scienza
ne atmosferica degli altri pianeti, che in alcuni è cotanto simile alla nostra, e la struttura e composizione delle stelle simile a quella del nostro sole, ci persuadono che essi o sono in uno stadio simile al presente del nostro sistema, o percorrono taluno di quei periodi, che esso già percorse, o è destinato a percorrere. Dall’immensa varietà delle creature, che furono già e che sono sul nostro, possiamo argomentare la diversità di quelle che possono esistere colà. Se da noi l’aria, l’acqua e la terra sono popolate da tante varietà di esse, che si cambiarono le tante volte al mutare delle semplici circostanze di clima e di mezzo, quante più se ne devono trovare in quegli sterminati sistemi, ove gli astri secondarii sono rischiarati talora non da uno, ma da più soli alternativamente, e dove le vicende climateriche succedentisi del caldo e del freddo devono essere estreme per le eccentricità delle orbite, e per le varie intensità assolute delle loro radiazioni, da cui neppure il nostro sole è esente!30.
È interessante notare come l’astronomo gesuita non manchi di ipotizzare la possibilità di forme di vita anche assai diverse da quanto la chimica e la biologia terrestre ci farebbero immaginare, sposando categorie che paiono anticipare alcune visioni dell’esobiologia contemporanea: È vero che essa [la vita] da noi non può esistere che entro confini di temperatura assai limitati, ma chi può sapere se questi non sono limiti solo pei nostri organismi? Tuttavia, anche con questi limiti, se essa non potrebbe esistere negli astri infiammati, questi astri maggiori avrebbero sempre nella creazione il grande uffizio di sostenerla regolando il corso dei corpi secondarii, mediante l’attrazione delle loro masse, e di avvivarla colla luce e col calore. (...) La vita empie l’universo, e con la vita va associata l’intelligenza, e come abbondano gli esseri a noi inferiori, così possono, in altre condizioni, esisterne di quelli immensamente più capaci di noi. Fra il debole lume di questo raggio divino che rifulge nel nostro fragile composto, mercé del quale potemmo pur conoscere tante meraviglie, e la sapienza dell’autore di tutte le cose è un’infinita distanza che può essere intercalata da gradi infiniti delle sue creature, per le quali i teoremi, che per noi sono frutto di ardui studi, potrebbero essere semplici intuizioni31. A. Secchi, Lezioni elementari di fisica terrestre, pp. 214-215. Ibid., pp. 215-216.
30 31
Padre Angelo Secchi e il suo tempo
245
Il lavoro scientifico, per Secchi, conduce all’umiltà e alla contemplazione. Da credente, egli lo associa spesso alla preghiera. Ritroviamo qui una prospettiva già presente in Robert Boyle, come emerge ad esempio dalle pagine del suo The Christian Virtuoso (1690). Lo stupore che la scienza suscita è destinato per Secchi a crescere con il tempo. Scrive nel testo che presenta i risultati dei suoi studi spettroscopici: «Né siamo ancora alla fine delle meraviglie: lo saremo soltanto quando cesseremo di studiare»32. La fede e la scienza, affermava il gesuita in occasione dell’inaugurazione del nuovo Osservatorio del Collegio Romano: sono raggi di uno stesso Sole diretti ad illuminare le nostre cieche e deboli menti alla via della Verità. Senza quest’alto scopo, tali studi sono una mera curiosità, e spesso solamente fruttiferi di pene o almeno di non remunerate fatiche. Il pensare quanto sia magnifico il manifestare le opere del Creatore è uno stimolo che sprona anche quando viene meno ogni altro eccitamento; questo solleva la mente sopra la materialità delle cifre, e forma di queste fatiche un’opera sublime e divina33.
Scienza e fede, infine, sono ancora in stretta relazione nelle attività di divulgazione scientifica che Secchi promosse, soprattutto nella città di Roma. Egli giunse ad ipotizzare, con Faà di Bruno a Torino, l’impiego delle chiese come aule per conferenze scientifiche e perfino come osservatori astronomici, ove mostrare al grande pubblico, attraverso un sistema di specchi, immagini della Luna o proiezioni del disco solare. È questa una visione della divulgazione scientifica oggi poco conosciuta, che potrebbe tuttavia prendersi come esempio di una scienza che diviene davvero popolare, perché la conoscenza era vista da questi autori come un diritto davvero di tutti. Il beato Francesco Faà di Bruno cercò di coinvolgere Secchi in un ciclo di conferenze da tenere nella chiesa di Santa Maria del A. Secchi, Le stelle. Saggio di astronomia siderale, p. 312. A. Secchi, Descrizione del nuovo osservatorio del Collegio Romano, Memorie dell’Osservatorio del Collegio Romano (1856), p. 157, citato in S. Maffeo, Il Collegio Romano e l’insegnamento delle scienze, in A. Altamore – S. Maffeo (edd.), Angelo Secchi. L’avventura scientifica del Collegio Romano, pp. 15-41, qui p. 40. 32 33
246
Cinque parole della scienza
Suffragio a Torino. Scriveva Faà di Bruno a Secchi il 31 dicembre 1873: Ove V.S. Rev. non osti, preferirei lezioni di astronomia fisica sul sole o sulla luna, le stelle, ecc., s’intende con le più brillanti esperienze, che abbagliano la moltitudine. Si potrebbe, per es., projettare degli spettri parlando della composizione degli astri; si potrebbe projettare la luna proprio dinanzi all’uditorio. (...) Per mezzo della cupola, che ha 16 finestre e con qualche apparecchio parallattico si potrebbe servendosi di specchi a 45° far scendere l’immagine della luna su un diaframma a vista del pubblico34.
Di questo entusiasmo gli studi astronomici si sono sempre nutriti. Ed è questo l’entusiasmo che, con il trascorrere dei secoli, non dovranno mai perdere.
P. Palazzini, Al margine di due centenari: Pio IX e P. Angelo Secchi, p. 12.
34
L’avvenire dell’inconscio in psicoanalisi Nicolò Terminio
1. Autobiografia del desiderio1 Per introdurre il tema di questo capitolo vorrei prendere spunto da due citazioni. La prima è tratta da un libro dello psicoanalista Christopher Bollas che comincia la sua riflessione sull’inconscio evocando alcune esperienze della sua infanzia e mostrando come queste costituiscano ancora oggi la trama implicita che orienta la sua vita quotidiana. Con il suo racconto ci riporta all’epoca in cui da piccolo andava in campagna con il nonno e ci mostra come alcuni episodi apparentemente dimenticati siano rimasti attaccati ad alcune frasi e ad alcuni oggetti che continuano a evocare quelle esperienze. Le riflessioni di Bollas convergono in questa prima citazione: Ognuno di noi è in segreto un romanziere, compositore, pittore, scultore, danzatore. Noi componiamo, mediante linguaggio, suono, immagine, gesto e movimento, migliaia di idee inconsce circa il mondo in cui viviamo2.
Proseguiamo il discorso riprendendo alcune osservazioni di Cesare Garboli sui romanzi di Elsa Morante. Anche in questo caso ciò che ha attirato la mia attenzione è stata la dimensione temporale che costituisce la stoffa dei romanzi:
Nicolò Terminio, Centro Telemaco di Jonas (sede di Torino), Istituto di Ricerca di Psicoanalisi Applicata di Milano. 2 C. Bollas, La domanda infinita. Tre casi clinici, trad. it. di G. Noferi, Astrolabio, Roma 2009, p. 8. 1
248
Cinque parole della scienza
Insomma Elsa Morante, con l’aria di chi informa, mescola tempi e avvenimenti diversi, intesse, intorno a un determinato ambiente, una trama, una rete di rapporti, ravvicina avvenimenti lontani e distanzia cose vicine e presenti. In una parola, cancella il tempo. (...) Ciò che muove la vocazione di Elsa Morante, del romanziere Elsa Morante, sembra dunque chiaro ormai. È la percezione di un secondo modo di durare delle cose, come se la vita potesse essere, insieme, eternamente perduta e eternamente viva. Come non giudicarlo illusorio, questo tempo stregato, questo tempo psichico? Come non giudicarlo una fola, una menzogna e un sortilegio? Eppure questo è il solo, unico modo di durare della realtà, vertiginosa e pacifica. Ora, quando un narratore, d’istinto, riesce a disporre il divenire della propria materia narrativa sul piano di un tale orizzonte, nascono, crescono su se stessi, come universi compiuti, ricchi di leggi proprie, i romanzi. È inutile stare a discutere su come i romanzi debbano essere fatti. I romanzi sono fatti di questa stoffa, non ce n’è un’altra per cucirli3.
Ho scelto le citazioni di Bollas e Garboli perché ci conducono direttamente al cuore pulsante di un’analisi. L’esperienza psicoanalitica è finalizzata a riformulare il rapporto che ciascuno di noi ha con il tempo dell’inconscio, ossia con le tracce degli eventi che hanno scandito la nostra vita e che continuano a orientare lo sguardo verso il futuro. Da questo punto di vista potremmo dire che una cura psicoanalitica è una sorta di autobiografia guidata dal desiderio di un analista, perché il desiderio dell’analista punta a fare incontrare il soggetto con il tempo dell’inconscio.
2. Tempo e inconscio In una cura psicoanalitica tempo e inconscio entrano in risonanza sin dalla prima seduta. Per chi segue l’orientamento lacaniano in psicoanalisi, il tempo della seduta è variabile: non è il tempo dell’orologio a governare il ritmo di una cura, ma il tempo dell’in-
C. Garboli, La gioia della partita. Scritti 1950-1977, a cura di L. Desideri – D. Scarpa, Adelphi, Milano 2016, pp. 164-167. 3
L’avvenire dell’inconscio in psicoanalisi
249
conscio4. E così i pazienti sanno sin dalla prima volta che il tempo non sarà scandito dall’orologio, ma dall’inconscio. Solitamente dico al paziente che in seduta saremo in tre: oltre a noi due ci sarà un “terzo” che è l’inconscio. È impossibile concepire il rapporto tra analista e paziente senza questo riferimento all’inconscio. Ma cos’è l’inconscio? Possiamo dire innanzitutto che l’inconscio si manifesta nella forma temporale della sorpresa. Nella nostra vita l’inconscio è una trama silenziosa, un automatismo silenzioso, che costituisce la vera trama del nostro romanzo interiore e allo stesso tempo è un inciampo, una sorpresa, un qualcosa che ci prende alla sprovvista. Ad esempio, un paziente può raccontare durante una seduta che ha avuto un litigio con la sorella e invece di dire “mia sorella” ha detto “mia figlia”. È in questo frangente che la seduta può interrompersi. I pazienti quando iniziano a gustare, e non solo a intendere, l’utilità del tempo variabile della seduta dicono sorridendo: «Ma lei mi interrompe sempre sul più bello». Il momento più bello è quello in cui il discorso del paziente incontra un punto di nonsenso che viene percepito però come estremamente significativo. L’interruzione della seduta avviene su un punto del discorso dove l’analista interviene senza dare un significato. Sarà compito del paziente trovare il significato. E così grazie a un lapsus può venire alla luce la posizione inconscia che un paziente ha sempre occupato nella relazione con la sorella. Nelle sedute successive, riprendendo quel lapsus, il paziente arriverà a capire sulla propria pelle gli aspetti profondi del suo modo di essere che riguardano l’identificazione con il genitore di sua sorella. Ecco uno dei modi in cui l’inciampo del discorso introduce il soggetto all’esperienza di una parola “piena” dove emerge la verità dell’inconscio5. 4 Sul tempo variabile della seduta mi permetto di rimandare a due miei lavori: Misurare l’inconscio? Coordinate psicoanalitiche nella ricerca in psicoterapia, prefazione di M. Recalcati e postfazione di V. Cigoli, Bruno Mondadori, Milano 2009 e Teoria e tecnica della psicoanalisi lacaniana, prefazione di A. Pagliardini, Galaad, Giulianova (TE) 2016. 5 La distinzione tra “parola piena” e “parola vuota” indica due modalità di funzionamento della parola. Tale distinzione è ispirata dalla dialettica hegeliana del riconoscimento. Lacan trova un esempio paradigmatico di questa dialettica nell’enunciazione della frase: «Tu sei la mia donna». Il soggetto che pronuncia questo messag-
250
Cinque parole della scienza
3. Sorpresa e irreversibilità Una cura psicoanalitica deve aprire la possibilità di un tempo della sorpresa6 e quindi il momento migliore per far emergere l’inconscio avviene quando una persona arriva in seduta e dice di non essersi preparata il discorso. Sarà proprio questo allentamento del controllo a favorire l’esperienza dell’inconscio che si concretizza quando un paziente dice più di quello che pensava avrebbe mai detto. L’esperienza dell’inconscio spiazza il discorso del paziente allontanandolo dagli ormeggi abituali, innanzitutto dall’immagine del proprio Io. Secondo Lacan la vera follia dell’essere umano è credersi un Io, identificarsi a un’immagine di sé che avrebbe la pretesa di rappresentare in modo esaustivo la verità desiderante del soggetto. Lo scopo di un’analisi è introdurre l’esperienza dell’inconscio come fattore di cambiamento anziché come fattore di ripetizione. Una cura psicoanalitica punta a trasformare l’inconscio da trama che si ripete sempre uguale a se stessa in qualcosa che invece può far sorgere un cambiamento. Il desiderio dell’analista punta a introdurre un trauma in questa trama, qualcosa che segna una scansione irreversibile. Sorpresa e irreversibilità sono due qualità dell’incontro con la verità del proprio desiderio inconscio. La sorpresa indica l’esperienza dell’essere spiazzati, mentre l’irreversibilità implica il fatto che una volta incontrata la propria verità non si può più ritornare indietro facendo finta che niente sia accaduto.
4. Noi siamo il tempo vissuto Ciascuno di noi vive il tempo in una modalità particolare esprimendo quell’intimo intreccio che si dà tra il senso soggettivo del gio chiede implicitamente di essere riconosciuto nei termini di «io sono il tuo uomo». Così come il soggetto che dice «tu sei il mio maestro» chiede implicitamente di essere riconosciuto come «io sono il tuo allievo» (cf. J. Lacan, Funzione e campo della parola e del linguaggio in psicoanalisi, in Id., Scritti, vol. I, a cura di G.B. Contri, Einaudi, Torino 1974, pp. 230-316). 6 «Naturalmente, questo momento della sorpresa non può essere calcolato; sgorga all’improvviso, interrompendo il flusso uniforme del tempo» (E. Fachinelli, Imprevisto e sorpresa in analisi, in L. Boni (ed.), Su Freud, Adelphi, Milano 2012, p. 110).
L’avvenire dell’inconscio in psicoanalisi
251
tempo e un tempo esterno scandito dagli orologi. Le diverse configurazioni psicopatologiche mostrano le derive peculiari a cui può andare incontro tale intreccio. L’esitazione dubitante del paziente ossessivo rappresenta il tentativo nevrotico di evitare il tempo della scelta, lo stile dell’ossessivo si traduce in una posticipazione cronica dell’atto in cui potrebbe mettersi in gioco autenticamente. Il nevrotico ossessivo preferisce trattenere quella parte di sé a cui potrà continuare a dare il massimo valore finché rimarrà prigioniero volontario di un rimuginio autoreferenziale. Nella clinica del paziente borderline osserviamo invece una perenne “momentaneizzazione”7 dell’esistenza, che non consente al soggetto di trovare un filo conduttore nelle proprie esperienze di vita. Nella personalità borderline il senso del tempo soggettivo è frammentato e la propria storia viene vissuta come uno sciame di eventi che fanno fatica a strutturarsi in un percorso esistentivo. Se rivolgiamo poi l’attenzione al vissuto del paziente psicotico potremo notare l’intreccio impossibile tra il senso soggettivo del tempo e un tempo esterno veicolato dai vari vincoli sociali che scandiscono la nostra vita quotidiana. Una paziente psicotica mi parlava affranta del suo sentirsi in esilio dal tempo degli orologi e dei calendari, non era mai riuscita a capire come agganciare la propria esistenza al tempo che ritmava la vita degli altri esseri umani.
5. Motivazione e desiderio Possiamo dire che i soggetti nevrotici si rifugiano nel proprio Io perché si difendono dall’esperienza dell’inconscio e non vogliono assumersi la responsabilità del proprio desiderio. Il compito dell’analisi è allora quello di introdurre qualcosa di irreversibile nella vita delle persone, consentendo così di fare l’esperienza della perdita di padronanza che non è soltanto un rischio ma anche un’opportunità evolutiva. E per introdurre qualcosa di irreversibile bisogna sospen Cf. B. Kimura, Scritti di psicopatologia fenomenologica, ed. it. a cura di A. Ballerini, Fioriti, Roma 2005. 7
252
Cinque parole della scienza
dere l’automatismo inconscio che è radicato in motivazioni difensive, sollecitando invece delle motivazioni evolutive. Le motivazioni evolutive sono tutte quelle motivazioni all’esplorazione e all’assertività che esprimono il desiderio di avere un proprio desiderio8. Per il soggetto l’assunzione del desiderio singolare non passa soltanto attraverso la bussola simbolica che viene ereditata dall’Altro. Come ha ben evidenziato Massimo Recalcati, c’è qualcosa di “più pulsionale” che richiede un atto da parte del soggetto affinché possa esserci un effettivo processo di soggettivazione. È per tale ragione che l’assunzione della responsabilità del proprio desiderio inconscio non coincide con il recupero del capitolo censurato dalla coscienza, né con la ricostruzione della memoria storica del soggetto.
6. Il futuro anteriore dell’inconscio La temporalità del soggetto non è condizionata solo dalle tracce del passato, esiste un vissuto temporale che coincide con un divenire, essenzialmente corporeo-pulsionale, che configura la storia passata come un’opera sempre aperta a nuove possibilità per l’avvenire. Il destino del soggetto non è del tutto scritto nelle tracce inconsce che rievocano il passato, queste stesse tracce sono suscettibili di un trattamento diverso rispetto a quello degli automatismi (difensivi) dell’inconscio. In una cura psicoanalitica ci si prende cura del passato remoto dell’inconscio riabilitando il futuro anteriore dell’inconscio. Nella psicoanalisi lacaniana l’inconscio non è solo un passato, ma anche un avvenire. E questa è una posizione epistemologica che non trova sostegno soltanto nelle ricerche e nelle esperienze psicoanalitiche, ma anche in diversi studi neurocognitivi che hanno sempre più contribuito a delineare il funzionamento della memoria non come quello di un archivio in cui si sedimentano le tracce del passato, ma come un processo di simbolizzazione (perlopiù in8 In ambito psicoanalitico lacaniano Massimo Recalcati ha sottolineato la differenza lacaniana tra il desiderio come desiderio dell’Altro e il desiderio come desiderio di avere un proprio desiderio (desiderio singolare).
L’avvenire dell’inconscio in psicoanalisi
253
conscio) che riscrive costantemente il passato. È il funzionamento della memoria9 che contribuisce a farci comprendere che il tempo storico dell’essere umano è essenzialmente una riscrittura del passato orientata dall’atto di apertura che il soggetto assume rispetto all’avvenire. Come ha fatto notare Recalcati, sin dall’inizio del suo insegnamento Lacan si è mosso verso la concettualizzazione di una temporalità non riducibile alla ricostruzione della memoria storica del soggetto: «Il tempo storico piuttosto si riferisce all’influenza che sul pensiero di Lacan hanno esercitato Essere e tempo, di Martin Heidegger, e L’essere e il nulla, di Jean-Paul Sartre. Più precisamente, l’obiettivo di Lacan è quello di provare a ripensare Freud con Heidegger e Sartre»10. Nel suo “ritorno a Freud” Lacan scarta ogni ipotesi deterministica sulla nozione freudiana di inconscio, differenziandolo da un testo già tutto scritto. La psicoanalisi si configura infatti come un’esperienza dove un soggetto può risignificare gli eventi della sua storia, ricostruire “l’altra ragione” del proprio percorso esistentivo dando al passato il senso delle necessità future. Nel primo Lacan la verità del soggetto dell’inconscio emerge in un movimento di storicizzazione dell’esistenza. L’analisi consisterebbe in una progressiva risoggettivazione degli eventi che hanno dato forma al passato secondo una temporalità che guarda all’avvenire. Lacan riprende la lezione di Heidegger che destruttura la concezione lineare-cumulativa del tempo, dimostrando che il senso dell’esistenza risiede nella sua apertura al futuro. L’esistenza prende corpo come una «temporalizzazione continua delle sue possibilità»11. C’è anche un accento sartriano in questa concezione della temporalità: «L’esistenza precede l’essenza», perché nessun passato, nessuna essenza a priori, può determinarsi nella vita del soggetto come causa efficiente. L’esistenza assume significato solo a partire dal suo futu-
Cf. M. Solms, La coscienza dell’Es. Psicoanalisi e neuroscienze, a cura di A. Clarici, Raffaello Cortina, Milano 2018, pp. 227-235. 10 M. Recalcati, Per Lacan. Neoilluminismo, neoesistenzialismo, neostrutturalismo, Borla, Roma, 2005, p. 33. 11 M. Recalcati, Jacques Lacan. Desiderio, godimento e soggettivazione, Raffaello Cortina, Milano 2012, p. 93. 9
254
Cinque parole della scienza
ro, «come già indicava Nietzsche, a posteriori (Nachträglichkeit), retroattivamente, après coup»12. L’obiettivo di un’analisi non si configura come rimemorazione integrale del passato o ricostruzione completa del testo rimosso, ma «solo come realizzazione storica del futuro anteriore del soggetto»13. In tal modo, Lacan intreccia la concezione della temporalità di matrice heideggeriana con la “retroazione” freudiana (Nachträglichkeit): in una cura analitica non si tratta di riportare alla coscienza l’integrità del suo testo storico, «ma di ricostruire retroattivamente il senso singolare della propria storicizzazione soggettiva come se fosse un nuovo testo e una nuova scrittura»14. La verità dell’inconscio non riporta il soggetto verso il luogo dell’Origine, ma verso l’assunzione della sua storia in rapporto al suo futuro. «Non si tratta di ritrovare l’arché ma di operare una storicizzazione continua di ciò che è stato alla luce di ciò che è in divenire»15. Il peso del passato dipende dal significato che il soggetto gli conferisce a partire dalla sua apertura verso il suo futuro. Come mette in luce Recalcati, questa è la prima teoria lacaniana della soggettivazione: Non c’è processo di soggettivazione se non come un movimento continuo di ripresa di ciò che è già stato verso ciò che non è ancora, verso l’avvenire come possibilità aperta di dare sempre un nuovo senso al proprio testo storico16.
Da questo punto di vista, la temporalità dell’inconscio mostra che la storia del soggetto non è il suo passato remoto, ma la possibilità di reinventare la sua verità storica. Il soggetto non è il risultato di ciò che è stato, non è già scritto dai condizionamenti che lo hanno determinato. Ne consegue che il soggetto dell’inconscio si rivela sempre come un’eccedenza rispetto al già stato, anzi configura la
Ibid. Ibid. 14 Ibid., p. 94. 15 Ibid., p. 95. 16 Ibid., p. 96. 12 13
L’avvenire dell’inconscio in psicoanalisi
255
possibilità e il compito etico di riprendere costantemente ciò che è avvenuto, in «una soggettivazione continua del già stato»17. In questa cornice concettuale i sintomi si fanno portavoce di quella memoria storica del soggetto che attende di essere soggettivata. Il ritorno del desiderio rimosso che avviene attraverso la perturbazione del sintomo costituisce dunque un’occasione, e una chiamata, per risoggettivare il passato e vivere ciò che non è stato ancora scritto.
Nota bibliografica C. Bollas, La domanda infinita. Tre casi clinici, Astrolabio, Roma 2009. E. Fachinelli, Imprevisto e sorpresa in analisi, in L. Boni (ed.), Su Freud, Adelphi, Milano 2012, pp. 107-112. C. Garboli, La gioia della partita. Scritti 1950-1977, a cura di L. Desideri e D. Scarpa, Adelphi, Milano 2016. B. Kimura, Scritti di psicopatologia fenomenologica, ed. it. a cura di A. Ballerini, Fioriti, Roma 2005. J. Lacan, Funzione e campo della parola e del linguaggio in psicoanalisi, in Id., Scritti, vol. I, a cura di G.B. Contri, Einaudi, Torino 1974, pp. 230-316. M. Recalcati, Per Lacan. Neoilluminismo, neoesistenzialismo, neostrutturalismo, Borla, Roma 2005. M. Recalcati, Jacques Lacan. Desiderio, godimento e soggettivazione, Raffaello Cortina, Milano 2012. M. Solms, La coscienza dell’Es. Psicoanalisi e neuroscienze, a cura di A. Clarici, Raffaello Cortina, Milano 2018. N. Terminio, Misurare l’inconscio? Coordinate psicoanalitiche nella ricerca in psicoterapia, prefazione di M. Recalcati e postfazione di V. Cigoli, Bruno Mondadori, Milano 2009. N. Terminio, Teoria e tecnica della psicoanalisi lacaniana, prefazione di A. Pagliardini, Galaad, Giulianova (TE) 2016.
17
Ibid., p. 97.
A proposito di questo volume
Per impostare in modo proficuo un dialogo interdisciplinare è bene essere avvertiti di come le stesse parole vengano utilizzate con significati diversi in contesti diversi. Il volume raccoglie articoli elaborati da studiosi che chiariscono, ciascuno nel proprio ambito di competenza (scientifico, filosofico, teologico), il senso di alcune parole – memoria e previsione, dato e informazione, tempo –, che sono legate tra loro dall’idea di uno sviluppo temporale proprio dell’attività scientifica. La scienza procede infatti dalla memoria dell’accaduto (almeno parziale) alla previsione del futuro (in forma di tentativo), dall’accumulo di dati all’estrazione di informazioni. Una scelta di cinque parole che risulta certo particolare, ma per nulla disorganica. Gli autori sono membri e amici dell’associazione Nuovo SEFIR (Scienza E Fede sull’Interpretazione del Reale).
Marco Bernardoni, religioso dehoniano, ha perfezionato i suoi studi occupandosi del rapporto tra teologia e pensiero scientifico. È autore del saggio Scenari dalla fine del mondo. Teologia e scienza nell’opera di Robert John Russell (EDB, 2021). Per Città Nuova ha curato, con Sergio Rondinara, gli e-book della collana «Parole della scienza»: Teorie e modelli (2015); Continuo e discreto (2016); Forma e materia (2017).
Indice
Prefazione ........................................................................ pag. 5 Memoria e previsione Il come e il dove della memoria Carlo Cirotto .................................................................... » 9 Memoria e previsione: il punto di vista dell’informatica Stefano Crespi-Reghizzi - Angelo Montanari....................... » 23 Memoria e previsione… e quel che ne resta Antonio Sabetta ................................................................ » 71 Memoria e previsione negli animali Augusto Vitale................................................................... » 91 Dato e informazione I Big Data nelle ricerche biomediche Carlo Cirotto..................................................................... » 107 Dato e informazione Giovanni Pistone .............................................................. » 133 Tempo Liberi e responsabili nel nostro tempo Gennaro Cicchese .............................................................. » 153 L’enigma del tempo e i ritmi della vita Carlo Cirotto..................................................................... » 179
Informatica, logica e tempo Angelo Montanari ............................................................ » 201 Padre Angelo Secchi e il suo tempo Giuseppe Tanzella-Nitti..................................................... » 223 L’avvenire dell’inconscio in psicoanalisi Nicolò Terminio................................................................. » 247 A proposito di questo volume .......................................... » 256