308 26 819KB
Italian Pages 210/215 [215] Year 2013
5305-cop-Laudisa-Datteri_a1 01/03/2013 11:29 Page 1
Edoardo Datteri svolge attività di ricerca in filosofia della scienza presso l’Università di Milano-Bicocca. Ha pubblicato numerosi articoli su riviste italiane e internazionali su temi di filosofia delle scienze cognitive e sui fondamenti epistemologici dell’intelligenza artificiale. È autore di un volume introduttivo alle scienze cognitive di prossima pubblicazione presso la casa editrice Carocci. ISBN 978-88-6633-123-0
€ 15,00 AB 5305
i prismi filosofia
Federico Laudisa, Edoardo Datteri La natura e i suoi modelli
Federico Laudisa insegna logica e filosofia della scienza presso l’Università degli Studi di Milano-Bicocca. Oltre alla monografie Causalità. Storia di un modello di conoscenza (Carocci 1999), La natura delle cose. Introduzione ai fondamenti e alla filosofia della fisica (con V. Allori, M. Dorato, N. Zanghì, Carocci 2005), La causalità (Carocci 2010) e Albert Einstein. Un atlante filosofico (Bompiani 2010), ha pubblicato più di trenta articoli di filosofia della scienza, storia e filosofia della fisica su riviste italiane e internazionali.
F
Federico Laudisa, Edoardo Datteri La natura e i suoi modelli Un’introduzione alla filosofia della scienza Seconda edizione
240 mm
Nata un secolo fa all’ombra della logica, della matematica e della fisica, la filosofia della scienza si è progressivamente estesa in territori sempre più ampi, fino a toccare aree delle scienze sociali e umane — come l’economia, la sociologia o la psicologia — sempre più attente alle loro dimensioni epistemologiche e fondazionali. Il volume si rivolge a tutti coloro che, per motivi diversi, si trovano ad affrontare questioni di epistemologia e metodologia delle teorie scientifiche senza avere necessariamente una formazione filosofica specifica, e si propone di parlare tanto a lettori di formazione non scientifica quanto a quelli di formazione scientifica, permettendo loro di apprezzare quanto la scienza abbia contribuito all’evoluzione culturale — e non soltanto tecnologica — della modernità.
170 mm
11 mm
i prismi filosofia
i prismi filosofia
Raffaella Campaner La causalità tra filosofia e scienza Federico Laudisa, Edoardo Datteri La natura e i suoi modelli
Federico Laudisa, Edoardo Datteri La natura e i suoi modelli Un’introduzione alla filosofia della scienza Seconda edizione
© 2013by CLUEB Cooperativa Libraria Universitaria Editrice Bologna Prima edizione: ArchetipoLibri, aprile 2011 Ristampa: Clueb, marzo 2012 Seconda edizione: Clueb, marzo 2013 Le fotocopie per uso personale del lettore possono essere effettuate nei limiti del 15% di ciascun volume/fascicolo di periodico dietro pagamento alla SIAE del compenso previsto dall’art. 68, commi 4 e 5, della legge 22 aprile 1941 n. 633. Le fotocopie effettuate per finalità di carattere professionale, economico o commerciale o comunque per uso diverso da quello personale possono essere effettuate a seguito di specifica autorizzazione rilasciata da CLEARedi, Centro Licenze e Autorizzazioni per le Riproduzioni Editoriali, Corso di Porta Romana 108, 20122 Milano, e-mail [email protected] e sito web www.clearedi.org.
ISBN 978-88-6633-123-0
ArchetipoLibri 40126 Bologna - Via Marsala 31 Tel. 051 220736 - Fax 051 237758 www.archetipolibri.it / www.clueb.com ArchetipoLibri è un marchio Clueb Finito di stampare nel mese di marzo 2013 da Studio Rabbi - Bologna
Prefazione
09
1 Filosofia, scienza e filosofia della scienza
33
2 La nozione di teoria scientifica e la sua evoluzione
61
3 La spiegazione scientifica
97
4 Le leggi
127
5 Causalità, induzione, probabilità
153
6 Il realismo e l’anti-realismo scientifico
183
7 Il ruolo dei modelli nella teorizzazione scientifica
201
Indice bibliografico
207
Indice analitico
Indice
07
Prefazione
Prima che la filosofia della scienza venisse introdotta come disciplina, tutti gli studenti di filosofia ritenevano fosse loro compito occuparsi, anche se solo occasionalmente, degli aspetti sia metodologici sia di sostanza dell’impresa scientifica. E se il risultato era spesso di confondere il compito della filosofia con quello della scienza, e quasi altrettanto spesso quello di proiettare il quadro teorico delle speculazioni scientifiche più recenti sull’immagine del mondo di senso comune [...], questo modo di procedere aveva però il pregio di assicurare che la riflessione sulla natura e le implicazioni del discorso scientifico fossero parte integrante e vitale del pensiero filosofico generale. Ma ora che la filosofia della scienza ha un’esistenza reale e non solo nominale è sorta la tentazione di lasciarla agli specialisti, e di confondere l’idea corretta che la filosofia non è scienza con l’idea erronea che la filosofia sia indipendente dalla scienza. [Sellars 2004, 57]
La filosofia della scienza è, tutto sommato, una disciplina giovane se considerata nella prospettiva complessiva della tradizione filosofica. Non è in fondo molto più di un secolo che i filosofi indagano le implicazioni filosofiche delle scienze, nella consapevolezza di muoversi in un’area che pur non essendo strettamente scientifica sembra diventare sempre più rilevante per la comprensione dei fondamenti della conoscenza scientifica. Nata all’ombra della logica, della matematica e della fisica, la filosofia della scienza è andata via via estendendosi in territori sempre più ampi, che spaziano dalla biologia all’informatica, senza mancare di far avvertire la sua presenza anche in campi meno tradizionali ma progressivamente sempre più attenti alle dimensioni epistemologiche e fondazionali delle discipline che vi afferiscono: scienze sociali e umane come l’economia, la sociologia e la psicologia (in molte delle sue numerose varianti) comprendono in forma sempre più stabile al loro interno una regione di discussioni che si concentrano su problemi pienamente epistemologici come la natura delle spiegazioni, l’uso dei metodi quantitativi o quello dei ragionamenti causali. Il presente volume si rivolge a tutti coloro che, per motivi diversi, si trovano ad affrontare questioni di epistemologia e metodologia delle teorie scientifiche senza avere necessariamente una formazione filosofica specifica. In questo senso, l’ambizione principale del volume è quella di poter parlare tanto a lettori di formazione non scientifica quanto a quelli di formazione scientifica, permettendo loro di apprezzare quanto la scienza abbia contribuito all’evoluzione culturale – e non soltanto tecnologica – della modernità. Il volume è organizzato nel modo seguente. Il primo capitolo metterà in rilievo alcune caratteristiche chiave della scienza moderna e problematizzerà la distinzione – spesso enfatizzata oltre ragionevole misura – tra scienze naturali e scienze umane. I capitoli successivi saranno dedicati a nozioni e posizioni teoriche di primaria importanza per la comprensione degli aspetti metodologici ed epistemologici delle scienze: la nozione di teoria scientifica (capitolo 2), di spiegazione scientifica (capitolo 3), di legge (capitolo 4), di causalità, induzione e probabilità (capitolo 5), e di modello
8
Prefazione
(capitolo 7); il capitolo 6 sarà dedicato all’analisi del dibattito tra realismo e antirealismo scientifico. Anche se il volume è stato scritto in piena condivisione di contenuti e di obiettivi, i capitoli 1, 2 e 5 sono da attribuire a Federico Laudisa, mentre i capitoli 3, 4, 6 e 7 sono da attribuire a Edoardo Datteri. Gli autori desiderano ringraziare Emanuele Serrelli per i suoi preziosi suggerimenti.
Filosofia, scienza e filosofia della scienza
1.1 Introduzione Non scopriamo niente di originale quando osserviamo che la scienza riempie e influenza continuamente le nostre vite, tanto dal punto di vista pratico quanto da quello psicologico. La misura in cui questo processo si realizza può essere anzi talmente massiccia e tecnologicamente orientata da indurci a trascurare i problemi concettuali che l’impresa scientifica solleva e ha sollevato nel corso degli ultimi quattro secoli (soltanto per limitarci alla scienza moderna). Obiettivo di questo volume è quello di introdurre alla dimensione filosofica della scienza, sulla base dell’idea che le teorie scientifiche abbiano profondamente inciso – e continuino a farlo! – su un gran numero di nozioni e di problemi di cui la filosofia si è occupata fin dalla sua nascita nella Grecia del VII secolo a.C. Potremmo infatti (con una certa dose inevitabile di approssimazione) iniziare a definire la filosofia della scienza come l’analisi dei metodi, dei contenuti concettuali e delle implicazioni filosofiche delle moderne teorie scientifiche. Come è facile intuire, la filosofia della scienza presuppone naturalmente che le relazioni tra filosofia e scienza siano profonde, degne di essere indagate e fondamentali per la comprensione sia della natura della filosofia sia di quella della scienza. D’altra parte, esistono svariati problemi filosofici importanti e dotati di un’antica tradizione – il problema del determinismo e della libertà del volere, quello della relazione tra mente e corpo, e così via – che non soltanto non possono essere affrontati in una prospettiva nuova se non si tiene conto delle teorie e dei risultati della scienza moderna, ma che rischiano anzi di perdere di significato se tali teorie e tali risultati vengono sottovalutati o addirittura ignorati. La scienza moderna rappresenta inoltre uno dei massimi contributi occidentali alla cultura e all’intelligenza umane: cercare di comprenderne la natura e i fondamenti epistemologici aiuta a cogliere il significato di una tra le più profonde imprese culturali dell’uomo. Nella prospettiva di questo libro, il collegamento tra scienza e filosofia e la sua rilevanza rappresentano quasi un’ovvietà. Anche se non manca mai chi dimostra scetticismo verso la fecondità di un simile collegamento, tanto più in un’epoca iper-tecnologica come la nostra che tende a enfatizzare gli aspetti puramente applicativi e strumentali della scienza, è la storia stessa del pensiero umano a testimoniare in favore di un nesso inscindibile tra la razionalità scientifica e l’analisi filosofica. Da un lato, infatti, per una larga parte delle grandi figure della filosofia occidentale di tutti i tempi la scienza ha rappresentato non soltanto un’ispirazione di primo piano ma anche un’area alla quale fornire contributi diretti mentre, d’altro lato, numerosi tra i maggiori scienziati moderni e contemporanei hanno manifestato la loro consapevolezza della portata filosofica delle teorie che andavano costruendo. Un esempio per tutti è Albert
10
Filosofia, scienza e filosofia della scienza
Einstein, che in una lettera del 1944 scriveva: Molte persone al giorno d’oggi – compresi scienziati professionisti – mi appaiono come colui che ha visto migliaia di alberi senza mai vedere una foresta. Una conoscenza dello sfondo storico e filosofico fornisce proprio quella indipendenza dai pregiudizi della propria generazione dai quali la maggior parte degli scienziati sono afflitti. Questa indipendenza determinata dall’analisi filosofica è – a mio giudizio – il segno di distinzione tra un semplice artigiano o specialista e un autentico cercatore di verità.1
Proprio alla luce della storia stessa della cultura filosofico-scientifica occidentale, le relazioni tra filosofia e scienza appaiono quindi profonde e vitali, sia nel passato sia per chi al giorno d’oggi si interroghi sull’orizzonte concettuale degli sviluppi contemporanei delle scienze. Possiamo dunque sottolineare che al di là della grande varietà di problemi e di posizioni presenti nel dibattito attuale, la filosofia della scienza condivide almeno due grandi assunzioni di fondo relative al rapporto filosofia-scienza [Glymour 1999]. La prima assunzione – in una direzione che parte dalla scienza e si muove verso la filosofia – è che esistono questioni essenzialmente filosofiche che nascono dalle scienze ma che non si esauriscono in esse. Consideriamo alcuni esempi. Che particolare tipo di conoscenza è la conoscenza scientifica e quali sono i suoi limiti? Perché larga parte della conoscenza scientifica è dimostrativa e cosa rende certa questa forma di conoscenza? Su quali basi affermiamo che una teoria scientifica è vera? Domande come queste non avrebbero potuto porsi senza un elevato sviluppo delle teorie scientifiche: esse presuppongono infatti che le teorie stesse abbiano catturato effettivamente i meccanismi di parti importanti del mondo naturale (e del nostro modo di comprenderli) e che quindi rappresentino un corpo di conoscenze effettive. È anche vero, tuttavia, che non esiste alcun manuale di una qualsiasi disciplina scientifica che includa in modo organico tra i propri argomenti domande come queste, né alcun manuale scientifico che tenti di fornire solide ragioni per considerare possibili risposte a queste domande come uno dei compiti fondamentali delle rispettive discipline scientifiche. Si tratta infatti di domande essenzialmente filosofiche, alle quali si tenta di rispondere non soltanto con esperimenti di laboratorio, simulazioni al computer o teoremi matematici, ma anche e soprattutto con argomenti concettuali, che dipendono a loro volta da teorie filosofiche su nozioni come la verità e la certezza. La seconda assunzione fondamentale della filosofia della scienza individua invece la direzione opposta, quella che procede in qualche modo dalla filosofia alla scienza. Secondo questa assunzione, i tentativi di rispondere a domande come quelle riportate sopra sono non soltanto importanti per la filosofia ma anche fecondi per la scienza. Gli esempi anche in questo caso non mancano: le indagini filosofiche ed epistemologiche su come si debba caratterizzare in modo rigoroso il concetto di dimostrazione sono alle origini della moderna logica matematica; l’obiettivo dei matematici dei primi decenni del secolo scorso di costruire una teoria rigorosa degli algoritmi ha rappresentato un 1
Per una discussione del pensiero filosofico di Albert Einstein, si veda Laudisa [2010b].
Filosofia, scienza e filosofia della scienza
impulso fondamentale per la nascita e il consolidamento di quella che oggi si definisce informatica teorica, mentre alcune domande cruciali che il XX secolo ha sollevato sulla natura della mente o sui rapporti tra mente e linguaggio sono alle origini delle moderne scienze cognitive. Nel presentare il problema del rapporto tra filosofia e scienza, abbiamo sinteticamente disegnato un percorso nel quale pensiero filosofico e razionalità scientifica assumono progressivamente un’indipendenza sempre maggiore. Con un apparente paradosso, è stato proprio lo sviluppo contemporaneo della scienza a convincere molti filosofi e scienziati che forse i tempi sono maturi perché questa volta sia la scienza a “inglobare” la filosofia. Se l’immagine di larga parte della filosofia degli ultimi tre secoli è stata quella di un pensiero che riflette sui fondamenti delle scienze stando però, per così dire, all’esterno delle scienze stesse, nella razionalità scientifica contemporanea si diffonde sempre di più la convinzione che ci sia qualcosa di irrimediabilmente sbagliato nel concepire l’attività filosofica ed epistemologica come esterna alla scienza. Questo punto di vista critica cioè l’idea che almeno alcune delle questioni che si pongono quando si riflette sui fondamenti delle scienze siano irriducibilmente filosofiche e difende invece l’idea che la filosofia e l’epistemologia siano in qualche modo “continue” con la scienza. Questa prospettiva è nota con il termine generico di naturalismo e, per motivi complessi sui quali non ci soffermeremo, è associata in tempi moderni al nome del filosofo statunitense Willard van Orman Quine (1908-2000); essa ha di fatto molte formulazioni e interpretazioni diverse, che probabilmente non è possibile unificare, ma si sviluppa sullo sfondo di due assunzioni principali. In base alla prima, di carattere epistemico, il naturalismo concepisce la conoscenza umana come un processo naturale, non dissimile in ultima istanza da una reazione chimica, un terremoto o una duplicazione cellulare. In base alla seconda assunzione, di carattere ontologico, il naturalismo difende l’idea che su ciò che esiste al mondo l’ultima parola sia della scienza. Queste due assunzioni hanno una serie di implicazioni epistemologiche rilevanti, che non soltanto contribuiscono a formare una certa idea di cos’è una teoria scientifica e quali sono i suoi compiti, ma influenzano anche in modo non trascurabile l’immagine pubblica della scienza e il modo in cui questa immagine viene recepita e “metabolizzata” dal senso comune. Con il consolidamento della rivoluzione scientifica la scienza acquisisce infatti gradualmente lo statuto di tribunale ultimo che decide cosa significa per qualcosa “essere un fenomeno naturale”: la razionalità scientifica moderna crea cioè un nuovo modo di “essere al mondo”, una nuova categoria di esistenza che semplicemente prima non esisteva e che dalla rivoluzione scientifica in poi si candida a diventare il modo di essere al mondo: come è facile immaginare, le conseguenze filosofiche globali di questa aspirazione sono enormi e sono queste conseguenze a fondare l’impostazione naturalistica di gran parte della riflessione filosofica contemporanea. Il naturalismo ha assunto negli ultimi decenni lo statuto di un luogo comune: sembrano ormai pochi coloro che non pensano che tutti i problemi filosofici ed epistemologici davvero importanti avranno un giorno una soluzione “scientifica”, in un senso analogo alla scoperta di un vaccino, al rinvenimento di un fossile o alla registrazione di onde gravitazionali. Nonostante tuttavia il tasso di diffusione del naturalismo nel mondo
11
12
Filosofia, scienza e filosofia della scienza
filosofico e in quella parte del mondo scientifico interessato ai problemi filosofici – e sui motivi di questa diffusione si potrebbe scrivere un altro libro – si tratta in realtà di una concezione ricca di problemi interni e di controindicazioni (ci troveremo qua e là nel corso del testo a incrociare alcuni di questi problemi): le sue assunzioni fondamentali sono fortemente discutibili e – di conseguenza – le sue implicazioni più radicali determinano una concezione non di rado fuorviante e culturalmente distorsiva della stessa scienza e della sua immagine. Anche se sarebbe necessario uno spazio ben maggiore per analizzare compiutamente tutte le implicazioni del naturalismo, vogliamo tuttavia rendere esplicito il nostro rifiuto di una posizione così radicale e in fondo così sorda nei confronti di ciò che rende filosoficamente attraenti le scienze e i loro fondamenti: è bene allora chiarire esplicitamente che la discussione dei principali problemi aperti in filosofia della scienza che troverete nel presente testo è condotta sotto l’ipotesi che, tra le questioni fondazionali sollevate dalle scienze, almeno alcune delle principali abbiano natura intrinsecamente filosofica. In questo capitolo iniziale cercheremo in primo luogo di chiarire cosa significa condurre un’analisi filosofica della conoscenza scientifica (sezione 1.2) e in che senso un’interpretazione ragionevole di questo tipo di analisi possa includere tra i suoi oggetti di indagine non soltanto le scienze naturali ma anche quelle umane e sociali (sezione 1.3). Ci muoveremo poi verso una presentazione degli aspetti più rilevanti della rivoluzione scientifica moderna (sezione 1.4), con particolare attenzione alle loro implicazioni filosofiche. L’ultima sezione (la 1.5) sarà infine dedicata all’approccio galileiano nei confronti della conoscenza scientifica, un approccio per molti versi paradigmatico dell’impostazione modellistica della nuova scienza e denso di ricadute epistemologiche di grande interesse anche per il filosofo della scienza contemporaneo.
1.2 L’analisi filosofica della conoscenza scientifica e il suo significato In termini elementari, possiamo sostenere che la filosofia della scienza si sviluppa all’interno di almeno due grandi prospettive generali, che non di rado si intersecano. La prima riguarda il problema della giustificazione della conoscenza scientifica, mentre la seconda riguarda l’analisi delle rappresentazioni del mondo fornite dalle teorie scientifiche. Nella prospettiva della giustificazione, la filosofia della scienza assume che la scienza costituisca una genuina forma di conoscenza e si occupi del problema specificamente filosofico di come appunto sia possibile giustificare la fondatezza delle affermazioni che le varie teorie scientifiche propongono. Questa direzione, nella quale possono rivelarsi fondamentali anche i contributi della logica e della filosofia del linguaggio, illumina la componente epistemica della scienza, la componente che ha cioè a che fare con le modalità di conoscenza dei fenomeni oggetto delle teorie scientifiche. Un esempio paradigmatico di questione epistemica che rientra in quest’area di competenza della filosofia della scienza – e alla quale dedicheremo più avanti uno spazio apposito – è rappresentato dall’uso del cosiddetto metodo induttivo nella costruzione di teorie
Filosofia, scienza e filosofia della scienza
scientifiche. Questo metodo non sarebbe altro che la tendenza a proiettare su fenomeni non ancora osservati delle proprietà che abbiamo riscontrato in una certa quantità di fenomeni effettivamente osservati: se siamo induttivisti, accettiamo insomma di estendere il carattere sistematico delle osservazioni fatte e delle conferme empiriche accumulate anche a fenomeni che, a rigore, non abbiamo osservato, sulla base della fiducia nella stabilità di quelle osservazioni e di quelle conferme. Questa estensione non è tuttavia strettamente garantita dal punto di vista logico, ed è questo ciò che rende la giustificazione dell’uso di metodi induttivi un problema filosofico: siamo infatti tenuti a trovare argomenti per difendere tale uso (anche se questi argomenti non sono di natura strettamente logica) o per attaccarlo (nella convinzione che, se non possiamo giustificare rigorosamente l’induzione, allora è molto meglio farne a meno). Una precisazione. I filosofi della scienza concordano ovviamente sull’idea che le teorie scientifiche costituiscano una genuina forma di conoscenza. Questo comporta che le indagini sulle modalità di giustificazione di quella particolare forma di conoscenza rappresentata dalla conoscenza scientifica si confrontino con quella più ampia area della riflessione filosofica nota come teoria della conoscenza, un’area di per sé molto più antica della scienza e che, per farla breve, si occupa del seguente problema: quando affermo che “conosco” una certa cosa, quali ragioni ho per sostenere che conosco effettivamente quella cosa e che non si tratta soltanto di una mia supposizione o di una mia allucinazione? Le questioni di teoria della conoscenza hanno tenuti occupati i filosofi fin quasi dalle origini della filosofia e se si fa un sommario elenco dei filosofi per i quali i problemi di teoria della conoscenza erano problemi seri, si finisce per imbattersi in una buona fetta dei massimi filosofi della storia del pensiero: Platone, Aristotele, Agostino, Tommaso d’Aquino, Cartesio, Leibniz, Hume, Kant, Russell, Quine. Questioni cruciali di teoria della conoscenza come la natura della verità o quella della certezza, già di per sé aperti e tuttora al centro dei dibattiti dei filosofi “puri”, ricevono una nuova linfa quando è la conoscenza scientifica a dover essere giustificata: cosa significa che una teoria scientifica è vera? Accettare una teoria scientifica implica necessariamente ritenere che sia vera, o dovremmo invece limitarci alla sua adeguatezza nello spiegare i fatti senza avventurarci in questioni di “verità” (che forse sono irrisolvibili o malposte)? Come vedremo più avanti, si tratta di problemi cruciali per i filosofi della scienza contemporanea, in particolare per quelli interessati alla questione del realismo scientifico (ma non soltanto). L’aspetto giustificativo ed epistemico della scienza non esaurisce però il campo dei principali problemi dibattuti nella filosofia della scienza. Nella seconda delle prospettive che abbiamo introdotto, la filosofia della scienza si concentra sulle vere e proprie rappresentazioni del mondo che le teorie scientifiche costruiscono, sul loro significato e sull’impatto che esse producono su nozioni filosofiche tradizionali. Si tratta in questo caso di una direzione che illumina la componente metafisica della scienza, la componente che ha cioè a che fare non tanto con le modalità e i limiti della nostra conoscenza della realtà, quanto con come la realtà è effettivamente (indipendentemente da come la si conosca o dalla possibilità stessa di conoscerla oltre un certo limite). In questa prospettiva rientrano i problemi filosofici ed epistemologici sollevati da certe implicazioni delle moderne teorie fisiche e biologiche (come
13
14
Filosofia, scienza e filosofia della scienza
la questione del determinismo, tanto fisico quanto biologico), o le discussioni sul cosiddetto realismo scientifico o sul suo opposto, l’antirealismo scientifico: come vedremo meglio più avanti, si tratta di posizioni che si contrappongono sull’idea che il compito della scienza debba essere proprio quello di rappresentare il più fedelmente possibile una realtà che esiste indipendentemente dalle nostre indagini su di esso (realismo) o invece quello più modesto di organizzare al meglio la nostra esperienza del mondo, senza lanciarsi in affermazioni su come il mondo è indipendentemente dalla nostra conoscenza di esso (antirealismo). Quando parliamo di filosofia, di scienza e di filosofia della scienza, assumiamo poi non soltanto di sapere che la scienza e la filosofia sono discipline ben distinte, ma anche di essere in grado di tracciare con buona approssimazione la linea di demarcazione tra esse. Ma è molto importante rendersi conto che si tratta di una distinzione relativamente recente nella storia della cultura occidentale, una distinzione che – come vedremo meglio in sezioni successive – nasce con la rivoluzione scientifica del XVII secolo. Fino al consolidamento di questo grande processo che porta alla formulazione moderna di discipline come fisica, chimica, biologia, geologia, ecc, la spartizione di compiti tra la filosofia e quella che oggi chiamiamo scienza di fatto non esisteva in senso proprio: tanto per fare un esempio semplice ma indicativo, il termine stesso di “scienziato” comincia ad essere impiegato nel senso a noi familiare soltanto a partire dal XIX secolo. L’obiettivo di spiegare il mondo intorno a noi, la sua struttura e le sue leggi non era assegnato in via esclusiva alla sola razionalità scientifica: l’idea stessa di spiegazione razionale aveva confini molto più ampi di quanto ora saremmo disposti ad ammettere, contemplando in dosi variabili elementi filosofici, scientifici, metafisici, religiosi, magici, e così via. Questa difficoltà di distinguere tra componente filosofica e componente scientifica – una distinzione che, ripeto, ha senso soltanto agli occhi di noi contemporanei – ha avuto una vita molto lunga, che va dai grandi filosofi dell’antichità come Platone e Aristotele fino alle soglie dell’età moderna. Nel suo dialogo intitolato Fedone, Platone elabora una teoria dell’anima che gli serve, tra le altre cose, a risolvere un tipico problema epistemologico come quello di giustificare la possibilità di ottenere una conoscenza certa. Una delle massime opere di Aristotele, gli Analitici Secondi, possono essere definiti in un’ottica contemporanea come un vero e proprio trattato di metodo scientifico, mentre poco prima di Galileo uno dei più importanti filoni di un filosofo come Giordano Bruno è rappresentato da un’intricata miscela di astronomia e mistica, una miscela eretica che peraltro non portò grande fortuna al povero filosofo, condannato al rogo e morto a Roma, in Campo de’ Fiori, il 17 febbraio del 1600! È soltanto con la scienza di Cartesio, Galileo e Newton (insieme a molti altri) che si affaccia sulla scena della cultura europea una scienza con il volto che oggi le riconosciamo, fatto di ardite ipotesi teoriche, di formalizzazioni matematiche e di continui e sempre più sofisticati controlli empirici. Secondo questo nuovo modo di guardare ai fenomeni, la conoscenza “scientifica” si costituisce come insieme organico di teorie, leggi e spiegazioni dotato di criteri di valutazione sempre più stringenti, un insieme che tende progressivamente a relegare al di fuori dei confini di ciò che va definendosi come scienza in senso proprio una serie di fenomeni e di modalità di indagine che faticano a rientrarvi. È soltanto con questa progressiva chiarificazione
Filosofia, scienza e filosofia della scienza
della linea di demarcazione tra filosofia e scienza che comincia a porsi il problema di cosa includere nella conoscenza autenticamente “scientifica” e cosa no, con la correlata tendenza a svalutare tutte quelle ricerche che si propongono di spiegare parti importanti del mondo e della nostra esperienza di esso ma che non sono “scienze” in modo immediatamente evidente. Si pongono allora le basi di un problema che si trascina fino ai giorni nostri e che è potenzialmente in grado di procurare danni rilevanti all’edifico complessivo della cultura scientifica, il problema cioè del rapporto tra le scienze naturali e le scienze umane e sociali.
1.3 Scienze naturali e scienze umane Come può verificare facilmente chiunque dia un’occhiata all’organizzazione dell’istruzione superiore, negli ultimi decenni si è fortemente consolidata la tendenza ad attribuire la qualifica di “scienza” anche a discipline decisamente lontane da classiche scienze dure come la fisica, la chimica, la matematica e così via. Questo fatto, che di per sé potrebbe essere considerato un maldestro tentativo di auto-nobilitarsi da parte di discipline in preda a complessi di inferiorità, dovrebbe invece essere interpretato in una luce costruttiva. In altre parole, anche se la settorializzazione e l’iper-specialismo della conoscenza sembrano in tempi recenti crescere indefinitamente, è proprio la filosofia della scienza della seconda metà del XX secolo (per i dettagli, si rimanda ai capitoli successivi) a mostrare che le stesse scienze “dure” – lungi dall’essere quel granitico totem che il senso comune spesso dipinge – procedono per tentativi, rotture, azzardi teorici, condividendo in una misura significativa quel carattere congetturale e ipotetico che viene naturalmente attribuito alle scienze umane e sociali. In questo senso, la distanza tra queste ultime e le scienze naturali non dovrebbe essere aumentata oltre il ragionevole. Queste due categorie di scienze non risultano poi così inconfrontabili come una certa pubblicistica tende a presentare, anche se ciascuna delle due sembra in parte compiacersi di sostenere il contrario, ovviamente per motivi diversi: le scienze umane e sociali per difendere una presunta irripetibilità e complessità irriducibile dei loro particolari “oggetti”, le scienze naturali per proseguire quella tradizione di scientismo che sembra soltanto l’altra faccia di un’ignoranza scientifica ancora largamente diffusa nelle nostre società. Vale allora la pena soffermarsi brevemente su uno degli apparenti motivi di forte differenziazione tra scienze umane e scienze naturali: la questione della generalizzazione. Si sostiene spesso che una delle differenze più marcate tra scienze umane e scienze naturali consista nella tendenza di queste ultime a generalizzare e a fornire rappresentazioni idealizzate dei fenomeni oggetto di studio, una tendenza che le scienze umane cercherebbero di evitare, tese come sono alla spiegazione di eventi unici, irripetibili e talmente complessi da sfidare qualsiasi generalizzazione sensata e comprensibile. In termini concettualmente sofisticati, la questione era ben presente già almeno un secolo fa e uno di coloro che l’ha formulata in termini più espliciti è stato il filosofo tedesco Wilhelm Dilthey (1833-1911), che ha introdotto e difeso la distinzione tra scienze della natura e scienze dello spirito. Scriveva Dilthey:
15
16
Filosofia, scienza e filosofia della scienza
[...] le scienze dello spirito sono state sempre influenzate dalle scienze della natura; e poiché queste hanno elaborato prima i loro metodi, si è avuto in un vasto ambito un adattamento di essi ai compiti delle scienze dello spirito. In due punti ciò risulta particolarmente evidente: nella biologia sono stati scoperti per la prima volta i metodi comparativi poi sempre maggiormente applicati alle scienze sistematiche dello spirito, e i metodi sperimentali elaborati dall’astronomia e dalla fisiologia sono stati trasferiti alla psicologia, all’estetica e alla pedagogia. Anche oggi nello sforzo di soluzione dei compiti particolari, lo studioso di psicologia, di pedagogia, di linguistica o di estetica si chiede spesso se i mezzi e i metodi scoperti nelle scienze della natura per la soluzione di problemi analoghi possano venir sfruttati nel proprio campo. Ma, nonostante tali punti particolari di contatto, la connessione delle forme di procedimento delle scienze dello spirito è, fin dal suo inizio, del tutto diversa dalla connessione delle scienze della natura.[...] Soltanto ciò che lo spirito ha creato, esso lo intende. La natura, cioè l’oggetto della conoscenza naturale, racchiude la realtà prodotta indipendentemente dall’attività dello spirito. Tutto ciò a cui l’uomo, operando, ha impresso la sua impronta, costituisce l’oggetto delle scienze dello spirito. [Dilthey 1982, 212-213]
Nella prospettiva che fa da sfondo al presente volume, tuttavia, questa contrapposizione radicale tra scienze umane e scienze naturali è insostenibile, fondata come è su una rappresentazione distorta e unilaterale tanto delle scienze umane quanto di quelle naturali, a partire dall’idea di fondo secondo cui qualsiasi esempio di “teorizzazione” – per quanto non formalizzata e collocata in discipline tradizionalmente considerate umanistiche in senso lato – comporta una certa dose di generalizzazione, se le affermazioni di tale teorizzazione intendono avere un qualche vago valore esplicativo e utile all’indagine. Se questo è vero, quell’insieme di concetti di base che contribuiscono nel loro complesso a caratterizzare la struttura del sapere scientifico “in senso stretto” possono servire anche per delineare alcuni compiti fondamentali che le scienze umane condividono con quelle naturali. Alcuni candidati naturali sono concetti come quelli di teoria, modello, legge, spiegazione, causalità o, a un livello più sofisticato, coppie di concetti correlati come determinismo/indeterminismo, linearità/complessità, e così via. Un resoconto semplicistico ma standard dei rapporti tra questi concetti è più o meno il seguente: una teoria include una qualche “rappresentazione” di una porzione di mondo, e ha l’obiettivo di caratterizzare le proprietà fondamentali delle entità che popolano quella porzione. Se e come una teoria raggiunga questo obiettivo è un problema naturalmente controverso, un problema che tra le altre cose dipende fortemente dal grado di sviluppo della teoria stessa. La teoria può cioè utilizzare leggi (o generalizzazioni) per produrre spiegazioni (eventualmente causali) dei fenomeni oggetti di studio, ma può anche utilizzare modelli in funzione di mediazione tra teoria e mondo.
1.4 La (ri)nascita della scienza moderna Come abbiamo anticipato nelle pagine precedenti, una distinzione qualificata tra riflessione filosofica e indagine scientifica affonda le sue radici nell’origine seicentesca della scienza moderna, quell’evento di immensa portata culturale al quale si è attribuita la definizione di rivoluzione scientifica (una definizione che, come vedremo,
Filosofia, scienza e filosofia della scienza
risulta carica di implicazioni). È infatti tra la seconda metà del XVI secolo e la fine del XVII secolo che comincia a svilupparsi l’immagine moderna di scienza come indagine sistematica dei fenomeni naturali e con un crescente contenuto matematico-formale, un’immagine sul cui sfondo diventa sempre più netta la distinzione tra le scienze e le altre forme di cultura. Solo per limitarsi ai nomi più celebri, tra la metà del ‘500 e la fine del ‘600 vengono pubblicati i contributi fondamentali di personaggi come Andreas van Wesel (italianizzato in Andrea Vesalio, 1514-1564) e William Harvey (1578-1657) per l’anatomia, Mikolaj Kopernik (italianizzato in Nicola Copernico, 1473-1543), Johannes Kepler (italianizzato in Giovanni Keplero, 1571-1630) e Galileo Galilei (1564-1642) per l’astronomia, René Descartes (italianizzato in Cartesio, 1596-1650), William Gilbert (1544-1603), Christiaan Huygens (1629-1695), Isaac Newton (1643-1727), Gottfried Leibniz (1646-1716), Blaise Pascal (1623-1662), Robert Boyle (1627-1691), Robert Hooke (1635-1703) per la matematica e la fisica. L’indagine storica sui tortuosi percorsi che la neonata scienza ha seguito nell’Europa del XVII secolo ha richiesto lo sforzo pluricedennale di un gran numero di studiosi, tra i quali esiste ormai un vasto consenso sul fatto che questo grande processo intellettuale ebbe un carattere autenticamente “rivoluzionario”. Di questo carattere erano peraltro ben consapevoli molti degli stessi protagonisti, dal momento che – come hanno notato gli stessi storici della scienza – l’aggettivo nuovo ricorre in centinaia di testi filosofici e scientifici di quel periodo: il Nuovo organo di Bacone, la Nuova astronomia di Keplero, i Discorsi e dimostrazioni intorno a due nuove scienze di Galileo e molti altri [Rossi 1997]. Se dunque la nascita della scienza moderna non è spiegabile adeguatamente nei termini di una graduale accumulazione di esperienze precedenti e di scoperte più o meno fortuite, in cosa consiste la sua novità irriducibile? In che senso la rivoluzione scientifica ha modificato in modo irreversibile la cultura occidentale, creando un “ambiente” completamente nuovo per la struttura intellettuale dell’uomo moderno? Sulla base di un’enorme mole di studi generali e di indagini particolari, si può affermare in senso generale che il fondamento della rivoluzione scientifica moderna risieda in un autentico rovesciamento di prospettiva nell’analisi dei fenomeni naturali e, in particolare, in una nuova disposizione alla modellizzazione e all’astrazione (tra breve, discuteremo alcuni esempi indicativi). Con una formula semplicistica ma efficace, gli intellettuali dell’Europa moderna non si imbatterono semplicemente in nuovi fatti, ma compresero che era tempo di usare lenti nuove per guardare quegli stessi fatti che erano stati sotto i loro occhi per secoli. L’adozione di questo punto di vista completamente nuovo sui fenomeni naturali che contraddistinse le nuove scienze non avrebbe tuttavia potuto generare tutte le feconde conseguenze che conosciamo sulla più estesa e profonda conoscenza della natura senza un processo altrettanto rivoluzionario di modifica delle pratiche e degli ambienti sociali nei quali la scienza moderna andò sviluppandosi, un processo che finì per incidere profondamente sulla percezione di ciò che un “fatto scientifico” sarebbe diventato in epoca moderna e contemporanea. La scienza moderna non nasce infatti nel vuoto. Anche se dedicheremo particolare attenzione ad alcuni aspetti teorici della rivoluzione scientifica per i loro evidenti legami con preoccupazioni filosofiche, sono numerosi i fattori sociali e culturali in senso ampio che hanno contribuito alla formazione dello spirito scientifico moderno
17
18
Filosofia, scienza e filosofia della scienza
e, da questo punto di vista, gli studi storici della scienza hanno compiuto nel XX secolo grandi passi avanti: senza alcuna pretesa di completezza, ricordiamo allora brevemente i principali passaggi che vedono coinvolte complesse questioni come il ruolo della tecnica e delle cosiddette “arti meccaniche”, l’influenza della tradizione umanistica, l’istituzionalizzazione e la nascita delle società scientifiche, il rapporto tra scienza e religione2. Scienze, tecniche, arti Tra il ‘500 e il ‘600 il mondo dei tecnici e degli artigiani acquisisce un ruolo completamente nuovo nelle società e nelle culture europee; comincia infatti a farsi strada un nuovo tipo di sapere, collegato alla costruzione di macchine, all’estrazione di materie prime, alla progettazione di fortificazioni e strumenti militari e così via. In stretta relazione all’evoluzione della struttura economica e sociale dell’Europa, le nuove classi degli artigiani e dei tecnici si mostrano desiderose di accrescere la loro preparazione scientifica e aumenta di conseguenza non soltanto la produzione di testi che in un’ottica contemporanea si collocherebbero in una regione intermedia tra la scienza e la tecnologia, ma anche la riproposizione di quei testi classici dell’antichità (da Euclide a Vitruvio) che pure avevano costituito punti di riferimento per gli architetti, gli ingegneri e gli astronomi antichi. Da questo ultimo punto di vista un ruolo importante è stato svolto proprio dalla cultura umanistica, alcuni dei cui maggiori esponenti – come Leon Battista Alberti (1404-1472) e Leonardo da Vinci (1452-1519) – si erano mossi proprio in un clima di profonde interrelazioni tra cultura classica e interessi tecnico-scientifici. L’aumento di considerazione per la tecnica e le cosiddette “arti meccaniche” determinò inoltre nel tempo un interesse sempre maggiore per il lavoro condotto nelle botteghe degli artisti e degli artigiani di alto livello, che andavano assomigliando sempre di più a veri e propri microlaboratori industriali. Né è possibile dimenticare l’influenza che sia pure con modalità complesse e tutt’altro che lineari si stabilì tra il mondo delle tecniche e il meccanicismo, vale a dire quel quadro esplicativo generale basato sull’estensione all’intero dominio della speculazione umana del principio secondo cui i fenomeni della natura sono prodotti da particelle di materia in moto governate dalle leggi della meccanica3: è infatti al meccanicismo che per esempio risale la vasta influenza esercitata in tempi moderni dalla metafora della machina mundi (“la macchina del mondo”, un’espressione che richiama l’atomismo antico e che viene dal V libro del De rerum natura del poeta latino Lucrezio), l’immagine di un cosmo governato dalle sole leggi del movimento e della materia cui tutti i fenomeni sarebbero in linea di principio riducibili dal punto di vista esplicativo. 2
Per una moderna sintesi che presta particolare attenzione alle molte dimensioni presenti nella nascita della scienza moderna, si veda Clericuzio [2005].
3
Sulle origini del meccanicismo scientifico e filosofico, cfr. Westfall [1984].
Filosofia, scienza e filosofia della scienza
Le società scientifiche In epoca contemporanea siamo abituati a pensare che i luoghi privilegiati della ricerca e dello sviluppo scientifici siano le università, ma è bene sapere che in occasione della nascita della scienza moderna le università rappresentarono luoghi di cultura non di rado rigidi e conservatori e non costituirono un ambiente naturalmente favorevole a quel libero scambio di idee e congetture che appare così necessario per lo sviluppo del pensiero scientifico. Anche se studi più recenti hanno mostrato che la rigidità e la chiusura delle università verso il nuovo sapere scientifico non erano poi così radicali come si era pensato nel passato, rimane il fatto che i fermenti più importanti per lo sviluppo delle teorie scientifiche moderne si manifestarono al di fuori delle università e che quel clima di collaborazione libera e collettiva che oggi riconosciamo come costitutivo della ricerca scientifica si realizzò principalmente in una serie di nuove istituzioni, le “accademie” e le “società scientifiche”, che avevano come scopo esplicito quello non soltanto di diffondere il sapere ma anche di accrescerlo, attraverso il lavoro congiunto di gruppi di scienziati accomunati da analoghi obiettivi conoscitivi. Tra le principali istituzioni scientifiche ricordiamo: la Royal Society, costituita a Londra nel 1662, della quale avrebbero fatto parte figure come Isaac Newton (1643-1727), Robert Hooke (1635-1703), Robert Boyle (1627-1691) e Christopher Wren (16321723), l’Accademia di Montmor, attiva tra il 1634 e il 1679, cui parteciparono in tempi diversi Blaise Pascal (1623-1662), Christiaan Huyghens (1629-1695), Pierre Gassendi (1592-1665), l’Académie Royale des Sciences, fondata a Parigi nel 1666 e sostenuta dalle autorità in un regime di ampia libertà ed autonomia, l’Accademia dei Lincei, nata in Italia addirittura nel 1601 (lo stesso Galileo vi avrebbe aderito nel 1611).
Scienza, religione, magia Nella prospettiva che guarda alla nascita della scienza moderna come fenomeno sociale, alcune ricerche particolarmente influenti hanno preso ispirazione dalle indagini che il sociologo Max Weber (1864-1920) aveva condotto agli inizi del XX secolo sui rapporti tra l’etica protestante e la nascita del capitalismo europeo. Grazie alle ricerche di studiosi come Robert K. Merton e Charles Webster4 è stata approfondita la relazione tra l’emergere della scienza moderna e la tradizione puritana con particolare riferimento all’Inghilterra; in questa tradizione religiosa, la scienza e le sue acquisizioni potevano essere accolte con spirito di apertura in quanto capaci in linea di principio di contribuire al bene sociale, così come profondi sono stati i legami tra le concezioni millenaristiche e la ricerca di un nuovo sapere, in consonanza per esempio con gli scritti di un filosofo e “pubblicista” della scienza moderna come Francesco Bacone (1561-1626). Altrettanto influenti gli studi di storici delle idee come P. Rossi, E. Garin e F. Yates sulle complesse relazioni tra lo sviluppo della scienza moderna e la tradizione magica e alchimistica, una tradizione ben presente da secoli in Europa nell’epoca della rivoluzione scientifica e che non manca – tanto per fare 4
Merton [1975], Webster [1980].
19
20
Filosofia, scienza e filosofia della scienza
un esempio celebre – di occupare una parte significativa nell’opera di Isaac Newton5. Da un lato, infatti, la scienza moderna tende a svilupparsi in contrapposizione ad alcuni caratteri fondamentali del sapere magico-alchimistico, come le sue dimensioni superstiziose e occulte: è ancora Francesco Bacone che vede la magia naturale come una disciplina che «raccoglie credule e superstiziose nozioni e osservazioni di simpatie e antipatie e proprietà occulte ed esperimenti futili, strani più per l’apparato in cui si presentano che non in se stessi» [Bacone 1975, 234]. Da un altro lato la tradizione magica rinascimentale consegna in eredità all’emergente scienza moderna un concetto di enorme influenza, quello del sapere come potenza e della capacità da parte della conoscenza scientifica di controllare la natura: anche in questo caso Bacone si fa interprete di questa sorta di trasmutazione culturale, reinterpretando il legame tra teoria e pratica magico-alchemica nel contesto della nuova scienza e delle sue nuove dimensioni sperimentali6.
1.5 Modelli e realtà: il paradigma galileiano Ritornando in una prospettiva epistemologica, ci confronteremo dunque con alcune fondamentali implicazioni che la nascita della scienza moderna determina nella struttura stessa di una razionalità scientifica in senso ampio. Ci soffermeremo in primo luogo, come abbiamo anticipato, sulla nuova disposizione alla modellizzazione e all’astrazione nella descrizione e spiegazione dei processi naturali. Si tratta di una disposizione sulla quale davvero si misura la distanza rispetto alla conoscenza scientifica che l’Occidente eredita dalla cultura antica e medievale, una cultura che peraltro non ha certo ignorato la scienza e che ha tramandato comunque ai moderni una grande dotazione teorica dalla quale ripartire (e nella quale spiccano naturalmente la matematica e l’astronomia). Coloro che sarebbero diventati i protagonisti della nascita della scienza moderna ebbero cioè una chiara intuizione di ciò che agli occhi di uno scienziato contemporaneo appare un prerequisito minimale dell’indagine scientifica: per comprendere in senso generale un fenomeno, le proprietà che esso soddisfa e le leggi che ne governano il comportamento, è necessario costruire in prima istanza una rappresentazione astratta e idealizzata del fenomeno stesso. Questo rende possibile una migliore integrazione della componente empirica e della componente logica della scienza – che nel passato erano state tenute largamente distinte – e soprattutto un’applicazione sempre più estesa della matematica ai fenomeni naturali: come possiamo ben comprendere oggi, a più di quattro secoli di distanza dalla rivoluzione scientifica, la potenza formale della matematica può dispiegarsi adeguatamente soltanto se applicata a descrizioni semplici e idealizzate dei fenomeni studiati. Si fa strada insomma nella rivoluzione scientifica l’idea che la crescita della nostra comprensione di un determinato fenomeno naturale passi necessariamente attraverso un certo grado 5
Cfr. il cap. 8 della biografia newtoniana di Westfall [1989].
6
Su Bacone un riferimento generale è Peltonen [1996].
Filosofia, scienza e filosofia della scienza
di matematizzazione nella descrizione di quel fenomeno e, di conseguenza, attraverso la costruzione di un modello di quel fenomeno, vale a dire una descrizione astratta che preserva – in forma semplificata – solo quelle caratteristiche del fenomeno originario che appaiono più adatte a essere analizzate in forma rigorosa. Ciò implica che, nel tentare di comprendere le basi di un fenomeno naturale mediante un suo modello, gli scienziati dovranno stare attenti non soltanto alle proprietà che considerano importanti (e che saranno presenti nel modello), ma anche a quelle che decideranno di tralasciare e che quindi il modello ignorerà. Al contrario i filosofi naturali antichi e medievali, pur sviluppando analisi sofisticate dell’esperienza sensibile, non riuscirono a cogliere appieno la necessità di rappresentare in modo astratto i fenomeni, e proprio la tendenza a descrivere troppo “da vicino” i fenomeni, per come vengono esperiti, si dimostrò di fatto un formidabile ostacolo alla nascita delle scienze in un senso moderno. La necessità di un adeguato “distacco” dai fenomeni che si intende descrivere e spiegare in senso scientifico è ben espressa in un giustamente celebre passo del Dialogo sopra i due massimi sistemi del mondo di Galileo Galilei, un testo chiave per la rivoluzione scientifica pubblicato nel 1632: Sì come a voler che i calcoli tornino sopra i zuccheri, le sete e le lane, bisogna che il computista faccia le sue tare di casse, involgie ed altre bagaglie, così quando il filosofo geometra vuol riconoscere in concreto gli effetti dimostrati in astratto, bisogna che difalchi gli impedimenti della materia; che se ciò saprà fare, io vi assicuro che le cose si riscontreranno non meno aggiustatamente che i computi aritmetici. Gli errori dunque non consistono né nell’astratto né nel concreto, né nella geometria o nella fisica, ma nel calcolatore, che non sa fare i conti giusti. [Galilei 1970, 252]
Una precisazione essenziale, prima di continuare. Alla nascita di ciò che oggi definiamo “scienza moderna” concorrono un gran numero di scienze e indagini particolari, e soltanto per una parte di esse il processo di matematizzazione cui abbiamo appena accennato ebbe un ruolo decisivo: ci furono in altre parole svariate discipline che contribuirono in modo essenziale a formare una moderna immagine del mondo e nelle quali la matematica ebbe un ruolo limitato o nullo. Rimane tuttavia il fatto culturalmente assai significativo che la scienza moderna esce da uno stato di minorità quando comprende che la conoscenza della natura progredisce attraverso strutture ideali, capaci di spiegare i fenomeni concreti proprio come approssimazioni di quelle strutture. Proprio sullo sfondo del radicale rovesciamento di prospettiva implicito nella rivoluzione scientifica, assume allora un effettivo significato il riferimento alla nuova centralità del concetto di esperimento, una centralità che nel passato è stata sovente intesa come l’elemento di novità quasi esclusivo di tutta la scienza moderna. Non di rado, infatti, numerose presentazioni più o meno divulgative dei caratteri fondamentali della scienza moderna (presentazioni contenute in volumi di larga diffusione, in testi scolastici o in capitoli introduttivi di manuali scientifici di livello universitario) si concentravano sulla presunta scoperta di un enigmatico “metodo sperimentale” come evento messianico dell’era moderna: dalla sera alla mattina, una simile scoperta avrebbe magicamente dato avvio alle magnifiche sorti della conoscenza
21
22
Filosofia, scienza e filosofia della scienza
scientifica del mondo (nonché – secondo certe letture più pessimistiche – al dominio tecnico della scienza sul mondo). In questa visione la scienza moderna prenderebbe avvio in modo pressoché esclusivo dal ricorso crescente all’esperimento nelle indagini naturali, a scapito di una conoscenza “libresca” e puramente teorica ereditata dalla cultura antica. Questa visione è naturalmente inadeguata, e lo è a vari livelli: essa risulta infatti non soltanto incapace di cogliere in modo effettivo alcuni dei principali snodi nella storia del pensiero scientifico, ma anche di mettere nella luce corretta le implicazioni epistemologiche più generali della nascente immagine scientifica del mondo. L’uso di procedure sperimentali sempre più rigorose acquista infatti il suo significato più profondo quando queste procedure vengono messe per così dire “al servizio” di un modello astratto e ideale del fenomeno naturale che è oggetto di indagine. In questo senso, la formulazione del modello precede l’ideazione di un apparato sperimentale, dal momento che essa delinea quella costruzione artificiale – sia essa puramente mentale o concretamente realizzabile – alla quale l’apparato sperimentale può venir applicato in modo mirato e specifico: senza l’orizzonte teorico fornito dalla modellizzazione astratta, in altre parole, l’uso di metodi sperimentali risulterebbe conoscitivamente “cieco”. Lo storico della fisica e grande studioso galileiano Alexandre Koyré così descrive il rapporto per così dire funzionale tra teoria ed esperimento che è alla base della rivoluzione scientifica: Si è spesso parlato del ruolo dell’esperienza, della nascita di un “senso sperimentale”. E senza dubbio il carattere sperimentale della scienza classica ne è uno dei tratti caratteristici. Ma in realtà di tratta di un equivoco: l’esperienza, nel senso dell’esperienza bruta o dell’osservazione del senso comune, non ha svolto alcun ruolo, se non quello di ostacolo, nella nascita della scienza classica [...] Quanto all’esperimento – nel senso di un’interrogazione metodica della natura – esso presuppone sia il linguaggio nel quale porre le sue domande, sia un vocabolario che consenta di interpretare le risposte. Ora, se è in un linguaggio matematico, o più esattamente geometrico, che la scienza classica interroga la natura, questo linguaggio – o più esattamente la decisione di utilizzarlo, decisione che corrisponde a un nuovo atteggiamento metafisico – non poteva a sua volta essere dettato dall’esperienza che esso avrebbe condizionato. [Koyré 1976, 5]
Per comprendere il ruolo che la capacità di costruire teorie e modelli astratti dei fenomeni svolge nella nascita della scienza moderna, il riferimento a Galileo non è ovviamente casuale. La figura di Galileo svolge da sempre la funzione di rappresentare simbolicamente quegli elementi di coraggio e di sfida intellettuale che indubbiamente furono fondamentali per il buon esito di questa avventura culturale; ma Galileo è anche lo scienziato che nel modo più organico e conseguente ha dato avvio a un tipo di indagine dei fenomeni che potremmo definire modellistico-formale, un’indagine che – nel caso della fisica oggetto degli studi galileiani – va alla ricerca delle leggi che governano i fenomeni attraverso la formulazione di relazioni funzionali e quantitative tra le principali grandezze fisiche coinvolte nei fenomeni stessi. Come esempio di questo tipo di relazione, consideriamo in forma estremamente schematica il caso del moto di caduta di un corpo libero. Nella prospettiva che Galileo adotta, e che egli consegna in eredità alla scienza che seguirà, il problema viene posto in una forma
Filosofia, scienza e filosofia della scienza
23
che permetta di istituire una relazione funzionale e quantitativa tra la velocità con cui il corpo cade e il tempo impiegato dal corpo stesso nella caduta, cioè – in termini moderni – di formulare una legge matematica in grado di correlare queste due grandezze. Consideriamo per esempio il fenomeno di caduta di un “grave” (cioè un corpo dotato di peso) a partire da una condizione di riposo, e supponiamo che, dopo essere caduto liberamente per un tempo t, il corpo abbia velocità v. Galileo assume l’ipotesi che v sia proporzionale a t: dal punto di vista matematico, questa relazione di proporzionalità si esprime come v=c u t
(1)
dove c è la cosiddetta costante di proporzionalità. Oggi sappiamo che questa generica costante è in effetti legata alla gravità e decidiamo di indicarla per questo motivo con la lettera ‘g’. L’espressione nella (1) diventa allora semplicemente v=gut
(2)
Ma sappiamo anche che, a partire dalla posizione di riposo del corpo, lo spazio s percorso dal corpo stesso dipende da t e anche in questo caso la matematica ci insegna che il modo più chiaro e rigoroso di esprimere una dipendenza di questo tipo passa attraverso la definizione dello spazio s come funzione del tempo trascorso t, cioè mediante un’espressione del tipo s = f(t)
(3)
A questo punto, il problema è posto in modo preciso: qual è la forma della (3) sotto l’ipotesi che valga la (2)? Attraverso un ragionamento estremamente ingegnoso (che qui per brevità ometteremo7), Galileo arriva all’espressione corretta s = g t2/2
(4)
Al di là degli specifici aspetti formali, inoltre, a fare da sfondo alla ricerca di modelli e strumenti matematici con cui dare forma alle regolarità naturali c’è la fiducia profonda nella capacità delle strutture e delle relazioni matematiche di cogliere e rappresentare in modo effettivo le proprietà e le leggi naturali: nel caso specifico di Galileo, è all’opera un’ipotesi di tipo ontologico sul rapporto tra realtà naturale e matematica, un’ipotesi secondo la quale la matematica era in grado di rappresentare le leggi e le strutture della realtà perché la realtà stessa aveva proprietà intrinsecamente matematiche. Questa ipotesi, frutto di una posizione filosofica che oggi chiamiamo platonismo matematico e che non manca di essere abbracciata anche da eminenti scienziati contemporanei, è stata resa celebre da un passo di un’opera galileiana, intitolata Il Saggiatore e pubblicata nel 1623, che vale la pena di riportare: La filosofia è scritta in questo grandissimo libro che continuamente ci sta aperto innanzi a gli occhi (io dico l’universo), ma non si può intendere se prima non s’impara a intender la lingua, e conoscer i caratteri ne’ quali è scritto. Egli è scritto in lingua 7
Il lettore interessato può consultare la ricostruzione del ragionamento galileiano in Pólya [1979, cap. 3].
24
Filosofia, scienza e filosofia della scienza
matematica e i caratteri son triangoli, cerchi ed altre figure geometriche, senza i quali mezi è impossibile a intenderne umanamente parola; senza questi è un aggirarsi vanamente in un oscuro laberinto. [Galilei, 1965, 38]
Se il ruolo che la modellizzazione e l’astrazione svolgono nella nascita della scienza moderna è così centrale, soffermiamoci allora su un episodio che, oltre a rappresentare uno dei maggiori contributi della carriera scientifica galileiana, si presta in modo efficace a illuminare tale centralità: l’analisi galileiana sulla natura del moto e la formulazione del principio che modernamente viene definito principio di relatività. Nella prossima sezione presenteremo le linee essenziali del percorso galileiano, dapprima nelle sue motivazioni e nei suoi esiti (sezione 1.5.1), per poi metterne in evidenza alcune rilevanti implicazioni filosofiche ed epistemologiche (sezione 1.5.2): queste ultime mostreranno con sufficiente chiarezza in che senso la rivoluzione scientifica del XVII secolo presenti un profondo significato per una riflessione sui fondamenti concettuali delle scienze.
1.5.1 L’analisi galileiana del moto: le origini scientifiche Uno dei maggiori successi della scienza moderna fu come noto la formulazione di una corretta teoria del moto di corpi macroscopici, una teoria che nel suo lento e faticoso processo di affermazione si trovò a fare i conti con un robusto e tutt’altro che ingenuo sistema teorico del mondo, rappresentato dall’elaborazione medievale della filosofia naturale di Aristotele (384-322 a.C.)8. L’immagine del mondo di matrice aristotelica era fondata su princìpi in larga parte qualitativi, in grado di fornire – sia pure a un livello più fine e sofisticato – una descrizione dei fenomeni vicina a quella che avrebbe suggerito il senso comune di una persona dotata di pronta intelligenza e di un buono spirito di osservazione. In particolare, secondo questa immagine del mondo, quella che chiameremmo oggi un’autentica teoria della materia prescriveva (1) che ogni oggetto naturale (sulla Terra) fosse composto di una miscela variabile dei quattro elementi fondamentali – aria, acqua, terra, fuoco, e (2) che esistessero luoghi naturali, vale a dire direzioni privilegiate verso le quali i corpi fisici “tenderebbero” a ritornare qualora fossero stati “costretti” a subire moti violenti. Questa teoria si presentava in grado di spiegare con una certa approssimazione fenomeni molto comuni nei quali l’uomo della strada si imbatte continuamente – come l’ascesa del vapore o la caduta di un masso lungo una scarpata – e sulla base di (1) e (2) rendeva conto della dinamica tipica di un oggetto nei termini della sua tendenza a raggiungere il luogo naturale dell’elemento fondamentale che in quell’oggetto predomina. In particolare, la teoria aristotelica del moto introduceva una distinzione di principio tra moto naturale e moto violento: il primo è il moto di un corpo che tende al suo luogo naturale, mentre il secondo è il moto che il corpo “subisce” quando viene allontanato 8
Per un inquadramento più approfondito dell’immagine aristotelica del mondo dal punto di vista della storia della scienza si può consultare il classico Dijksterhuis [1971].
Filosofia, scienza e filosofia della scienza
con la forza dal suo luogo naturale. Per fare dei semplici esempi, nella teoria aristotelica una fiamma libera “tende” ad andare verso l’alto ed un sasso “tende” a cadere verso il terreno perché l’atmosfera e il suolo risultano rispettivamente i loro luoghi naturali, cosicché saranno necessarie delle procedure artificiali per “forzare” la fiamma a dirigersi verso il basso e il sasso verso l’alto. La distinzione tra moti naturali e violenti ha anche nella fisica di Aristotele un’importante conseguenza epistemologica, una conseguenza che riguarda cioè i requisiti esplicativi della teoria stessa: discende infatti dalla distinzione tra moti naturali e moti violenti che soltanto i secondi – cioè quelli violenti – hanno bisogno di una effettiva spiegazione, mentre i primi sono ‘naturali’ anche nel senso di non richiedere alcuna spiegazione delle loro caratteristiche. Tornando a uno degli esempi menzionati, soltanto il moto di un sasso lanciato da un soggetto avrà bisogno di spiegazione proprio perché il soggetto rimuove il sasso dalla sua posizione “naturale”, posizione che di per sé non necessita di alcuna spiegazione in virtù della sua naturalità. Inoltre la fisica aristotelica tende a considerare gli stati di moto o di quiete dei corpi come proprietà intrinseche che i corpi stessi possiedono in certe situazioni: così, quando immaginiamo il caso del lancio di un sasso da parte di un soggetto, il moto prima ascendente e poi discendente del sasso viene spiegato come progressivo esaurimento di una sorta di proprietà di mobilità che viene trasferita dal soggetto al sasso e che il sasso stesso – nell’atto di muoversi – “possiede” letteralmente. Se questo è il quadro teorico generale nel quale si iscrive l’analisi premoderna del moto dei corpi, il contributo galileiano si configura realmente come un abbandono radicale della prospettiva aristotelica in direzione di quella che avrebbe rappresentato la fondazione della moderna concezione del moto dei corpi: Galileo fornisce infatti la prima chiara formulazione della descrizione cinematica del moto di un corpo, quella descrizione cioè che si limita a caratterizzare come il corpo si muove senza fare riferimento al perché esso si muova in quel modo (omettendo cioè ogni riferimento alle cause dinamiche del movimento). Presupposto generale della teoria galileiana è una concezione del moto nella quale 1) non esistono stati “naturali” dei corpi – stati cioè che non richiedono di per sé alcuna spiegazione fisica; 2) lo stato di moto o di quiete di un corpo non è “assoluto” bensì definito rispetto a un sistema di coordinate. Le conseguenze di questo rovesciamento teorico operato dalla teoria galileiana sono profonde. Nell’esempio citato sopra, la teoria galileiana prescrive – a seguito della (1) – che lo stato di quiete di un sasso fermo sul suolo non debba essere considerato di per sé più “naturale” dello stato del sasso in volo durante un lancio: entrambi gli stati saranno di volta in volta conseguenza di determinate condizioni fisiche, ma non esiste alcuna “superiorità” ontologica di certe classi di stati fisici rispetto ad altri a seconda dei corpi considerati. Inoltre – a seguito della (2) – lo stato di un corpo può risultare “in quiete” per certi osservatori e in moto per altri: un sasso per esempio che se ne sta tranquillo nel nostro giardino risulterà in quiete rispetto a un osservatore lì seduto a leggere il giornale, ma in moto rispetto al passeggero di un aereo che sorvoli il giardino. È chiaro allora come,
25
26
Filosofia, scienza e filosofia della scienza
in questo contesto, non abbia alcun senso concepire i moti come proprietà “intrinseche” dei corpi. Scrive a questo proposito Galileo in un altro suggestivo passo del citato Dialogo sopra i due massimi sistemi del mondo: Però notate: il moto in tanto è moto, e come moto opera, in quanto ha relazione a cose che di esso mancano; ma tra le cose che tutte ne partecipano egualmente, niente opera ed è come se non fusse: e così le mercanzie delle quali è carica la nave, in tanto si muovono in quanto, lasciando Venezia, passano per Corfù, per Candia, per Cipro, vanno in Aleppo, li quali Venezia, Corfù, Candia etc. restano né si muovono con la nave; ma per le balle, casse ed altri colli, de’ quali è carica e stivata la nave, e rispetto alla nave medesima, il moto da Venezia in Sorìa è come nullo, e niente altera la relazione che è tra di loro, e questo perché è comune a tutti ed egualmente da tutti è partecipato; e quando delle robe che sono in nave una balla si sia discostata da una cassa un sol dito, questo solo sarà stato per lei movimento maggiore, in relazione alla cassa, ch’l viaggio di due mila miglia fatto da loro di conserva. [Galilei 1970, 144]
Di fatto, la rivoluzione galileiana nell’analisi del moto dei corpi era funzionale all’obiettivo più ambizioso, quello di fornire prove decisive a favore del modello astronomico copernicano che prevedeva il moto della Terra intorno al Sole, a scapito dell’antico e venerabile modello aristotelico-tolemaico nel quale la Terra si colloca al centro del cosmo9. Utilizzando come termine di riferimento la distinzione prima introdotta tra moti “naturali” e non, e tenendo presente che la fisica pregalileiana era una sorta di sistematizzazione dell’immagine che il senso comune poteva dare di cosa si muove “davvero” e cosa no, la teoria aristotelico-tolemaica non soltanto attribuiva al Sole uno stato di moto assoluto rispetto alla Terra – privilegiando l’idea di senso comune in base alla quale vedere il Sole che si muove è una prova del suo effettivo movimento – ma sfidava anche gli avversari su un piano “sperimentale”. Supponiamo di trovarci su una torre e di lanciare un sasso dalla cima (vedi Figura 1): se il sasso è sufficientemente pesante e siamo in assenza di vento, l’esperienza comune ci dirà che il sasso percorre una traiettoria “a piombo”, finendo per cadere nel punto x ai piedi della torre. Ma la torre poggia sul suolo terrestre: se dunque – continua l’argomentazione degli anticopernicani – la Terra si muovesse davvero con una certa velocità nella direzione indicata dalla freccia, il sasso dovrebbe toccare il suolo nel punto x + a, dal momento che nel tempo impiegato dal sasso a cadere la Terra ha percorso un certo spazio. L’esperienza comune smentirebbe cioè la tesi del movimento della Terra, e sembrerebbe assestare un colpo deciso alla plausibilità del modello copernicano. La replica galileiana è feconda di sviluppi fondamentali nella storia della fisica: scoprire infatti perché l’argomento degli anticopernicani non funziona richiede la formulazione di un principio basilare nella teoria che sarebbe divenuta la meccanica, il cosiddetto principio di relatività. Mediante una brillante discussione condotta nella seconda giornata del Dialogo, una discussione che sarebbe diventata uno dei vertici dell’immaginazione scientifica moderna, Galileo mostra che un argomento come 9
Un testo classico sull’astronomia copernicana e le vicende della sua formulazione è Kuhn [1972].
Filosofia, scienza e filosofia della scienza
Figura 1 – L’esperimento mentale degli anticopernicani
quello della torre – nonostante la sua apparente naturalezza – poggia su basi scorrette. Il mondo fisico macroscopico soddisfa infatti un principio che inizialmente Galileo avanza come ipotesi ma che appare essenziale per la coerenza della moderna analisi del moto dei corpi, il principio secondo il quale le leggi fisiche fondamentali sono indifferenti – nella loro forma ed espressione – al fatto che esse si riferiscano a un sistema di riferimento in quiete o in moto (rettilineo uniforme). Questa circostanza è presentata da Galileo attraverso un celebre esperimento mentale: la citazione è un po’ lunga e richiede un certo impegno, ma vale la pena cogliere uno dei passaggi chiave per lo sviluppo di una moderna razionalità scientifica: Rinserratevi con qualche amico nella maggior stanza che sia sotto coverta di alcun gran navilio, e quivi fate d’aver mosche, farfalle, e simili animaletti volanti; siavi anco un gran vaso d’acqua e dentrovi de’ pescetti; sospendasi anco in alto qualche secchiello, che a goccia a goccia vadia versando dell’acqua in un altro vaso di angusta bocca che sia posto a basso. [...] e stando ferma la nave, osservate diligentemente come quegli animaletti volanti con pari velocità vanno verso tutte le parti della stanza; i pesci si vedranno andar notando indifferentemente per tutti i versi; le stille cadenti entreranno tutte nel vaso sottoposto; e voi, gettando all’amico alcuna cosa, non più gagliardamente la dovrete gettare verso quella parte che verso questa, quando le lontananze sieno uguali; e saltando voi, come si dice, a pie’ giunti, eguali spazii passerete verso tutte le parti. [...] Osservate che avrete diligentemente tutte queste cose, benché niun dubbio ci sia che mentre il vascello sta fermo non debbano succedere così, fate muovere la nave co quanta si voglia velocità; ché (pur che il moto sia uniforme e non fluttuante in qua e in là) voi non riconoscerete una minima mutazione in tutti li nominati effetti,
27
28
Filosofia, scienza e filosofia della scienza
né da alcuno di quelli potrete comprender se la nave cammina o pure sta ferma: voi saltando passerete nel tavolato i medesimi spazii che prima, né, perché la nave si muova velocissimamente, farete maggior salti verso la poppa che verso la prua, benché, nel tempo che voi state in aria, il tavolato sottosaltopostovi scorra verso la parte contraria al vostro salto. [...] e gettando alcuna cosa al compagno, non con più forza bisognerà tirarla, per arrivarlo, se egli sarà verso la prua e voi verso poppa, che se voi fuste situati per l’opposito; le gocciole cadranno come prima nel vaso inferiore, sensa caderne pur una verso poppa, benché, mentre la gocciola è in aria, la nave scorra molti palmi; i pesci nella lor acqua non con più fatica noteranno verso la precedente che verso la susseguente parte del vaso, ma con pari agevolezza verranno al cibo posto su qualsivoglia luogo dell’orlo del vaso; e finalmente le farfalle e le mosche continueranno i lor voli indifferentemente verso tutte le parti. [Galilei 1970, 227-229]
La conclusione generale che Galileo trasmette attraverso l’esperimento mentale è naturalmente che i fenomeni avvengono nello stesso modo sia quando la nave è in quiete rispetto alla terraferma sia quando è in moto rettilineo uniforme rispetto ad essa: sotto l’ipotesi (cruciale!) che dalla stiva non possiamo vedere l’esterno, non c’è niente nei fenomeni osservati che ci permetta di accertare se la nave è ancorata nel porto o se sta navigando in mare aperto. Questa conclusione generale si riassume perciò in quello che per evidenti motivi la tradizione scientifica successiva ha denominato principio di relatività: se un sistema di riferimento K (associato per esempio a un sistema di coordinate) è scelto in modo tale che le leggi fisiche siano soddisfatte nella loro forma più semplice, le stesse leggi devono essere soddisfatte se riferite ad ogni altro sistema di coordinate K' che si muova di moto rettilineo uniforme rispetto al sistema K. Ricordando allora che l’obiettivo ultimo di Galileo è la difesa del modello astronomico copernicano, possiamo riconoscere facilmente che l’adozione del principio di relatività mostra l’impossibilità di stabilire se la Terra, assunta come sistema di coordinate, sia in uno stato di quiete o di moto mediante osservazioni sul moto di corpi effettuate sulla Terra stessa. In altre parole, dalla validità del principio di relatività segue che le leggi implicate nel moto di caduta del sasso dalla torre valgono esattamente allo stesso modo tanto che la Terra si muova o sia in quiete, e dunque il fatto sperimentale che il sasso cada seguendo una traiettoria rettilinea fino ai piedi della torre non è una prova contro il moto della Terra! Utilizzando l’analogia introdotta da Galileo nell’esperimento mentale della nave, il tentativo di sfruttare l’esito del lancio del sasso dalla torre per dimostrare lo stato dinamico della Terra equivale al tentativo di stabilire se la nave galileiana si muove o è ferma rispetto al porto eseguendo degli esperimenti meccanici dentro la stiva della nave. Si tratta chiaramente di un tentativo destinato al fallimento. L’analisi galileiana mostra che una teoria fisica coerente del moto dei corpi macroscopici non permette per principio di scoprire una cosa del genere: di più, essa mostra a rigore che una cosa del genere proprio non esiste in un senso assoluto, e che ciò cui si può cominciare a pensare in un qualche senso di “assoluto” sono casomai le leggi stesse del moto e non specifici stati di quiete o di moto rettilineo uniforme.
Filosofia, scienza e filosofia della scienza
1.5.2 L’analisi galileiana del moto: le implicazioni concettuali e il suo significato filosofico Sebbene gli studi sulla nascita della scienza moderna abbiano messo in luce l’importanza di numerosi fattori non soltanto teorici, ma anche sperimentali e sociali, la formulazione galileiana di una teoria del moto è certamente rappresentativa di alcuni caratteri fondanti della scienza moderna. Al di là di quelle rappresentazioni quasi mitologiche che hanno segnato il destino della figura di Galileo nei secoli XVIII e XIX10, le principali tappe del percorso galileiano nella formulazione di questa teoria assumono indubbiamente un significato più generale e manifestano una serie di profonde implicazioni filosofiche ed epistemologiche, tutte legate alla centralità dei processi di astrazione nello sviluppo di una moderna razionalità scientifica. Vediamo più da vicino alcuni aspetti di tali implicazioni. Il primo aspetto degno di riflessione riguarda il rapporto tra la teorizzazione scientifica e il senso comune, un rapporto che viene radicalmente chiamato in causa dal rifiuto della distinzione di principio tra moti “naturali” e “violenti” da parte della fisica di Galileo. Per motivi complessi, probabilmente legati alla capacità di interazioni efficienti con gli oggetti di medie dimensioni in un ambiente terrestre di media difficoltà, il senso comune trova particolarmente intuitivo assumere una prospettiva nella quale esistono stati dinamici “assoluti”, direzioni privilegiate nello spazio (un alto “assoluto” e un “basso” assoluto), tempi “assoluti” e così via, mentre lo sviluppo della fisica galileiana ha richiesto un elevato sforzo di astrazione nel rifiutare la fondatezza di questa prospettiva. La scienza moderna in questa fase rivoluzionaria si assume insomma il compito di mettere consapevolmente tra parentesi l’intuizione, spingendo a dimenticare ciò che crediamo di sapere così bene per immaginare un mondo naturale ideale del quale cerchiamo di cogliere la struttura profonda. Una lezione che la scienza moderna inizia quindi ad apprendere dal mondo naturale è che ascoltare i “puri fatti” non soltanto non basta, ma talvolta può essere addirittura di ostacolo nell’assecondare quella forma di ingenuità che spesso si nasconde nell’intuizione comune e irriflessa dei fenomeni. Anche in questo caso, particolarmente felice è l’espressione del Dialogo galileiano laddove si legge che «[…] né posso a bastanza ammirare l’eminenza dell’ingegno di quelli che l’hanno ricevuta e stimata vera [l’astronomia copernicana], ed hanno con la vivacità dell’intelletto loro fatto forza tale a i propri sensi, che abbiano possuto antepor quello che il discorso gli dettava a quello che le sensate esperienze gli mostravano apertissimamente in contrario» [Galilei 1970, 392]. Questa circostanza apre inoltre la strada a una sorta di competizione che talvolta si verifica tra scienza e senso comune, una situazione di tensione il cui presupposto è la crescente esclusione dal pensiero scientifico di tutti gli argomenti fondati sul valore, sulla perfezione, sull’armonia, sul significato e sul fine, concetti che per la loro natura soggettiva si trovano a mal partito nella nuova rappresentazione del mondo naturale. Strumenti intellettuali come le cause finali o formali, utilizzate per secoli dalla cultura 10
Su questo aspetto un testo di grande interesse è Segre [1993].
29
30
Filosofia, scienza e filosofia della scienza
premoderna come criteri di spiegazione, spariscono gradualmente, sostituite dalle cause efficienti e materiali, le uniche ammesse nel nuovo universo della geometria: «è solo in questo mondo astratto-reale (archimedeo), dove i corpi astratti si muovono in uno spazio astratto, che le leggi dell’essere e del movimento della nuova scienza – la scienza classica – appaiono vere e valide» [Koyré 1972, 8]. Il secondo aspetto di interesse per i nostri scopi si concentra sul ruolo che il principio di relatività svolge rispetto alla teorizzazione astratta da un lato e all’esperienza dall’altro. Abbiamo già osservato, sia pure di passaggio, che un certo modo ingenuo di rappresentare la comparsa della scienza nell’epoca moderna attribuisce al “metodo sperimentale” il merito pressoché esclusivo di aver permesso lo sviluppo scientifico nella cultura occidentale e, con l’aiuto di un passo tratto dagli Studi galileiani di Koyré, abbiamo sottolineato come questo modo di presentare gli eventi – invertendo il rapporto tra teoria ed esperienza e/o esperimento – finisca per oscurare la funzione della teoria nell’ideazione e valutazione di un possibile esperimento. Accanto a queste considerazioni di ordine generale, la discussione sull’introduzione del principio di relatività nella formulazione di una teoria cinematica del moto dei corpi rappresenta un’esemplificazione particolarmente adatta del ruolo fondante della teoria rispetto all’esperimento e della centralità dell’idealizzazione in questo ruolo. Richiamiamo brevemente i termini della disputa: alla difesa galileiana del modello eliocentrico copernicano i suoi avversari oppongono un esperimento il cui esito dovrebbe falsificare una proprietà cruciale del modello eliocentrico, vale a dire la mobilità della Terra. A fronte di questa contrapposizione, l’assunzione del principio di relatività segna due punti a suo favore che risultano particolarmente significativi dal punto di vista epistemologico. In primo luogo esso – per così dire – “toglie il terreno sotto i piedi” all’argomento anticopernicano, nel senso che esso non vi trova singoli difetti ma ne mina piuttosto la plausibilità complessiva: sotto l’ipotesi del principio, l’esperimento della torre non ha alcun senso, perché se la natura rispetta il principio risulterà strutturalmente impossibile ottenere da un simile esperimento una qualsiasi risposta significativa alla domanda sullo stato di moto della Terra. In secondo luogo, però, il riconoscimento che l’esperimento della torre è infondato non proviene dall’aver scoperto fatti nuovi ma piuttosto dalla congettura – totalmente teorica! – che la natura rispetta il principio di relatività: anzi, per colmo di ironia, il controllo della validità di tale principio non si potrà proprio ottenere con esperimenti ma piuttosto con la valutazione del fatto che tale principio permette di costruire una fisica capace di spiegare davvero (a una certa scala) il mondo che ci circonda. Infine, l’argomento galileiano che porta alla formulazione del principio di relatività è un esempio particolarmente importante e influente di esperimento mentale, vale a dire un contesto ideale – e in quanto tale non realizzabile in senso stretto – utilizzato per indagare la validità di un’ipotesi teorica generale, normalmente di per sé non direttamente verificabile ma in grado di produrre conseguenze empiriche controllabili. La storia della fisica moderna e contemporanea è ricca di celebri e talvolta controversi esperimenti mentali: oltre a quelli galileiani si ricordano almeno l’esperimento del secchio di Newton, il diavoletto di Maxwell, l’ascensore di Einstein, il microscopio di
Filosofia, scienza e filosofia della scienza
Heisenberg, il gatto di Schrödinger e non mancano discussi esperimenti mentali in filosofia, come il gioco dell’imitazione di Turing, l’esperimento della stanza cinese di Searle, la Terra gemella di Putnam11. Dopo quanto abbiamo ripetutamente sottolineato sull’impostazione modellistica della scienza moderna, non è dunque difficile cogliere il ruolo degli esperimenti mentali, con particolare riferimento alle condizioni ideali che tali esperimenti richiedono e che sono realizzabili nell’esperienza soltanto in forma approssimata. Nel caso della formulazione galileiana del principio di relatività, sono almeno due le condizioni ideali di questo tipo che vengono richieste e che di fatto risultano essenziali per una corretta collocazione teorica del principio stesso. La prima è che la situazione dentro la stiva della nave ferma in porto sia confrontata con la situazione dentro la stiva della nave, quando questa si muove di moto rigorosamente uniforme («non fluttuante in qua e in là» dice Galileo): si tratta ovviamente di una condizione ideale, dal momento che il moto reale di un’ipotetica nave del genere subisce numerose accelerazioni e decelerazioni dovute ad altrettante forze più o meno controllabili. La seconda è più generale, ma analoga nello spirito. La nave ferma nel porto e la nave in viaggio in alto mare configurano due sistemi di riferimento (inerziali) nei quali le leggi del moto funzionano in modo del tutto equivalente: se per comodità definiamo rispettivamente Sporto e Smare i due sistemi, il principio di relatività prescrive l’impossibilità strutturale di privilegiare l’uno rispetto all’altro, dal momento che, fissato convenzionalmente uno dei due come “in quiete” (poniamo Sporto), il sistema Smare risulterà in moto uniforme rispetto a Sporto, e viceversa. La condizione ideale consiste in questo caso nel fatto che trascuriamo la circostanza che tanto Sporto quanto Smare sono collocati sulla Terra e si dà il caso che la Terra graviti intorno al Sole muovendosi lungo la sua orbita di un moto che non è affatto inerziale bensì accelerato, in quanto dovuto all’attrazione gravitazionale che il Sole esercita sul nostro pianeta nel sistema solare. Se questa condizione ideale non fosse adottata, i sistemi Sporto e Smare non si muoverebbero di moto uniforme l’uno rispetto all’altro e tutto l’argomento salterebbe!
11
Per una rassegna recente sull’argomento, cfr. Brown [2009].
31
La nozione di teoria scientifica e la sua evoluzione
2.1 Teorie sulle teorie scientifiche Nel capitolo precedente abbiamo toccato le principali fasi attraverso le quali la scienza moderna ha acquisito la sua autonomia conoscitiva, mettendo in evidenza quelle caratteristiche che assumono un preciso interesse filosofico in una prospettiva contemporanea. La riflessione epistemologica che la filosofia intraprende sui fondamenti delle scienze assume tuttavia un profilo definito, e ben distinto rispetto alle molte altre forme di analisi filosofica, tra la fine del XIX secolo e gli inizi del XX, una fase storica nella quale la cultura occidentale (e non soltanto scientifica) attraversa un momento di grande fermento. Scienze come la fisica, la biologia, la matematica e la logica vanno gradualmente rivoluzionando l’immagine del mondo e le categorie stesse del pensiero scientifico, ed è proprio in una fase come questa che la riflessione filosofica sulle implicazioni delle scienze si consolida come disciplina autonoma, dando vita alla filosofia della scienza (o epistemologia) in senso proprio. In particolare diventa progressivamente più urgente concentrare l’attenzione proprio sulla natura di quello strumento di conoscenza che la scienza utilizza in modo essenziale e che appare capace di convogliare e strutturare i risultati delle indagini empiriche, vale a dire la teoria scientifica. 01
Un’osservazione terminologica Nella comunità scientifica anglosassone il termine epistemology è inteso in un senso più fedele alla sua etimologia, vale a dire come “teoria della conoscenza”, ed è distinto dal termine philosophy of science (si ricordi quanto detto a proposito della relazione tra teoria della conoscenza e studio della conoscenza scientifica nella sezione 1.2). Nella letteratura di lingua italiana, invece, i termini epistemologia e filosofia della scienza sono trattati come sinonimi: noi ci atterremo a questo ultimo uso.
Appare intuitivamente chiaro che la nozione di teoria scientifica debba essere oggetto di indagine dal punto di vista epistemologico. Entro un certo livello di approssimazione, la storia stessa della scienza nel mondo occidentale degli ultimi quattro secoli si presenta essenzialmente come una successione articolata di teorie, nella quale i passaggi chiave sono rappresentati sia dal consolidarsi di osservazioni sparse in “una teoria” (vale a dire, in una struttura concettuale robusta e organizzata) sia dalla sostituzione di certe teorie con altre, ritenute migliori per molti motivi diversi: più generali, più sofisticate dal punto di vista formale, più aderenti all’evidenza osservativa, più semplici ed economiche, ecc. Al di là dei dettagli delle singole teorie e della loro varietà e complessità crescenti dall’epoca moderna fino a quella contemporanea, il ricorso alla
34
La nozione di teoria scientifica e la sua evoluzione
nozione di teoria scientifica solleva in ogni caso questioni epistemologiche di grande rilevanza, connesse con l’identità stessa della conoscenza scientifica in quanto forma “speciale” di conoscenza (ammesso che lo sia davvero). In primo luogo – e partiamo dalla questione più elementare – il termine “teoria” si porta dietro impliciti significati di senso comune che sono talvolta contraddittori: «questa è solo una teoria!» è spesso l’accusa che si rivolge a chi si sospetta abbia costruito nella sua testa una serie di speculazioni senza alcun riscontro fattuale, mentre uno studioso che su un certo argomento sia stato in grado di produrre soltanto una serie di osservazioni fattuali può sentirsi rivolgere l’accusa di non aver saputo costruire “una vera e propria teoria”. Questa prima questione, per quanto elementare, nasconde però una seconda questione, ben più importante. Prendiamo infatti per buona l’idea che Fatti e Teorie siano due classi di oggetti ben separati: anche se non è mancato nella storia della filosofia chi ha messo in dubbio in senso radicale questa distinzione12, viene naturale pensare che ciò che la scienza fa è essenzialmente cercare di trovare/costruire/inventare/... qualcosa che appartenga all’insieme Teorie e che serva a comprendere/spiegare/predire/... qualcosa che appartiene all’insieme Fatti13. Ma quale rapporto sussiste tra la teorizzazione e il mondo dell’esperienza fattuale? Se, come abbiamo visto nel primo capitolo, l’impresa scientifica si caratterizza sovente per la costruzione di teorie che fanno uso di modelli astratti dei fenomeni per poterne cogliere le strutture fondamentali, qual è o quale dovrebbe essere la relazione tra questi modelli e la concreta realtà empirica? Quali caratteristiche dovranno esibire le teorie perché la conoscenza che essi permettono di “estrarre” dai fenomeni sia considerata sufficientemente stabile e robusta per meritarsi l’appellativo di “scientifica”? Dobbiamo pensare alle teorie come descrizioni vere – sia pure approssimate – del mondo naturale o piuttosto come utili strumenti e niente di più? Inoltre – ed è una terza grande questione di principio – la nozione di teoria scientifica si collega in modi complessi ad altre nozioni centrali della filosofia della scienza (di cui ci occuperemo in modo più approfondito in capitoli successivi). Le teorie scientifiche sono infatti strumenti che con grande frequenza, sia nella scienza moderna sia in quella contemporanea, hanno prodotto e continuano a produrre spiegazioni sul perché un certo fenomeno si è manifestato con certe modalità, e lo hanno fatto in molti casi assumendo la validità di leggi, vale a dire di regolarità naturali di cui gli eventi intorno a noi sono particolari realizzazioni. Le teorie hanno inoltre svolto e continuano a svolgere un ruolo difficilmente sopravvalutabile nel produrre previsioni in numerosissimi ambiti scientifici – dalla fisica delle particelle alla meteorologia, dall’economia alle neuroscienze – previsioni che peraltro non mancano di determinare conseguenze importanti sulla vita degli individui e delle collettività. Di fatto, la filosofia della scienza del XX secolo si consolida proprio elaborando una vera e propria teoria delle teorie scientifiche, vale a dire una teoria che si propone 12
Un riferimento classico per posizioni di questo tipo è il frammento 481 della raccolta di Friedrich Nietzsche nota come La volontà di potenza, secondo cui «non esistono fatti, ma solo interpretazioni» [Nietzsche 2001, 271]. 13 Quella che può qui sembrare una bizzarra complicazione di un’idea semplicissima serve in realtà a suggerire che la distinzione Fatti/Teorie è ben più insidiosa di quanto possa apparire a prima vista, e non poche tra le pagine seguenti saranno dedicate a capire perché.
La nozione di teoria scientifica e la sua evoluzione
(i) di formulare una nozione di teoria scientifica rigorosa e plausibile rispetto al concreto sviluppo storico delle concrete teorie scientifiche, (ii) di rendere conto del significato empirico che viene attribuito ai termini astratti introdotti nelle teorie e più in generale della relazione tra teorie e fatti, (iii) di giustificare la funzione delle teorie scientifiche, il ruolo cioè che esse svolgono nell’organizzare e spiegare le nostre osservazioni. Il movimento filosofico più influente della prima metà del ‘900 nel campo dell’epistemologia – chiamato empirismo logico – determinerà un quadro concettuale di riferimento formulando una concezione precisa di teoria scientifica, e una buona parte della storia dell’epistemologia del ‘900 si può di fatto riassumere proprio come l’ascesa e il declino (per certi aspetti) del modello di teoria scientifica proposto dall’empirismo logico e poi duramente criticato dai filosofi della scienza a partire dalla seconda metà del ‘900. Nelle sezioni che seguiranno affronteremo dunque le tappe essenziali della discussione filosofica sulla natura e il ruolo delle teorie scientifiche che si è svolto nella filosofia della scienza contemporanea. Nelle sezioni 2.2, 2.3, 2.4 e 2.5 discuteremo la teoria delle teorie scientifiche sviluppata dall’empirismo logico, fondata su una netta distinzione di principio tra teoria e osservazione. La sezione 2.6 sarà dedicata all’esame delle principali critiche nei confronti di questa distinzione, sviluppate da filosofi, scienziati e storici della scienza come Grover Maxwell, Norwood R. Hanson e Thomas R. Kuhn. La teoria del cambiamento scientifico e l’introduzione della nozione filosofica di rivoluzione scientifica verrà esaminata nella sezione 2.6.2 ed esemplificata attraverso il riferimento alla relatività speciale (2.6.3). La posizione di Karl Popper sui criteri di scientificità di una teoria e l’idea di razionalismo critico come sfondo di un’autentica razionalità scientifica verranno discusse nella sezione 2.6.4. 2.2 L’empirismo logico e il suo modello di teoria scientifica A partire dagli anni Venti del XX secolo si sviluppa in Europa un movimento filosofico noto come empirismo logico (o neopositivismo). Intorno al Circolo di Vienna – cui fanno capo tra gli altri Hans Hahn (1879-1934), Moritz Schlick (1882-1936), Otto Neurath (1882-1945), Phillip Frank (1884-1966), Rudolf Carnap (1891-1970), – e al Circolo di Berlino – cui fanno capo invece Hans Reichenbach (1891-1953) e Carl Gustav Hempel (1905-1997) – si forma una comunità i cui membri rappresenteranno una nuova forma di riflessione e di interessi e che è alla base della nascita della filosofia della scienza come disciplina autonoma. I membri di questi circoli, studiosi che diventeranno appunto noti come “empiristi logici”, sono emblematici proprio per la loro particolare formazione intellettuale, fondata su una robusta preparazione scientifica, dal momento che larga parte degli empiristi logici o erano scienziati a tutti gli effetti e in piena attività o avevano comunque studiato in modo approfondito
35
36
La nozione di teoria scientifica e la sua evoluzione
discipline come la logica, la matematica o la fisica14. Una simile robusta formazione scientifica poté poi confrontarsi con la felice circostanza culturale che vide la fine del XIX secolo e gli inizi del XX percorsi da profonde rivoluzioni intellettuali in numerosi campi scientifici. Si ponevano le basi della logica matematica moderna, si consolidavano pezzi importanti della matematica contemporanea come la teoria degli insiemi e le indagini sugli infiniti, nascevano la teoria della relatività e la meccanica quantistica: la ricchezza di implicazioni filosofiche ed epistemologiche di questi sviluppi scientifici si presentava come un ideale campo di applicazione per la nuova epistemologia, dal momento che le nuove teorie scientifiche sembravano modificare radicalmente concetti che erano patrimonio secolare di larga parte del pensiero scientifico dell’epoca. Questa circostanza, che sanziona di fatto la nascita dell’epistemologia contemporanea, fu ben espressa da alcuni degli stessi protagonisti. Sviluppare una filosofia della natura deve perciò rimanere prerogativa di un gruppo particolare di studiosi come quello recentemente emerso, un gruppo di studiosi che da un lato padroneggia le tecniche della scienza matematica e dall’altro non ne viene schiacciato al punto da perdere la sua prospettiva filosofica a favore dei dettagli. Come infatti la contemplazione filosofica può inibire il coraggio dimostrato dallo scienziato nelle sue indagini, così la ricerca specialistica può limitare le capacità di interpretazione filosofica. Il rimprovero mosso dai filosofi, secondo il quale agli scienziati manca una comprensione dei problemi filosofici non è meno giustificato di quello mosso dall’altro versante, che addebita ai filosofi la mancanza di una comprensione dei problemi scientifici. [Reichenbach 1977] Alcuni filosofi hanno messo in guardia contro la tentazione di tracciare una linea di demarcazione troppo netta fra il lavoro dello scienziato in un dato campo e quello del filosofo della scienza che si interessa allo stesso campo e, in un certo senso, questo ammonimento è esatto. Anche se l’attività dello scienziato empirico e quella del filosofo della scienza devono sempre essere mantenute distinte, in pratica i due campi di attività si sovrappongono e si mescolano. Un fisico viene portato costantemente dalla sua stessa ricerca a porsi questioni metodologiche. Che tipi di concetti devo usare? Quali regole governano questi concetti? E con quali metodi logici essi vanno definiti? Come posso collegare i concetti in enunciati e questi ultimi in un sistema logicamente connesso, ossia in una teoria? A domande come questo tipo egli deve rispondere come filosofo della scienza: evidentemente non possono ricevere risposta sulla base di procedure empiriche. [Carnap 1971]
I filosofi che si sono riconosciuti nelle posizioni dell’empirismo logico hanno dunque fondato in un certo senso la ricerca epistemologica sui fondamenti delle teorie scientifiche. Nel tentativo di individuare un nucleo di temi comuni nella complessità dell’empirismo logico come movimento filosofico, ci concentreremo sul particolare 14 Soltanto per fare alcuni esempi: Hans Hahn era un matematico di fama, Philipp Frank fu consigliato da Einstein come suo sostituto presso l’università tedesca di Praga nel 1912, Moritz Schlick si laureò in fisica sotto la guida del Nobel per la fisica Max Planck, mentre Rudolf Carnap seguì le lezioni di Frege presso l’Università di Jena.
La nozione di teoria scientifica e la sua evoluzione
modello di teoria scientifica che gli empiristi logici hanno avanzato: oltre al fatto che dalle sue caratteristiche discendono in modo più o meno diretto le altre principali tesi di fondo di questo movimento, questo modello mette in luce nel modo più evidente una questione chiave per tutta la filosofia della scienza del XX secolo e per le riflessioni sui fondamenti epistemologici delle scienze più in generale, vale a dire la problematicità del rapporto tra il livello della “teoria” e il livello dell’“esperienza”. Inoltre, come abbiamo anticipato, buona parte delle vicende dell’epistemologia novecentesca si sviluppa intorno alle sorti di questo modello, che si richiama a un orizzonte filosofico classico (Hume e Kant) e segna l’identità stessa del pensiero epistemologico contemporaneo proprio nell’adesione a questo modello per la prima parte del XX secolo e poi nel superamento critico di esso. Per delineare questo modello di teoria scientifica, possiamo partire proprio dagli orizzonti teorici impliciti nel nome di “empirismo logico” assegnato al movimento filosofico stesso. Esso aderisce in primo luogo a una concezione empirista della conoscenza, una concezione cioè nella quale (i) l’unica forma autentica di conoscenza è quella fornita dai dati dell’esperienza e nella quale (ii) il criterio ultimo e definitivo con cui valutare la validità delle teorie è il controllo empirico. Questa prospettiva si richiama naturalmente a elementi dell’empirismo filosofico classico, sviluppato nella filosofia moderna da figure come Locke e Hume, e vedremo più avanti come la distinzione neoempirista tra teorie e dati sia strutturalmente legata a un argomento humiano sulle forme della conoscenza. In secondo luogo, l’analisi neoempirista attribuisce particolare importanza alla struttura logica delle teorie, applicando i metodi della logica formale all’indagine sui fondamenti delle teorie stesse. In una sorta di “manifesto” del 1929, intitolato La concezione scientifica del mondo e destinato a presentare i punti essenziali della loro prospettiva epistemologica, gli empiristi logici così riassumevano le due assunzioni di fondo che abbiamo introdotto: «Abbiamo caratterizzato la concezione scientifica del mondo essenzialmente con due attributi. Primo essa è empiristica e positivistica: si dà solo conoscenza empirica, basata sui dati immediati. In ciò si ravvisa il limite dei contenuti della scienza genuina. Secondo, la concezione scientifica del mondo è contraddistinta dall’applicazione di un preciso metodo, quello cioè dell’analisi logica. Il lavoro scientifico tende, quindi, a conseguire come suo scopo l’unità della scienza, applicando l’analisi logica al materiale empirico» [Hahn, Neurath, Carnap 1979, 80]. In una formulazione lievemente più precisa, il modello neoempirista [Nagel 1968, cap. 5] identifica tre componenti fondamentali di una teoria scientifica: 1. un apparato logico-linguistico; 2. un insieme di regole (talvolta definite regole di corrispondenza o regole coordinative), capaci di assegnare un contenuto empirico ai vari elementi dell’apparato logico-linguistico; 3. un’interpretazione dell’apparato logico-linguistico.
37
38
La nozione di teoria scientifica e la sua evoluzione
Consideriamo ora più da vicino, una per una, ciascuna di queste componenti, prima nelle loro caratteristiche generali e più avanti con l’aiuto di uno specifico esempio. Apparato Logico-Linguistico Nella comunicazione ordinaria il linguaggio nel quale una teoria scientifica si esprime è il linguaggio naturale, che tuttavia si presenta ricco di sfumature e vaghezze di ogni tipo, vale a dire di elementi che dal punto di vista puramente logico potrebbero determinare un’ambiguità fondamentale nel determinare le condizioni di verità delle proposizioni espresse in quel linguaggio. Secondo il modello neoempirista, per ogni teoria deve essere allora possibile individuare un linguaggio formale, preciso e non ambiguo, vale a dire un insieme ben definito di simboli che costituiscono l’alfabeto di base nel quale la teoria costruisce le sue affermazioni: l’introduzione di un linguaggio formale permette cioè di formulare una struttura univocamente definita all’interno della quale sia possibile evitare ambiguità semantiche e sintattiche (cfr. nella scheda A1-A3). Inoltre, sempre in accordo con i metodi standard della logica formale moderna e della linguistica, all’alfabeto di base si associa un insieme di regole (dette regole di formazione) che distinguono le successioni di simboli del linguaggio che sono effettivamente delle proposizioni (potenzialmente dotate di un significato e di un valore di verità) dalle successioni di simboli che non rappresentano proposizioni. Detto in termini semplici, la teoria deve essere in grado di fare ciò che fa la grammatica della lingua italiana quando, di fronte a due possibili successioni di simboli del suo alfabeto come Oggi Leonardo è andato a scuola,
scuola piove plkkeoggi!;?
essa accetta come proposizione ben formata e potenzialmente dotata di significato soltanto la prima e non la seconda (cfr. nella scheda R1-R3). L’individuazione del linguaggio e delle regole di formazione permette poi di individuare un insieme di proposizioni che risultano i postulati o assiomi della teoria e che, come è facile comprendere, svolgono un ruolo essenziale nella costruzione e giustificazione del discorso scientifico. Gli assiomi infatti non soltanto rappresentano intuitivamente le assunzioni fondamentali della teoria, ma hanno la funzione di definire implicitamente le entità fondamentali di cui la teoria si occupa: l’idea stessa di definizione implicita è legata alla concezione moderna di teoria formale affermatasi tra la fine del XIX secolo e gli inizi del XX, una concezione sulla quale ci soffermeremo tra breve alla luce delle sue importanti implicazioni. Regole di Corrispondenza L’introduzione dell’apparato logico-linguistico contribuisce notevolmente, nella prospettiva neoempirista, alla chiarezza e al rigore di qualsiasi analisi epistemologica delle teorie scientifiche. Questo contributo sarebbe tuttavia destinato a rimanere astratto se non vi fossero delle regole, mediante le quali le parti dell’apparato che non sono costanti logiche vengono fatte corrispondere a concreti materiali empirici
La nozione di teoria scientifica e la sua evoluzione
02
Un semplice linguaggio formale: il linguaggio della logica proposizionale Il linguaggio della logica proposizionale, che indicheremo con LP, è un esempio estremamente semplice di linguaggio formale. Esso risulta definito da un alfabeto, che rappresenta la dotazione simbolica del linguaggio, e da un insieme di regole di formazione, che permettono di costruire all’interno del linguaggio espressioni dotate di significato di complessità arbitraria. Alfabeto di LP A1 Un insieme (eventualmente infinito) di lettere proposizionali, indicate con p, q, r, s, t, ... A2 I connettivi di congiunzione (), disgiunzione (), implicazione (o), negazione () A3 I simboli speciali ( ) e , cioè parentesi e virgole. Regole di formazione di LP R1 Le lettere proposizionali sono proposizioni di LP. R2 Se A è una proposizione di LP, allora A è una proposizione di LP. R3 Se A e B sono proposizioni di LP, allora A B, A B, A o B sono proposizioni di LP. R4 Nient’altro è una proposizione di LP. Intuitivamente, una singola lettera proposizionale – poniamo q – indica una qualsiasi proposizione semplice del tipo Oggi nevica, Alessandro è andato in palestra, ecc. I connettivi sono invece particelle prive di un significato autonomo ma che servono a formare proposizioni più complesse a partire da proposizioni semplici: il connettivo congiunzione, per esempio, serve a unire singole proposizioni semplici come Oggi nevica
Alessandro è andato in palestra
per formare la proposizione complessa Oggi nevica e Alessandro è andato in palestra
e osservativi, assumendo così un effettivo contenuto conoscitivo. Le regole di corrispondenza individuano in altre parole il nucleo empirico e osservativo della teoria, facendo sì che questa si presenti di volta in volta come la teoria che descrive nell’esperienza il tipo di fenomeni X, Y o Z e non soltanto come un calcolo logico astratto.
Interpretazione Sempre secondo il modello neoempirista, la fase conclusiva consiste nell’associare alla struttura apparato logico-linguistico + regole di corrispondenza un’interpretazione: essa permette di selezionare un certo dominio specifico di oggetti sul quale applicare le regole di corrispondenza. In termini puramente logici, questa operazione corrisponde alla costruzione di un modello per il sistema di assiomi, vale a dire un’interpretazione dell’apparato logico-linguistico che rende gli assiomi veri per gli oggetti selezionati nel modello. La teoria scientifica diventa così, a tutti gli effetti, ciò che viene definito un sistema formale interpretato (cfr. Scheda 2, SR1-2 e I1-2)
39
40
La nozione di teoria scientifica e la sua evoluzione
Proviamo allora a considerare, in termini estremamente semplificati e sintetici, un esempio familiare di teoria scientifica assiomatizzabile: la meccanica classica. Si tratta 03
Sistema formale, derivazione, interpretazione Una sistema formale è una struttura T = ¢L, A, R², dove L è un linguaggio formale, A è un insieme privilegiato di formule di L (assiomi) e R è un insieme di regole di inferenza, cioè di prescrizioni della forma: “date le formule A1, ..., An, è possibile inferire la formula A”. Una derivazione di una formula F dalle formule A1, ..., An in una teoria T = ¢L, A, R² è una successione finita e ordinata di formule di L nella quale: SR1 ogni formula è un assioma di A, oppure è una delle formule A1, ..., An, oppure è stata derivata da formule precedenti mediante una delle regole di R ; SR2 F è l’ultima formula della derivazione. Se in una data teoria formalizzata T esiste una derivazione di una formula F dalle formule A1,..., An, la formula F si dice derivabile da A1, ..., An . La derivabilità di F da A1, ..., An in T viene indicata con la notazione A1, ..., An _ F. Quando T è un insieme di formule A1, ... , An e F risulta derivabile da T, scriveremo T | F. Un’interpretazione di un linguaggio logico L è una struttura I = ¢D, f² dove: I1 D è un insieme non vuoto, detto dominio; I2 f è una funzione che a ogni termine t di L associa un elemento f(t) del dominio D e che a ogni predicato P di L associa una proprietà o relazione che sussiste per elementi di D. UN SISTEMA FORMALE INTERPRETATO È UN SISTEMA FORMALE T = ¢L, A, R², DOTATO DI UN’INTERPRETAZIONE (I1-I2) PER IL LINGUAGGIO L.
come noto della teoria fisica che è nata dalle intuizioni di Galileo, Cartesio e Newton e che governa i moti e le interazioni di un incalcolabile numero di sistemi fisici del nostro universo a scale differenti – dalle particelle che si muovono caoticamente in un gas alle palline in un campo da golf, fino ai corpi celesti e ai loro moti di gravitazione. Tale teoria può essere assiomatizzata nei termini di cinque nozioni primitive15: 1. un insieme P di corpi (particelle, pianeti, palle da biliardo,...) 2. una struttura T di numeri reali (che permettono di esprimere gli intervalli di tempo) 3. una funzione Q che rappresenta la posizione di uno qualsiasi degli elementi di P 4. una funzione M che rappresenta la massa di uno qualsiasi degli elementi di P 5. una funzione F che rappresenta la forza (tipicamente la forza gravitazionale) che agisce tra elementi di P. Nel quadro del modello di teoria scientifica proposto dall’empirismo logico, l’apparato 15
Cfr. per esempio Suppes [1960].
La nozione di teoria scientifica e la sua evoluzione
logico-linguistico dovrà contenere le risorse simboliche sufficienti per esprimere proposizioni come «p è un sistema meccanico», «'t è un intervallo di tempo», «p ha massa pari a 1,2 kg» e così via. A sua volta, la formalizzazione della teoria dovrà prevedere la possibilità di formulare un certo numero di assiomi per la quintupla ordinata N = . Scegliamo per esempio come modello un sistema di sfere di acciaio perfettamente sferiche e supponiamo che tale sistema sia adeguatamente isolato da forze esterne e sufficientemente idealizzato. Possiamo allora mostrare che gli assiomi della struttura – intesa come sistema assiomatico puramente astratto – valgono effettivamente per le sfere: una sfera non soggetta a forze esterne persevera nel suo stato di moto o di quiete, qualora sia soggetta a una forza essa subirà un’accelerazione proporzionale, e così via. A questo punto, le regole di corrispondenza dovranno istituire una corrispondenza tra elementi dell’apparato logico-linguistico ed elementi dell’esperienza, vale a dire concreti sistemi della realtà naturale, in modo tale da assicurare che il contenuto degli assiomi (di per sé espresso nella forma astratta che l’apparato logico-linguistico permette) sia valido per i suddetti sistemi naturali. Due osservazioni importanti. In primo luogo, è necessario distinguere tra gli elementi del modello che soddisfano gli assiomi e gli oggetti empirici individuati dalle regole di corrispondenza: è infatti possibile formulare un modello di un apparato logicolinguistico anche senza aver necessariamente individuato gli oggetti empirici da far corrispondere agli elementi del modello. Rispetto all’esempio di prima, il sistema di sfere d’acciaio perfettamente sferiche è sì un modello formalmente corretto del linguaggio della meccanica, ma è ancora un sistema astratto dal momento che nessun oggetto empirico dalla forma sferica è davvero perfettamente sferico: le regole di corrispondenza assoceranno a questi sistemi ideali delle sfere “reali” che approssimano in misura accettabile le proprietà meccaniche richieste dalla teoria. In secondo luogo, nei casi particolarmente fortunati, all’individuazione di un modello in senso logico si accompagnerà una rappresentazione “intuitiva”, vale a dire una rappresentazione più accessibile in termini di comprensione e visualizzabilità dei fenomeni che sono tipicamente oggetto della teoria stessa. Quest’ultima componente del modello neoempirista di teoria scientifica ha però, nella prospettiva neoempirista, un carattere sostanzialmente pragmatico e, da un punto di vista strettamente logico, non risulta indispensabile; inoltre, non è detto che un’interpretazione intuitiva sia vera. Un esempio canonico è la rappresentazione dell’atomo nei termini di un microsistema planetario, nel quale il nucleo svolge il ruolo del centro di gravità e gli elettroni sono assimilati a pianetini che orbitano velocemente intorno al nucleo: si tratta di una rappresentazione falsa in senso letterale, dal momento che descrive in termini di fisica classica un sistema fisico governato in realtà dalle leggi della fisica quantistica, ma può aiutare l’intuizione a visualizzare la struttura generale dell’oggetto indagato, in questo caso l’atomo. Il modello di teoria scientifica proposto dall’empirismo logico, e caratterizzato dalle tre componenti che abbiamo sinteticamente presentato, solleva alcune importanti questioni di principio sulle quali è essenziale soffermarsi: una pur sommaria discussione di tali questioni porta infatti ad esaminare implicazioni fondamentali del
41
42
La nozione di teoria scientifica e la sua evoluzione
modello stesso, alcune delle quali saranno al centro delle critiche e delle alternative elaborate dai filosofi della scienza della seconda metà del XX secolo. Ci occuperemo in particolare dei seguenti aspetti: 1. la caratterizzazione moderna delle nozioni di assiomatizzazione e sistema formale, legate entrambe in modo strutturale all’immagine neoempirista di teoria scientifica (sezione 2.3); 2. la distinzione tra la componente astratta e la componente osservativa delle teorie scientifiche e la tesi filosofica di riducibilità (totale o parziale) della prima alla seconda (sezione 2.4); 3. le principali conseguenze epistemologiche di ampio respiro del modello neoempirista di teoria scientifica (sezione 2.5): a. atteggiamento antimetafisico, b. sottovalutazione dell’aspetto storico nella valutazione delle teorie scientifiche, c. tesi cumulativa sul progresso della scienza nel suo complesso (i punti b e c sono chiaramente legati all’enfasi sull’aspetto logico nella struttura delle teorie), d. l’idea di verificazionismo e la formulazione di criterio empirista di significato, da utilizzare nella valutazione delle teorie scientifiche.
2.3 Le nozioni di teoria assiomatica e sistema formale: dagli antichi ai moderni L’idea di organizzare una teoria conferendo ad essa una struttura assiomatica non è di per sé una novità: gli Elementi di Euclide (terzo secolo a. C), uno dei testi più celebri dell’intera tradizione scientifica occidentale, contiene una sistemazione assiomatica della geometria fino ad allora nota. Esso ha rappresentato per secoli un modello formale di una teoria scientifica solida e, più in generale, un’esemplificazione dell’idea stessa di necessità deduttiva. Un aspetto particolarmente rilevante per i nostri scopi è però il fatto che, nella giustificazione delle definizioni e dei postulati scelti, un ruolo fondamentale è svolto dall’idea di evidenza. Chiariamo con un semplice esempio. Negli Elementi si fornisce una “definizione” di quelli che nella teoria rappresentano gli enti cosiddetti primitivi, vale a dire quegli enti che devono costituire le fondamenta dell’intero edificio della geometria (euclidea). Uno di questi enti è il punto, che Euclide presenta così: «Punto è ciò che non ha parti» [Euclide 1970]. Agli occhi di un matematico nostro contemporaneo, si tratta di una definizione soltanto per modo di dire: Euclide, infatti “definisce” la nozione di punto nei termini di un’altra nozione – quella di parte – cui la teoria non fornisce una definizione esplicita e che anzi assume per nota. Dunque si “definisce” la nozione di punto, ma solo nel senso che si cerca di rendere intuitivamente
La nozione di teoria scientifica e la sua evoluzione
comprensibile la natura di un ente formale nei termini di qualcos’altro che un lettore medio può cogliere immediatamente (l’idea di “parte”) ma che la teoria non definisce a sua volta. In altre parole la forza dell’idea di “parte” – vale a dire l’idea che “regge il peso” della definizione di punto – non è altro che quella di essere evidente: nessuna persona dotata di normali facoltà cognitive troverà particolare difficoltà nel comprendere la natura del punto come oggetto geometrico nei termini di qualcosa che non si può dividere in parti. Una volta fissati gli enti primitivi e gli assiomi che ne caratterizzano le proprietà, la teoria assiomatizzata è poi capace di generare una struttura deduttiva, nella quale l’ordine e la concatenazione tra le asserzioni si fondano sulla derivabilità rigorosa dagli assiomi: poiché tuttavia questi ultimi sono giustificati ricorrendo alla loro evidenza irriducibile, questa evidenza si trasmette per così dire deduttivamente a tutto il sistema, costituendone di fatto il fondamento ultimo. In una concezione come quella euclidea, il rigore delle dimostrazioni risente insomma del carattere intuitivo della giustificazione degli assiomi. Questa concezione della matematica, che presuppone implicitamente una connessione fondamentale e di principio tra geometria ed esperienza e che sopravvive molto a lungo [ricompare, per esempio, nelle analisi filosofiche di Immanuel Kant (17241804) sulla geometria come fondamento di una teoria filosofica dello spazio], viene però abbandonata a partire dalla seconda metà del XIX secolo. Si sviluppa infatti gradualmente una concezione nella quale il criterio fondamentale per la scelta di una particolare formulazione assiomatica di una teoria non è più l’evidenza – giudicata una nozione soggettiva e in qualche modo instabile – bensì la coerenza degli assiomi, ovvero la garanzia che qualunque teoria che includa quegli assiomi non produrrà alcuna contraddizione. A questo sviluppo contribuisce in larga misura la scoperta delle geometrie non euclidee – avvenuta nella seconda metà del XIX secolo a opera di matematici come Gauss, Bolyai e Lobacevski – una scoperta che mette in crisi l’idea di intuizione geometrica e l’idea che la geometria non sia altro che una codificazione di una percezione univoca dello spazio fisico. In questa nuova concezione della matematica, il criterio per l’assiomatizzazione si sposta da un terreno intuitivo/empirico verso un terreno più strettamente logico: una teoria fondata su assiomi più “evidenti” di altre potrà allora avere al massimo un vantaggio psicologico ma non di per sé un vantaggio teorico. Come spiega efficacemente Bertrand Russell nel suo I princìpi della matematica [1903]: Le proposizioni di Euclide, ad esempio, non discendono solo dai principi della logica; e l’intuizione di questo fatto portò Kant alle sue innovazioni nella teoria della conoscenza. Ma da quando è sorta la geometria non euclidea, è parso chiaro che la matematica pura non deve risolvere il problema se gli assiomi e le proposizioni di Euclide valgano o no nello spazio reale: si tratta di un problema di matematica applicata, che deve essere risolto, nella misura in cui è possibile una soluzione, con l’esperienza e l’osservazione. La matematica pura afferma semplicemente che le proposizioni di Euclide discendono dagli assiomi di Euclide, afferma cioè l’esistenza di un’implicazione: ogni spazio che ha certe proprietà ha tali e tal altre proprietà. [Russell 1971, 30]
In accordo con questa nuova concezione, dunque, l’apparato logico-linguistico costituisce parte integrante del modello di teoria scientifica proposto dall’empirismo
43
44
La nozione di teoria scientifica e la sua evoluzione
logico e permette in linea di principio di formulare una teoria scientifica in forma assiomatizzata. Le tecniche della moderna matematica e la possibilità di dimostrare la coerenza dell’insieme di assiomi scelti senza dover ricorrere alla presunta “evidenza” degli assiomi stessi permettono inoltre una ricostruzione razionale delle effettive teorie scientifiche, realizzandone una versione assiomatizzata capace di evidenziare la struttura concettuale interna della teoria stessa e differenziando in modo rigoroso le assunzioni primitive dalle conseguenze ricavabili deduttivamente. In particolare, la dualità di apparato logico-linguistico e regole di corrispondenza codifica anche in termini logici una vera e propria assunzione filosofica, che risulta di fatto il cuore del modello e che diventerà per questo stesso motivo il suo elemento di maggiore criticità. Vediamo questo aspetto più da vicino.
2.4 Teoria e osservazione Il modello di teoria scientifica proposto dall’empirismo logico si fonda in modo essenziale sulla dualità tra apparato logico-simbolico e contenuto empirico e osservativo, una dualità garantita dalla funzione di collegamento tra i due svolta dalle regole di corrispondenza. Questa dualità si fonda però, a sua volta, su un’implicita tesi filosofica secondo cui in una teoria scientifica è possibile di principio formulare una distinzione rigorosa tra la parte astratta e la parte empirica: non soltanto queste due parti non hanno a rigore alcuna sovrapposizione tra loro, ma la parte empirica rappresenta quel materiale tratto dall’esperienza sul quale possono concordare anche studiosi che eventualmente abbiano poi posizioni diverse su come spiegare e organizzare quel materiale (cfr. la sezione 6.3, L’anti-realismo e il primato epistemico dell’osservazione). Si tratta evidentemente della principale eredità di quell’empirismo che rappresenta l’orizzonte filosofico di riferimento dell’intero movimento, un’eredità che in particolare può essere fatta risalire a una teoria di David Hume (1711-1776), il filosofo moderno che con maggiore coerenza e sistematicità ha indagato le conseguenze teoriche di una teoria empiristica della conoscenza. La teoria humiana in questione può essere definita come una teoria delle fonti della conoscenza. Una formulazione chiara – e celebre – di questa teoria si trova in un testo humiano intitolato Ricerca sull’intelletto umano, pubblicato nel 1748: Tutti gli oggetti della ragione e della ricerca umane si possono naturalmente dividere in due specie, cioè relazioni di idee e materia di fatto. Alla prima specie appartengono le scienze della geometria, dell’algebra e dell’aritmetica; e, in breve, qualsiasi affermazione che sia certa intuitivamente e dimostrativamente. Che il quadrato dell’ipotenusa sia uguale al quadrato dei due cateti è una proposizione che esprime una relazione fra queste figure. Che tre volte cinque sia uguale alla metà di trenta esprime una relazione fra questi numeri. Proposizioni di questa specie si possono scoprire con una semplice operazione del pensiero, senza dipendenza alcuna da qualche cosa che esista in qualche parte dell’universo. Anche se non esistessero in natura circoli o triangoli, le verità dimostrate da Euclide conserverebbero sempre la loro certezza ed evidenza.
La nozione di teoria scientifica e la sua evoluzione
Le materie di fatto, che sono la seconda specie di oggetti dell’umana ragione, non si possono accertare nella stessa maniera, né l’evidenza della loro verità, per quanto grande, è della stessa natura della precedente. Il contrario di ogni materia di fatto è sempre possibile, perché non può mai implicare contraddizione e viene concepito dalla mente con la stessa facilità e distinzione che se fosse del pari conforme a realtà. Che il sole non sorgerà domani è una proposizione non meno intelligibile e che non implica più contraddizione dell’affermazione che esso sorgerà. Invano tenteremo, dunque, di dimostrare la sua falsità; se essa fosse falsa dimostrativamente, implicherebbe contraddizione e non potrebbe mai essere distintamente concepita dalla mente. [Hume 1987, vol. 2, pp. 31-2, corsivo nel testo]
La classificazione implicita nella teoria humiana contempla dunque due categorie fondamentali di possibili contenuti di conoscenza: quelli logico-formali – regolati dal solo principio di non contraddizione – e quelli empirici, che obbediscono non soltanto alle leggi della logica ma anche ai vincoli posti dal mondo della natura e dei fatti. Questa classificazione ambisce a caratterizzare in modo completo la sfera della conoscenza umana nel suo complesso, dal momento che le relazioni di idee incorporano la certezza della conoscenza, mentre le materie di fatto ne rappresentano la crescita. Le proposizioni vere della logica e della matematica, da sempre assunte a rappresentare il massimo rigore raggiungibile dal sapere umano, devono infatti la loro evidenza alla possibilità di fare a meno dell’esperienza: queste proposizioni conserveranno la loro verità, quali che siano le leggi, la struttura e i possibili eventi del mondo naturale. Questa tesi sull’indipendenza della logica e della matematica dai fatti del mondo ha due implicazioni importanti. La logica e la matematica non possono infatti secondo Hume né rendere conto da sole dell’ampliamento della nostra conoscenza né trasferire la loro necessità al mondo dei fatti, e quest’ultima implicazione è decisiva proprio per la relazione che Hume considera lo strumento concettuale fondamentale per l’indagine empirica, vale a dire la relazione di causalità (cfr. più avanti la sezione 5.2, Causalità). La tesi conoscitiva humiana viene sostanzialmente adottata dall’empirismo logico e svolge un ruolo fondante nei confronti del modello di teoria scientifica di cui ci stiamo occupando: essa giustifica la distinzione tra i tre elementi di base del modello (apparato logico, regole di corrispondenza e interpretazione) ed è coerente con l’immagine neoempirista di teoria scientifica come di un’elaborazione astratta a partire da un livello di evidenza osservativa comune per tutti, un livello che costituisce tanto il punto di partenza quanto il punto d’arrivo, dal momento che è ancora una volta l’evidenza osservativa a sostenere la responsabilità del controllo, una volta che la teoria scientifica stessa è stata in qualche modo formulata. Un semplice esempio, ancora una volta di tipo meccanico. Se voglio spiegare perché un oggetto di medie dimensioni segua una certa traiettoria se lanciato dall’ultimo piano di un palazzo, parto dalle osservazioni disponibili su quel tipo di fenomeni, elaboro una teoria fisica (e possibilmente matematica) sulle forze che causano quel tipo di traiettoria e ritorno all’evidenza osservativa, applicando la teoria appena elaborata a casi concreti di lanci di oggetti. Come spiega efficacemente il filosofo della scienza C.G. Hempel: Una teoria scientifica è paragonabile a una complessa rete sospesa nello spazio.
45
46
La nozione di teoria scientifica e la sua evoluzione
I suoi termini sono rappresentati dai nodi, mentre i fili che collegano questi nodi corrispondono, in parte, alle definizioni e, in parte, alle ipotesi fondamentali e derivate della teoria. L’intero sistema fluttua, per così dire, sul piano dell’osservazione, cui è ancorato mediante le regole interpretative. Queste possono venir concepite come fili non appartenenti alla rete, ma tali che ne connettono alcuni punti con determinate zone del piano di osservazione. Grazie a queste connessioni interpretative, la rete è utilizzabile come teoria scientifica: da certi dati empirici è possibile risalire, mediante un filo interpretativo, a qualche punto della rete teorica, e di qui procedere attraverso definizioni e ipotesi ad altri punti, dai quali, per mezzo di un altro filo interpretativo, si può ridiscendere al piano dell’osservazione. [Hempel 1961, 46-47]16
Questa visione del rapporto tra teoria ed evidenza osservativa è anche alla base della tesi neompirista secondo cui la parte astratta di una teoria deve essere sempre riducibile, in linea di principio, al piano dell’osservazione: con riferimento al modello presentato sopra, il linguaggio teorico deve poter essere ricondotto in forma rigorosa, sia pure anche soltanto in linea di principio, a proposizioni che abbiano un diretto riferimento a fenomeni e processi osservabili. Un’iniziale posizione più radicale – secondo la quale ogni enunciato teorico deve essere riducibile mediante opportune regole a un enunciato osservativo – ha lasciato successivamente il posto a posizioni più moderate, nelle quali gli enunciati del linguaggio teorico devono essere riducibili almeno parzialmente, con l’obiettivo di rendere più realistici gli obiettivi epistemologici dell’analisi neoempirista delle teorie scientifiche e della loro natura17. 2.5 Il modello neoempirista di teoria scientifica: conseguenze epistemologiche Il modello neoempirista di teoria scientifica costituisce una struttura organica che si propone come rappresentazione di riferimento della natura e del significato di una teoria scientifica dal punto di vista epistemologico. Alla luce dell’ampiezza di prospettiva nella quale si muovono gli empiristi logici, il modello che essi elaborano presenta – come abbiamo anticipato – una serie di implicazioni, particolarmente rilevanti per l’idea complessiva di conoscenza scientifica che ne emerge: consideriamo allora queste implicazioni, sia pure sinteticamente. Il successivo processo di critica e di revisione di molte delle principali tesi neoempiriste porterà di conseguenza a una critica anche di queste implicazioni. (a) In primo luogo, il modello neoempirista di teoria scientifica comporta una netta sottovalutazione dell’aspetto storico-evolutivo nella valutazione delle teorie scientifiche. Sotto l’ipotesi che la struttura apparato logico + regole di corrispondenza + interpretazione rappresenti il nucleo fondamentale di una teoria 16
Attenzione: quelle che Hempel chiama “regole interpretative” sono quelle che nelle pagine precedenti, con riferimento al modello neoempirista di teoria scientifica, abbiamo chiamato “regole di corrispondenza”. 17
Testi chiave per queste posizioni più moderate sono Carnap [1956] e Hempel [1968].
La nozione di teoria scientifica e la sua evoluzione
dal punto di vista epistemologico, le modalità con cui una specifica teoria si è venuta configurando nell’effettivo sviluppo del pensiero scientifico risultano, nella prospettiva del modello neoempirista, secondari se non apertamente irrilevanti. La prevalenza di un’impostazione logico-formale ai problemi di fondamento delle teorie determina cioè un atteggiamento di netta svalutazione della rilevanza anche concettuale della storia della scienza, dal momento che la possibilità di ricostruire in senso astratto le teorie presuppone in modo programmatico la possibilità di “mettere fra parentesi” le concrete vicende con cui le teorie stesse si sono fatte strada nelle indagini dei singoli scienziati e nelle loro comunità di appartenenza. Quando l’enfasi sull’aspetto ideale e logico-formale delle teorie si attenuerà (o quando verrà esplicitamente attaccata), l’attenzione per la rilevanza della storicità nell’analisi delle teorie ritornerà in primo piano: questa circostanza sarà particolarmente evidente nel caso del filosofo e storico della scienza Thomas S. Kuhn, le cui posizioni incontreremo tra breve. (b) In secondo luogo, il modello neoempirista di teoria scientifica sostiene una tesi cumulativa sul progresso della scienza nel suo complesso. Se infatti la componente logico-astratta, opportunamente correlata all’evidenza osservativa dalle regole di coordinazione, rappresenta il nucleo fondamentale della teoria, risulta naturale interpretare il progresso delle teorie scientifiche nei termini di una successione nella quale ogni nuova teoria ingloba la precedente. La “nuova” teoria – chiamiamola T1 – sarebbe in altri termini destinata a essere sempre una teoria che generalizza la precedente, che chiameremo T0: la teoria T1 sarebbe cioè in grado di spiegare fenomeni non coperti da T0 mantenendo nello stesso tempo la capacità di spiegare, sotto opportune restrizioni, i fenomeni spiegati da T0. Facciamo ancora una volta un esempio. Come noto, la teoria della relatività speciale di Einstein prevede che osservatori collocati in sistemi di riferimento che siano in moto l’uno rispetto all’altro non misurano lo scorrere del tempo nello stesso modo, a condizione che le velocità coinvolte siano significativamente alte. Quando sono cioè in gioco velocità molto elevate (che hanno come limite invalicabile la velocità della luce nel vuoto), la teoria di Einstein spiega efficacemente fenomeni che la teoria precedente non sarebbe in grado di spiegare: tuttavia, quando le velocità in gioco sono basse, la teoria precedente e la teoria di Einstein possono andare tranquillamente d’accordo. Quindi la teoria di Einstein risulterebbe una generalizzazione della teoria precedente: essa è cioè in grado di “coprire” sotto opportune restrizioni (nel nostro caso la richiesta di basse velocità) tutti i fatti rilevanti coperti dalla teoria precedente, ma anche di spiegare fatti per i quali la teoria precedente non può avere alcuna buona spiegazione (nel nostro caso i fenomeni che coinvolgono sistemi in moto con velocità che si approssimano in misura significativa alla velocità della luce nel vuoto). Ma questa relazione tra teorie è esattamente la relazione che lega una teoria più generale e una teoria meno generale nel senso della logica: la teoria più generale T1 può infatti essere formulata come teoria che ha una base di assiomi più ampia di quella di T0, cioè tutti gli assiomi di T0 più altri assiomi (idealmente, quelli che servono a trattare i fenomeni che la teoria T0 non è in grado di trattare). È evidente allora
47
48
La nozione di teoria scientifica e la sua evoluzione
che, nel modello neoempirista di teoria scientifica, la successione delle teorie assume un andamento progressivo e cumulativo, che procede in modo uniforme e sostanzialmente lineare da teorie meno generali a teorie più generali. (c) In terzo luogo, il modello neoempirista di teoria scientifica giustifica un atteggiamento di deciso scetticismo nei confronti della metafisica, vale a dire di quella parte della riflessione filosofica che si occupa di analizzare la struttura della realtà ma in modo completamente indipendente dai risultati delle scienze empiriche. Questo scetticismo deriva dai fondamenti stessi del modello, e in particolare dalla condizione secondo la quale è proprio l’esperienza – e in particolare l’esperienza scientifica, vale a dire l’esperienza codificata nelle forme consentite dalle concrete teorie scientifiche – a costituire il principale strumento di valutazione di qualsiasi tipo di analisi “della realtà”. Se infatti la metafisica decide di prescindere per definizione dai contenuti dell’esperienza, il modello neoempirista sarà costretto a escludere qualsiasi forma di “inquinamento” metafisico per la costruzione delle sue analisi epistemologiche, considerando esplicativamente vuota qualsiasi affermazione che la metafisica intenda avanzare sulle caratteristiche della realtà naturale. A sua volta una simile posizione antimetafisica, vale la pena ricordarlo ancora una volta, deve la sua plausibilità all’assunzione che abbiamo prima messo in evidenza, secondo cui la componente empirica è distinguibile in modo rigoroso e non equivoco dalla componente logico-astratta. Se, in accordo con le premesse stesse della prospettiva epistemologica dell’empirismo logico, ogni forma e strumento di conoscenza è o di carattere puramente logico-formale o di carattere puramente empirico, ne consegue che le affermazioni della metafisica non possono avere alcuno spazio autonomo nei fondamenti dell’autentica conoscenza scientifica. Come vedremo più avanti, questa posizione antimetafisica sarà destinata a indebolirsi notevolmente, dal momento che un esito cruciale delle critiche al modello neompirista consisterà proprio nel riconoscimento che non è possibile far rientrare agevolmente ogni forma di conoscenza in modo esclusivo o nella classe dei contenuti logico-formali o in quella dei contenuti empirici e osservativi (cfr. le osservazioni sul cosiddetto “empirismo riduttivo” nella sezione 6.5, Vari tipi di anti-realismo). (d) Il generale atteggiamento antimetafisico che ha in parte caratterizzato l’empirismo logico ha avuto un ruolo importante nel motivare una delle tesi più caratteristiche dell’empirismo logico, il verificazionismo, secondo cui il significato di una proposizione equivale all’insieme dei metodi utilizzabili per controllare il valore di verità (vero o falso) della proposizione stessa. Secondo questa formulazione, l’adozione del verificazionismo non è altro che l’adozione di un autentico criterio empirista di significato: il criterio verificazionista sarebbe capace di decidere se una certa proposizione è dotata o meno di significato sulla base della possibilità o meno di verificare la proposizione stessa. Possiamo in altri termini concepire il criterio verificazionista come una sorta di “macchina di calcolo” semantica (Figura 2): per ogni possibile proposizione ben formata che decidiamo di inserire come ingresso, la macchina fornirà uscita “1” se la proposizione è verificabile (se cioè esistono metodi empirici per controllarne
La nozione di teoria scientifica e la sua evoluzione
la verità o falsità), mentre fornirà uscita “0” altrimenti (se cioè tali metodi non esistono). In quest’ultimo caso, la proposizione in questione sarà priva di significato, sarà cioè una pura successione di simboli senza alcun valore semantico (cfr. le osservazioni sul cosiddetto “operazionalismo” nella sezione 6.5, Vari tipi di anti-realismo).
Figura 2 – Principio di verificazione come macchina di calcolo semantica
Come scrive Moritz Schlick, esponente di punta dell’empirismo logico, nel suo articolo Significato e verificazione, pubblicato nel 1936: «Stabilire il significato di un enunciato equivale a stabilire le regole secondo cui l’enunciato va usato e questo, a sua volta, è lo stesso che stabilire la maniera in cui esso può essere verificato (o falsificato). Il significato di una proposizione è il metodo della sua verificazione» [Schlick 1973, 73]. L’adozione di un simile principio, in linea di principio valido nella valutazione tanto delle teorie scientifiche quanto del linguaggio ordinario, rappresenta una condizione molto ambiziosa, perché essa presuppone non soltanto che una procedura del genere sia eseguibile per qualsiasi proposizione, ma anche che il risultato della procedura sia sempre non ambiguo. Come allora è facile immaginare (cfr. la sezione 6.3, L’antirealismo e il primato epistemico dell’osservazione), il verificazionismo come criterio di significato dipende anch’esso dalla tesi che sia sempre possibile distinguere senza incertezze tra enunciati teorici ed enunciati osservativi e fattuali in genere. 2.6 Oltre l’empirismo logico 2.6.1 Introduzione La prospettiva epistemologica elaborata dai protagonisti dell’empirismo logico è, come abbiamo visto, alla base della nascita stessa della moderna filosofia della scienza. L’influenza esercitata dal particolare modello neoempirista di teoria scientifica sulla comunità dei filosofi della scienza, pur essendo stata profonda, comincia tuttavia alla fine degli anni ’50 a scontrarsi con la problematicità di alcune assunzioni di fondo del modello. L’approccio logico-induttivo alle teorie scientifiche, tipico dell’empirismo logico, viene infatti sottoposto a una serie di critiche e di attacchi filosofici accomunati dall’insoddisfazione nei confronti di uno dei pilastri dell’orientamento filosofico neoempirista, vale a dire la relazione teoria-fatti e quella sorta di concezione “ingenua” di esperienza che ne costituisce il presupposto. Nel delineare gli elementi essenziali di
49
50
La nozione di teoria scientifica e la sua evoluzione
queste critiche e delle teorie alternative che sono state sviluppate, ci soffermeremo su due aspetti principali: (i) la critica della concezione “ingenua” di esperienza e il relativo sviluppo di una concezione dinamica di teoria scientifica, un aspetto legato ai nomi di N.R. Hanson (1924-1967) e T.S. Kuhn (1922-1996); (ii) la critica della prospettiva induttivista nei confronti delle teorie scientifiche, tipica dell’empirismo logico, e lo sviluppo di visioni alternative come il falsificazionismo e il razionalismo critico, un aspetto legato al nome di K.R. Popper (1902-1994). 04
La critica alla distinzione tra analitico e sintetico di W.V.O. Quine Un ulteriore elemento di indebolimento della prospettiva neoempirista è rappresentato dalla critica, elaborata da W.V.O. Quine (1908-2000), alla distinzione neoempirista tra teoria ed esperienza nei termini della distinzione tra enunciati analitici ed enunciati sintetici e il connesso superamento dell’atteggiamento antimetafisico. Nel presente testo non ci soffermeremo in modo specifico su questo aspetto, più legato alla logica e alla filosofia del linguaggio che non alla filosofia della scienza di per sé: per un’introduzione alla questione, si veda Rainone [2010, cap. 2].
2.6.2 Paradigmi e rivoluzioni nella scienza Un aspetto che caratterizza in modo cruciale il modello neoempirista è rappresentato, come abbiamo visto, dal ruolo centrale svolto dall’esperienza in termini di dati empirici, evidenze osservative e così via. Gli elementi fondamentali dell’esperienza rappresentano in questo modello un livello di base, comune a ogni possibile forma di conoscenza che aspiri a costituirsi, con le opportune elaborazioni, come conoscenza scientifica: l’esperienza, indipendentemente dalle forme che assume, si presenta cioè come un livello di conoscenza neutrale e comune a tutti i soggetti di conoscenza, i quali possono eventualmente dividersi sui diversi modi di elaborare successivamente questo materiale empirico. È tra l’altro proprio questa assunzione sull’unicità e neutralità dell’esperienza che – nel modello neoempirista – permette all’esperienza stessa di svolgere il ruolo di termine di paragone e controllo per la fondatezza di una data teoria, che deve poter essere accettata esattamente quando e solo quando è in grado di rendere conto in modo sufficientemente articolato di quei dati osservativi che sono “lì fuori”, trasparenti e disponibili a tutti gli osservatori nello stesso modo. Questa condizione di neutralità dell’esperienza, che rappresenta di fatto una delle tesi più influenti di tutto l’empirismo logico, viene sottoposta a una critica radicale a partire dalla fine degli anni ’50 del XX secolo. Sulla base di suggestioni di origine diversa – dalla storia della scienza a reminiscenze filosofiche di tipo kantiano – alcuni studiosi cominciano a dubitare in modo sempre più accentuato della sostenibilità di questa idea di esperienza: essi propongono invece la tesi contrapposta di un’esperienza che si rivela essa stessa non tanto come il fondamento delle teorie
La nozione di teoria scientifica e la sua evoluzione
scientifiche quanto un loro prodotto. Nel volume intitolato I modelli della scoperta, originariamente pubblicato nel 1958 e destinato ad inaugurare questa nuova stagione dell’epistemologia novecentesca, Norwood Russell Hanson delinea per primo questa nuova impostazione del problema, nella quale l’esperienza diventa una nozione che acquisisce il suo stesso significato soltanto all’interno di una data cornice teorica: Una teoria non si forma accostando i dati frammentari di fenomeni osservati: essa è piuttosto ciò che rende possibile osservare i fenomeni come appartenenti a una certa categoria e come connessi con altri fenomeni. Le teorie organizzano i fenomeni in sistemi. [Hanson 1978, 109]
In questa nuova visione del rapporto tra teoria ed esperienza, quest’ultima non può presentarsi come un’entità in alcun modo “neutrale”: la costituzione dell’esperienza in un senso scientifico è una parte del lavoro di costruzione di una teoria scientifica, ed è proprio la teoria che indirizza verso quel tipo di “esperienza” che possa essere in qualche modo funzionale e coerente rispetto al compito conoscitivo che la teoria si incarica di assolvere. Con un esempio celebre, tratto dalla storia dell’astronomia, Hanson contrappone i modelli cosmologici di Keplero e Tycho Brahe proprio evidenziando che a marcare la loro differenza non sono certo di per sé le caratteristiche di una presunta evidenza comune ad entrambi, quanto le rispettive cornici teoriche, tra loro incompatibili, nelle quali ciascuno inserisce la propria evidenza. In questi modelli, infatti, tale era la distanza tra le rispettive assunzioni di base – Keplero assumeva la correttezza della teoria copernicana, mentre Tycho proponeva un sistema “misto” tra quello tolemaico e quello copernicano, nel quale il Sole gravitava intorno alla Terra ma gli altri pianeti del sistema solare gravitavano intorno al Sole – che era impossibile a rigore pensare che i due astronomi vedessero gli stessi fenomeni quando volgevano i loro strumenti verso il cielo. Gli elementi delle loro [di Keplero e Tycho] esperienze sono identici, ma la loro organizzazione concettuale è enormemente diversa. C’è dunque un senso in cui il semplice fatto di vedere è in realtà un’impresa “carica di teoria”. L’osservazione di x è condizionata dall’anteriore conoscenza di x. Le osservazioni sono influenzate anche dal linguaggio o dalla notazione usati per esprimere ciò che sappiamo, senza i quali noi potremmo riconoscere ben poco come conoscenza. [Hanson 1978, 30]
In questa prospettiva, dunque, l’osservazione non ha il primato sulla teoria, ma è essa stessa il prodotto di una teoria: è in questo senso che i dati non sono primitivi ma sono, secondo un’espressione destinata a grande fortuna, carichi di teoria (theory-laden, cfr. la sezione 6.4, Problemi dell’anti-realismo). Ancora più influente si è rivelata la posizione di Thomas S. Kuhn, che in un testo di grande fortuna intitolato La struttura delle rivoluzioni scientifiche [1962] elabora una tesi di fondo che è stata oggetto di animate discussioni nella comunità epistemologica a partire dagli anni ’60 del Novecento. Nella prospettiva kuhniana, le teorie scientifiche sono costruzioni concettuali che non vengono sviluppate per via induttiva a partire dai dati e successivamente perfezionate per via deduttiva. Esse crescono all’interno di paradigmi, cioè una sorta di sistemi di riferimento concettuali che forniscono ai membri delle comunità scientifiche
51
52
La nozione di teoria scientifica e la sua evoluzione
una serie di nozioni, tecniche e valori condivisi con i quali lavorare: è proprio all’interno di questi paradigmi che gli scienziati costruiscono – per così dire – la loro esperienza e la loro evidenza osservativa, e sono quindi i paradigmi a conferire senso agli elementi empirici delle teorie. Come abbiamo accennato prima, un elemento importante per l’elaborazione di queste concezioni alternative al modello neoempirista è stato un orientamento filosofico che si richiama a un certo modo di intendere l’eredità filosofica di Immanuel Kant (17241804). Nella filosofia kantiana della conoscenza, infatti, i dati empirici (fenomeni) sono strutturati mediante delle funzioni dell’intelletto che sono indipendenti dall’esperienza. In un giustamente celebre passaggio, tratto dalla Prefazione alla II edizione della Critica della ragion pura [1787], Kant delinea una sorta di ricostruzione razionale delle origini della scienza moderna in termini che indubbiamente sarebbero risuonati positivamente nelle analisi come quelle di Hanson e Kuhn: [Galilei, Torricelli, Stahl] compresero che la ragione vede solo ciò che lei stessa produce secondo il proprio disegno, e che, con princìpi dei suoi giudizi secondo leggi immutabili, deve essa costringere la natura a rispondere alle sue domande; e non lasciarsi guidare da lei, per così dire, con le redini, perché altrimenti le nostre osservazioni fatte a caso e senza un disegno prestabilito non metterebbero capo a una legge necessaria, che pure la ragione cerca e di cui ha bisogno. [Kant 1986, 8]
La funzione di sistema di riferimento concettuale svolta dal paradigma non è statica, ma in qualche modo dinamica. Uno sguardo complessivo alla storia della scienza moderna mostra infatti, secondo Kuhn, la problematicità di un’altra delle tesi chiave del modello neoempirista, vale a dire la tesi della natura cumulativa della conoscenza scientifica attraverso l’evoluzione delle teorie. Nella proposta kuhniana, le teorie scientifiche si sviluppano ed evolvono attraverso una successione di periodi “normali” e di periodi “straordinari” o “di crisi”: nei periodi “normali”, la stragrande maggioranza dell’attività delle comunità scientifiche è occupata nella soluzione di quelli che Kuhn definisce rompicapi, vale a dire problemi tecnici che di fatto non sono stati ancora risolti ma che si ritengono risolvibili all’interno del paradigma. Di tanto in tanto, tuttavia, la scienza si scontra con problemi che non si riescono a trattare se non uscendo dal paradigma stesso: i periodi “straordinari” o “di crisi” sono allora quei periodi nei quali le comunità scientifiche avviano un processo di revisione delle basi stesse dei paradigmi coinvolti. Una crisi profonda può condurre alla modifica radicale o addirittura all’abbandono di un paradigma fino ad allora condiviso: siamo allora in presenza di una rivoluzione scientifica, cioè di una radicale ricostruzione dei fondamenti di un nuovo sistema di riferimento concettuale nel quale il problema che aveva originato la crisi trova una sua sistemazione coerente (discuteremo brevemente un celebre esempio di rivoluzione scientifica nel senso di Kuhn nella sezione 2.6.2). Ogni rivoluzione scientifica ha reso necessario l’abbandono da parte della comunità di una teoria scientifica un tempo onorata, in favore di un’altra incompatibile con essa; ha prodotto di conseguenza un cambiamento dei problemi da proporre all’indagine scientifica e dei criteri secondo i quali la professione stabiliva che cosa si sarebbe dovuto considerare come un problema ammissibile o come una soluzione legittima ad essa. Ogni rivoluzione scientifica ha trasformato l’immaginazione scientifica in un modo che dovremmo descrivere in ultima istanza come una trasformazione del mondo
La nozione di teoria scientifica e la sua evoluzione
entro il quale veniva fatto il lavoro scientifico. [Kuhn 1999, 24-25]
Se accettiamo l’idea che l’evoluzione delle teorie scientifiche passi, almeno nei suoi snodi fondamentali, attraverso momenti rivoluzionari, è evidente che tale processo non può essere caratterizzato in senso cumulativo: la teoria nata dalla rivoluzione scientifica non potrà normalmente essere una generalizzazione della teoria precedente, dal momento che i suoi termini fondamentali sono definiti da un paradigma che è totalmente inconfrontabile con il paradigma che conferisce senso alla teoria precedente. Con un esempio che richiama la sezione dedicata all’analisi galileiana del moto, la nozione di movimento elaborata da Galileo non potrà essere in alcun modo considerata la “generalizzazione” delle teorie precedenti: il paradigma meccanico che Galileo contribuisce in larga parte a costruire prevede infatti che il movimento in senso scientifico si definisca in un senso relazionale, mentre le teorie precedenti lo concepivano come una proprietà intrinseca dei corpi. Nel senso dell’ultima citazione kuhniana riportata, riguardo al movimento il mondo dei corpi pregalileiano e il mondo dei corpi galileiano non possono comunicare: i loro mattoni fondamentali sono totalmente diversi e sono essi stessi due mondi totalmente diversi e irriducibili l’uno all’altro. Anche alla luce della grande influenza che le riflessioni kuhniane hanno esercitato sulla comunità dei filosofi della scienza della seconda metà del Novecento, sarà utile allora riassumere in alcuni punti essenziali le caratteristiche fondamentali della concezione kuhniana delle teorie scientifiche: - l’osservazione è un prodotto della teoria e non viceversa; - centralità della nozione di paradigma, che rappresenta un sistema di riferimento concettuale; - maggiore attenzione alla dimensione storica delle teorie scientifiche; - evoluzione scientifica come processo rivoluzionario e non cumulativo (non sempre, nel corso del progresso scientifico, le nuove teorie inglobano le vecchie riducendole a casi particolari); - limitata importanza attribuita alla struttura assiomatica delle teorie scientifiche; - limiti alle possibilità di confrontare teorie successive.
2.6.3 Un celebre esempio di rivoluzione scientifica: la teoria della relatività speciale Il punto di partenza della teoria della relatività speciale di Albert Einstein è rappresentato dall’apparente difficoltà di conciliare i due principali filoni della fisica dell’epoca: le leggi della meccanica di Galileo e Newton da un lato – con la prescrizione del principio di relatività – e le leggi dell’elettromagnetismo di Maxwell-
53
54
La nozione di teoria scientifica e la sua evoluzione
Lorentz dall’altra. Una conseguenza necessaria, infatti, delle leggi elettromagnetiche è che la velocità della luce è una costante universale (indicata con c), che non dipende dallo stato di moto. Questo implica una violazione del requisito di addizione delle velocità, un requisito completamente ragionevole in un contesto fisico come quello della meccanica classica. In questo contesto, infatti, le velocità di due sistemi fisici X e Y definite nei rispettivi sistemi di riferimento inerziali SX e SY sono essenzialmente relative: esse devono cioè comporsi (vale a dire, sommarsi o sottrarsi) quando vogliamo indicare la velocità di X nel sistema di riferimento SY o la velocità di Y nel sistema di riferimento SX. Nel caso della luce, invece, se immaginiamo che un raggio di luce venga emesso da una sorgente, la costanza del valore c per la velocità della luce implicherà che un osservatore A che sia collocato in un sistema di riferimento in quiete rispetto alla sorgente (poniamo, per semplicità, che A si trovi nelle immediate vicinanze della sorgente) troverà per la velocità della luce un valore uguale a quello che potrebbe trovare un osservatore B che corra a una certa velocità accanto al raggio! Una via d’uscita a prima vista ragionevole in un contesto fisico pre-relativistico è quella di assumere che c sia la velocità della luce in un determinato sistema di riferimento (al quale ci si è riferiti con l’antico termine di “etere”) e che sia quindi possibile in linea di principio verificare il moto terrestre rispetto a questo sistema di riferimento. I ripetuti esperimenti, progettati per ottenere questa verifica, non forniscono però alcun risultato utile: non risulta di fatto possibile scoprire alcun moto terrestre nell’etere. Invece di andare alla ricerca di una possibile spiegazione nell’ambito della fisica nota, Einstein considera l’inaccessibilità dell’etere come una prova a favore dell’idea che anche per le leggi elettromagnetiche debba valere un principio di relatività, la cui validità universale lo rende una sorta di “meta-criterio” per l’accettabilità di qualsiasi legge fisica fondamentale. Einstein nel suo lavoro mostra dunque come la “incompatibilità” tra i quadri teorici della meccanica e dell’elettromagnetismo sia soltanto apparente: tale incompatibilità consegue infatti solo dall’ipotesi che il principio di relatività debba essere, per così dire, “implementato” dalle trasformazioni di Galileo, le quali comportano appunto che la velocità della luce debba assumere valori diversi quando a misurarla siano due osservatori in moto relativo l’uno rispetto all’altro. Ma cos’è esattamente questa “ipotesi”? Si tratta di una necessità logica, di un fatto empirico o di cos’altro? L’assunzione di questa ipotesi è in realtà una scelta teorica, e come tale non suscettibile di una diretta derivazione dai “fatti”: è dunque una scelta che, con decisione altrettanto teorica e su basi non strettamente empiriche, può essere modificata se l’obiettivo finale è quello di una precisa compatibilità tra meccanica ed elettromagnetismo, un obiettivo ispirato a quella forte ricerca di unità e sistematicità dell’indagine fisica che ha costantemente guidato Einstein (Laudisa 2010, cap. 1). Questo particolare rapporto tra teoria ed esperienza, che abbiamo visto esplicitato nel modo einsteiniano di elaborare la “crisi” della fisica di inizio ‘900, si rinnova nel caso di una delle più celebri conseguenze della relatività speciale – lo statuto della relazione di simultaneità tra eventi distanti. La lezione filosofica e gneoseologica che questa conseguenza suggerisce ha infatti due componenti fondamentali, la cui integrazione determina quella originale sintesi tra l’aspetto operazionale (e quindi in senso lato empiristico) e l’aspetto speculativo-teorico che è una delle cifre più caratteristiche del
La nozione di teoria scientifica e la sua evoluzione
pensiero scientifico e filosofico di Einstein. Da un lato infatti, Einstein richiede che a un concetto solo apparentemente ovvio come la simultaneità tra eventi sia conferito un fondamento operativo, e questo richiede un’analisi attenta delle procedure che è necessario adottare per dare significato fisico all’affermazione che due dati eventi sono “simultanei”. Questo punto è esplicitato sia nel lavoro del 1905, sia in molti altri testi successivi. Nelle prime pagine del lavoro originale, leggiamo infatti «Per descrivere il moto di un punto materiale si danno i valori delle coordinate in funzione del tempo. Si tenga presente che una tale descrizione matematica non ha significato fisico se prima non si è chiarito che cosa si intende per “tempo”» (Einstein 1905, 150), mentre nella celebre Esposizione divulgativa della relatività, il punto è riformulato in questi termini: «Ci imbattiamo nella stessa difficoltà in tutti gli enunciati fisici ove entra in gioco il concetto di “simultaneità”. Questo concetto non esiste per il fisico fino a quando egli non ha la possibilità di scoprire nel caso concreto se esso risulti fondato oppure no» [Einstein 1917, 404]. La necessità di conferire un fondamento operativo alla definizione di simultaneità è tuttavia solo una delle componenti dell’analisi einsteiniana. L’altra componente, altrettanto fondamentale, consiste nel riconoscere che il postulato di assolutezza del tempo è esso stesso di natura speculativa, nel preciso senso di non essere imposto dai fatti. Tale postulato risulta cioè un’assunzione che può essere rimossa se la sua sostituzione risulta funzionale alla possibilità di trovare una sintesi tra le leggi della meccanica e quelle dell’elettromagnetismo. La soluzione del problema che Einstein ha di fronte si sviluppa dunque attraverso un primo momento di analisi critica sull’infondatezza empirica del pregiudizio che ostacolava la formulazione della nuova teoria. Ma l’analisi critica dell’assioma sul carattere assoluto del tempo prelude poi, come noto, alla possibilità teorica di una riorganizzazione unitaria dei due insiemi di leggi apparentemente inconciliabili. Questa possibilità è garantita esattamente dal fatto che il carattere assoluto del tempo è un’ipotesi teorica liberamente adottata e che, come tale, può essere rimossa e sostituita da altre ipotesi teoriche, adottate altrettanto liberamente. Il momento operazionale dell’analisi einsteiniana non è dunque l’obiettivo principale, ma è piuttosto una prima fase di indagine: essa risulta funzionale a un progetto di riorganizzazione teorica fondato su diversi postulati che, al pari di quello dell’assolutezza del tempo, non sono in alcun senso “imposti” dai fatti ma che trovano la loro giustificazione nella loro capacità di integrare meccanica ed elettromagnetismo in un quadro coerente e unitario.
2.6.4 Il razionalismo critico di Karl R. Popper Un’ulteriore posizione critica nei confronti delle tesi fondamentali dell’empirismo logico è rappresentata dal pensiero epistemologico di Karl R. Popper (1902-1994). Il contesto nel quale si è sviluppata la prospettiva popperiana si differenzia di fatto da quello nel quale sono maturate le posizioni critiche di Kuhn e Hanson esaminate nelle pagine precedenti: Popper, di origine viennese, si forma intellettualmente nello
55
56
La nozione di teoria scientifica e la sua evoluzione
stesso ambiente dei principali esponenti dell’empirismo logico e delinea una visione alternativa fino dagli anni ’30 del Novecento, una visione che – in termini sintetici – prende avvio dalla problematicità di una concezione induttiva della conoscenza scientifica. Vedremo nelle pagine seguenti (cfr. la sezione 5.4 Il problema filosofico dell’induzione) come, di fronte al problema dell’induzione, numerosi filosofi della scienza abbiano tentato di proporre svariate forme di giustificazione dei procedimenti induttivi nella scienza: l’idea che, al di là delle soluzioni individuali, accomuna tutti questi filosofi riguardo all’induzione è che non si possa preservare la rappresentazione di una scienza che progredisce e amplia il suo dominio conoscitivo se non includendo forme di ragionamento induttivo. La posizione popperiana si distacca invece in modo radicale da questa impostazione, considerando la struttura logica dell’induzione come un problema insormontabile: l’impossibilità di fornire garanzie di verità da parte di un argomento induttivo – nel quale l’ipotesi di verità delle premesse non implica logicamente la verità della conclusione – deve spingere secondo Popper ad abbandonare del tutto la plausibilità dei ragionamenti induttivi nella scienza. Questo comporta per esempio l’abbandono del principio di verificazione dei neoempiristi (sezione 2.5, punto d): poiché la gran parte dei processi di “verificazione” – implicitamente richiesti dal principio – passano attraverso procedimenti induttivi, ne consegue che il principio non potrà nella maggior parte dei casi essere soddisfatto. Dal momento, tuttavia, che come si ricorderà l’adozione del principio di verificazione è alla base dell’assegnazione di significato alle proposizioni in generale (e a quelle scientifiche in particolare), ne consegue che l’inapplicabilità del principio rischia di lasciare i fondamenti stessi della conoscenza scientifica in una totale instabilità semantica. La proposta alternativa di Popper all’induttivismo consiste allora nel concentrarsi non tanto sui processi di verificazione della conoscenza, quanto su quelli di falsificazione. Questa proposta, a prima vista bizzarra, si basa in realtà su una legge molto semplice della logica proposizionale nota come legge di contrapposizione (o, nella formula latina associata, modus tollens): secondo questa legge, assumendo una qualsiasi implicazione del tipo p o q e la negazione del conseguente di tale implicazione (ovvero non-q), è derivabile logicamente la negazione dell’antecedente (in questo caso, non-p). In altre parole, se è vera l’implicazione e falso il suo conseguente, allora è necessariamente falso anche il suo antecedente (in termini ancora equivalenti, non si può dare il caso che l’implicazione sia vera, il conseguente sia falso e l’antecedente sia vero). Un esempio intuitivo è il seguente: se è vero che “se c’è neve, allora gli impianti di risalita sono aperti”, e se “gli impianti di risalita non sono aperti”, allora è necessariamente vero che “non c’è neve”. Utilizziamo il modus tollens molto spesso nella nostra vita quotidiana. Qual è il collegamento tra esso e la tesi di Popper? Supponiamo che l’implicazione di partenza sia della forma T o q, dove T è una teoria scientifica e q è una conseguenza della teoria. Per esempio, supponiamo che T sia una teoria sul moto dei pianeti del sistema solare, e che q sia un enunciato che descrive la posizione che Marte dovrebbe assumere se fosse vera la teoria T. Ora, in base al modus tollens, se q è una conseguenza di T, e se q è falso – ovvero, se Marte non si trova in quella posizione – allora segue necessariamente la falsità di T. Al contrario, dalla verità di q non è affatto derivabile logicamente la verità di T! In termini più intuitivi, la falsità di una conseguenza
La nozione di teoria scientifica e la sua evoluzione
della teoria T sarà sufficiente (per ragioni di carattere logico) a falsificare T; non sarà invece possibile essere certi di aver verificato T in modo definitivo nemmeno dopo un milione di esempi positivi delle sue conseguenze. L’idea di falsificazione non possiede soltanto, secondo Popper, una giustificazione logica più solida di quella dell’induzione. Essa permette anche di ottenere un obiettivo che storicamente è sempre stato nelle prime posizioni nell’agenda del filosofo della scienza, ovvero quello di distinguere le teorie autenticamente scientifiche dalle teorie che magari hanno soltanto l’apparenza di scientificità (anche in questo caso, e per gli stessi motivi indicati sopra, l’obiettivo è irraggiungibile mediante un principio di verificazione). Secondo Popper, infatti, l’idea di falsificazione consente di formulare quello che risulta un principio di demarcazione tra teorie scientifiche e teorie che non possono meritarsi tale titolo: sono scientifiche soltanto le teorie che sono in grado di indicare, nel modo più preciso e rigoroso possibile, quale circostanza empirica potrebbe falsificarle. In un’ottica falsificazionista, in altri termini, una teoria si candida seriamente a diventare una teoria scientifica quando è falsificabile, quando cioè non soltanto formula una serie di congetture più o meno organizzate sulla struttura e le proprietà dei fenomeni, ma anche e soprattutto è in grado di indicare in quali casi un eventuale riscontro fattuale dovrebbe indurci ad abbandonare la teoria stessa. Se una teoria può essere sottoposta a prova, allora essa è certamente una teoria degna di considerazione, e sottoporla a nuovi controlli è sempre interessante, qualunque sia il risultato. Se i controlli portano al crollo della teoria, la cosa è comunque importantissima e di enorme significato, e, in un certo senso, potremo parlare di successo della teoria, anche se non del successo sperato. Insomma, se una teoria può essere confutata, allora è proprio la confutazione la cosa più importante: è senz'altro un fattore positivo l'aver ottenuto una nuova informazione che ci deriva dalla confutazione della teoria. Einstein affermò che esistevano severi controlli per la sua teoria, e più volte affermò che se tali controlli – che egli si augurava che venissero realizzati – avessero confutato la sua teoria, egli avrebbe accettato la confutazione. E questa è la cosa veramente molto importante. Chiunque propone una nuova teoria, dovrebbe specificare in quali circostanze egli ammetterebbe di venir sconfitto; o, meglio, dovrebbe specificare in quali circostanze la propria teoria crollerebbe. In tal modo, se la sua teoria resiste, egli ha fatto qualcosa di apprezzabile, proprio in quanto la sua teoria poteva venir confutata. [Popper 1989]
È importante sottolineare che questo principio popperiano di falsificabilità, a differenza del principio neoempirista di verificazione, non è un criterio di significato. Il principio popperiano infatti non divide il mondo delle espressioni logiche in espressioni dotate di significato ed espressioni che ne sono letteralmente prive (e che sarebbero, quindi, pure successioni di simboli semanticamente vuoti): esso divide il mondo delle teorie in teorie scientifiche (cioè falsificabili) e teorie non scientifiche (non falsificabili), senza negare la possibilità che esistano teorie che non sono scientifiche secondo il criterio di falsificabilità ma che potrebbero essere tranquillamente dotate di significato, sia pure non scientifico. Tra gli esempi preferiti di Popper di teorie non scientifiche ci sono esempi di teorie tratte dal dominio della psicologia e delle scienze sociali: pur dotate di un notevole potere di attrazione teorica, queste teorie non passerebbero il test di
57
58
La nozione di teoria scientifica e la sua evoluzione
scientificità secondo Popper proprio perché, nel loro caso, risulterebbe impossibile sia falsificarle sia utilizzarle come strumenti per formulare delle predizioni (compito, anche questo, tipico delle teorie scientifiche mature): la vaghezza intrinseca di queste teorie consentirebbe loro di poter sempre “aggiustare” i risultati di eventuali predizioni fallite, mettendole sistematicamente al riparo dalla possibilità di falsificazione definitiva18. Ma la prospettiva popperiana non contempla soltanto tesi critiche ma anche tesi “costruttive” e in particolare quello che egli stesso ha definito razionalismo critico. L’orizzonte teorico di questa forma di razionalismo è delineato in modo particolarmente interessante in uno dei più acuti testi di Popper, intitolato Tre differenti concezioni della conoscenza umana e pubblicato nel volume Congetture e confutazioni (l’edizione originale è del 1963). La posizione di Popper si iscrive in quella che egli definisce la concezione galileiana della scienza, l’idea cioè che la scienza abbia tra i suoi compiti fondamentali la ricerca di una descrizione (approssimativamente) vera del mondo naturale. La motivazione di una simile concezione non nasce certamente soltanto con Galileo: ci sono buone ragioni di credere che essa abbia a che fare con l’identità culturale stessa del pensiero scientifico-filosofico occidentale. Come scrive Popper in un passaggio appassionato del suo testo: Una delle componenti più importanti della civiltà occidentale è la cosiddetta «tradizione razionalistica», ereditata dai Greci. È la tradizione della discussione critica, non fine a se stessa ma volta alla ricerca della verità. La scienza greca, come pure la filosofia greca, era un prodotto di tale tradizione e del bisogno imperioso di comprendere il mondo in cui viviamo; e così la tradizione fondata da Galileo ne rappresentava il rinascimento. Nell'ambito di questa tradizione razionalistica la scienza è apprezzata, innegabilmente, per le sue conquiste pratiche; ma lo è ancora di più per il suo contenuto informativo, per la sua capacità di liberare la nostra mente dalle antiche credenze, dai pregiudizi e dalle certezze inveterate, e di offrirci invece nuove congetture e ipotesi ardite [Popper 1972, 176-77].
Le concezioni tra le quali si muove la discussione popperiana rappresentano una triade di cui quella effettivamente sostenuta da Popper (usiamo una delle definizioni ricorrenti, e cioè razionalismo critico) si distacca, per aspetti diversi, dalle altre due, definite essenzialismo e strumentalismo. Il primo si presenta come una versione per un lato estremistica e per un altro ingenua di quel realismo che appartiene alla dote della concezione galileiana della scienza. L’essenzialismo non aspira infatti soltanto a formulare una descrizione vera del mondo e delle sue leggi (aspirazione che Popper ritiene interamente corretta e plausibile); esso assume anche che la realizzazione di questa aspirazione consista nella scoperta di una sorta di “natura ultima” delle cose e che gli scienziati siano in grado di cogliere in linea di principio tale natura ultima. Naturalmente, una conseguenza logica di quest’ultima assunzione è che le spiegazioni dei fenomeni, se ritenute corrette (nel senso di aver reso conto delle “essenze” dei fenomeni stessi), non sono ulteriormente rivedibili. 18
Per alcuni esempi, cfr. Ladyman [2007, 87-9].
La nozione di teoria scientifica e la sua evoluzione
Se accettata, la dottrina essenzialista risulterebbe secondo Popper un ostacolo al progresso scientifico: chi fosse convinto che la sua teoria colga l’essenza “ultima” di una classe di fenomeni dovrebbe, a rigor di logica, opporsi attivamente a qualunque tentativo di considerare quella teoria soltanto come un modello provvisorio! Inoltre la presunta natura “ultima” di una certa classe di spiegazioni relative a un dominio di fenomeni renderebbe tali spiegazioni indipendenti dalla cornice teorica nella quale sono formulate: se una certa proprietà fosse davvero essenziale nel senso della dottrina essenzialista, questa sua natura non dovrebbe ovviamente dipendere dal fatto che si è utilizzata una teoria piuttosto che un’altra. Va tuttavia da sé che Popper non può sottoscrivere quel rovesciamento speculare dell’essenzialismo che è lo strumentalismo, vale a dire la dottrina che considera le teorie scientifiche come nient’altro che strumenti per “cucire” tra loro dati sperimentali individuali (cfr. la sezione 6.5, Vari tipi di anti-realismo). Come vedremo, l’orizzonte teorico dello strumentalismo è una rete di modelli il cui unico scopo è quello di organizzare i fenomeni osservabili, rinunciando in senso esplicito e programmatico a cercare la struttura “profonda” della realtà naturale di cui quei fenomeni osservabili sarebbero l’espressione superficiale. Ora, dal punto di vista popperiano, lo strumentalismo risulterebbe altrettanto oscurantistico dell’essenzialismo: se ciò che conta alla fine è “tenere insieme” i dati sperimentali e nient’altro, su quali ragioni profonde valuteremo i diversi modelli strumentalistici? Il controllo delle teorie diventa vacuo e per un filosofo così sensibile alla messa alla prova di un’ipotesi teorica come Popper questa conseguenza è totalmente inaccettabile. Dopo aver lavorato alle demolizione di essenzialismo e strumentalismo, Popper propone la sua terza via, una soluzione che ambisce a capitalizzare qualche virtù delle dottrine avversarie, collocandole però in una prospettiva congetturale e ipotetica che sarebbe certamente piaciuta ad Einstein (in una nota Popper dice esplicitamente di avere avuto l’intenzione di spedirgli una copia del lavoro non appena fosse pubblicato, un’intenzione purtroppo rimasta senza esito). Questa «terza concezione» non è, a mio avviso, sensazionale e neppure molto sorprendente. Essa fa tesoro della dottrina galileiana secondo cui lo scienziato persegue una descrizione vera del mondo, o di alcuni dei suoi aspetti, e un’effettiva spiegazione dei fatti osservabili; e combina inoltre questa dottrina con la concezione non galileiana secondo cui, benché tale resti lo scopo dello scienziato, egli non può mai sapere con certezza se quanto ha trovato è vero, anche se può talora stabilire con ragionevole certezza che una teoria è falsa [Popper 1972, 198].
Nella prospettiva popperiana la natura congetturale delle teorie può felicemente convivere con l’aspirazione a costruire descrizioni vere del mondo (cfr. la sezione 6.2, Breve intermezzo su convinzione, verità e giustificazione). Non abbiamo cioè garanzie granitiche che le reti che lanciamo sulla realtà (secondo la celebre immagine del poeta tedesco Novalis ripresa da Popper) trattengano qualcosa di solido quando le ritiriamo, ma dalla mancanza di garanzie non segue in alcun senso necessario che sia irrazionale credere alla possibilità che i nostri tentativi catturino effettivamente frammenti di realtà. «Sarebbe un grave errore concludere che l’incertezza di una teoria, cioè il
59
60
La nozione di teoria scientifica e la sua evoluzione
suo carattere ipotetico o congetturale, sminuisca in qualsiasi maniera la sua pretesa implicita di descrivere qualcosa di reale» [Popper 1972, 201]. Dopo aver esaminato alcuni importanti temi di riflessione fondazionale relativi alla struttura delle teorie scientifiche e alle dinamiche della loro formulazione – collegati a molte delle questioni epistemologiche e metodologiche di cui ci occuperemo nei prossimi capitoli – procediamo nell’analisi di una delle principali funzioni che le teorie svolgono nella nostra conoscenza della realtà: la formulazione di buone spiegazioni scientifiche.
La spiegazione scientifica
3.1 Previsione, controllo e spiegazione La ricerca scientifica, nei diversi campi disciplinari in cui si articola, è mossa da ambizioni di vario tipo. Sismologi, meteorologi e astronomi (per fare qualche esempio) sono spesso impegnati in attività almeno in parte predittive: essi cercano di elaborare strumenti teorici e basi empiriche per prevedere attività sismiche, condizioni atmosferiche, eclissi e fenomeni di alta marea. Il criterio di successo, in questi casi, è naturalmente legato al rapporto di maggiore o minore concordanza che sussiste tra le loro previsioni e la realtà dei fatti. In altri casi emergono finalità maggiormente legate al controllo di alcuni aspetti del reale. Tra gli scopi delle ricerche farmacologiche, per esempio, vi è quello di produrre farmaci che tengano sotto controllo i nostri meccanismi fisiologici assicurandone il buon funzionamento. Naturalmente esiste un legame stretto tra previsione e controllo. Per sviluppare un buon farmaco (che tenga efficacemente sotto controllo certi meccanismi fisiologici) è necessario impegnarsi in ripetuti cicli di previsione e valutazione empirica: si apporta una certa modifica alla composizione chimica del farmaco perché si prevede che quella modifica ne migliorerà l’efficacia, oppure perché si prevede che essa intaccherà in misura minore altri meccanismi fisiologici che non hanno nulla a che fare con la terapia; e così via. In altri casi riconosciamo nella ricerca scientifica finalità legate non solo al controllo e alla previsione, ma anche al desiderio di comprendere la natura degli eventi che accadono attorno a noi e dentro di noi. Alla comunità degli scienziati chiediamo spiegazioni che, spesso, sono motivate solo da quella che potremmo chiamare curiosità intellettuale nei confronti di aspetti della realtà che suscitano in noi stupore. Per esempio, perché i camaleonti talvolta cambiano colore? Ricevere una buona risposta a questa domanda non avrà, probabilmente, alcuna ricaduta tangibile nella vita di molti di noi. Anche comprendere la natura dei fenomeni meteorologici può non avere effetti sostanziali sulle nostre abitudini quotidiane: per decidere se partire o meno per una vacanza al mare ci basterà conoscere le previsioni del tempo, senza doverci impegnare nella comprensione profonda dei complessi meccanismi che ne determinano i cambiamenti. Occorre però notare come, in molti casi, non sia solo un sentimento di disinteressato stupore a sollevare richieste di spiegazione scientifica: il desiderio di comprendere certi aspetti del reale è spesso strettamente legato a finalità, per così dire, pratiche. Soprattutto in questi casi emergono importanti legami tra spiegazione, previsione e controllo – legami che hanno spesso attirato l’attenzione dei filosofi della scienza. Facciamo qualche esempio. Comprendere sempre più a fondo perché si producono
62
La spiegazione scientifica
i terremoti non basta, ma certo aiuta, a prevederne l’occorrenza, e certamente l’elaborazione di strumenti teorici per prevedere i terremoti ha notevoli ricadute di carattere pratico. E un medico deve comprendere a fondo la natura dei nostri malesseri fisici per elaborare appropriate strategie di controllo terapeutico. A più ampia scala, pensiamo alla misura in cui le nostre preferenze politiche (che esprimiamo all’atto del voto, dunque esercitando il nostro legittimo controllo sulla composizione del Parlamento) sono legate alle posizioni che i partiti in competizione assumono a proposito di quesiti scientifici di grande importanza, come quelli che riguardano l’interruzione di gravidanza, l’opportunità di interrompere l’alimentazione in casi di stato vegetativo permanente, oppure la costruzione di centrali nucleari. Non possiamo formarci un’opinione al proposito, dunque esercitare un responsabile controllo sull’assetto politico del nostro paese, senza cercare risposta alle questioni scientifiche che sottostanno a queste decisioni. E così via. Tra le ambizioni che motivano l’opera degli scienziati, quella che tende alla spiegazione degli eventi che accadono fuori e dentro di noi riveste una grande importanza di natura sia intellettuale che pratica. Ma quali caratteristiche deve esibire la risposta a una nostra domanda – per esempio «perché i camaleonti cambiano colore?» – per meritarsi il titolo di buona spiegazione?
3.2 Una domanda, molte risposte Potremmo essere istintivamente tentati di sminuire l’importanza di questa domanda – che da ora in poi chiameremo “il problema filosofico della spiegazione scientifica” – sulla base, magari, di una troppo semplicistica fiducia nelle parole prodotte da coloro che si fregiano del titolo di “scienziato”: potremmo cioè ritenere che non sia così interessante chiedersi in linea generale quali caratteristiche debba esibire una “buona spiegazione”, poiché qualunque risposta che riceveremo da un esperto nel settore sarà senza dubbio una buona spiegazione. Un bravo biologo, per esempio, fornirà senz’altro una buona spiegazione in risposta alla domanda “Perché i camaleonti cambiano colore?”. Facile rendersi conto che una posizione del genere, che taglia corto rispetto al problema filosofico della spiegazione, è troppo frettolosa. Al contrario, l’interesse di una riflessione sulla natura della conoscenza scientifica e sui criteri in base ai quali possiamo riconoscere le “buone spiegazioni scientifiche” può essere messo in evidenza dal fatto che, in risposta alla stessa richiesta esplicativa, esperti in materia talvolta forniscono risposte molto diverse tra di loro; risposte che differiscono non soltanto in termini di maggiore o minore precisione, o rispetto al numero di dettagli forniti sull’oggetto di studio, ma soprattutto rispetto al senso in cui esse ci forniscono basi per comprendere l’evento o gli eventi che costituivano l’oggetto della nostra domanda. Un semplice esempio, che prenderemo in esame senza lasciarci condizionare, per il momento, da particolari teorie filosofiche sulla spiegazione scientifica, ci aiuterà a sviluppare questo punto e a convincerci dell’importanza del problema filosofico che ci accingiamo a esplorare.
La spiegazione scientifica
In direzione diversa rispetto ad altri testi introduttivi sulla spiegazione scientifica, che fanno riferimento a esempi tratti dalla fisica, il nostro esempio verte su un quesito di carattere biologico. È noto che i camaleonti cambiano colore in risposta a condizioni fisiologiche e stimoli esterni di vario tipo, tra cui la vicinanza di un potenziale predatore o compagno. Si sa, inoltre, che le caratteristiche cromatiche della pelle del camaleonte cambiano selettivamente in risposta a certi tipi di predatori. Per esempio il camaleonte nano Bradypodion taeniabronchum assume colorazioni diverse in risposta alla vicinanza di serpenti e uccelli: in particolare, esso assume colori più simili allo sfondo quando il predatore è un uccello rispetto al caso in cui venga avvicinato da un serpente. Perché? Riassumiamo e numeriamo queste domande: 1. Perché i camaleonti cambiano colore ogniqualvolta un predatore si trova nelle vicinanze? 2. Perché il camaleonte nano Bradypodion taeniabronchum assume una colorazione più simile allo sfondo quando un uccello si trova nelle vicinanze rispetto al caso in cui il predatore sia un serpente? Come vedremo tra poco, a queste richieste di spiegazione è possibile fornire risposte molto differenti tra loro rispetto al senso in cui esse spiegano il fenomeno in questione. Prima di procedere è opportuno introdurre due termini appartenenti al gergo filosofico che ci saranno molto utili nelle pagine seguenti. I termini, di derivazione latina, sono explanandum (plurale explananda) ed explanans (plurale explanantia), solitamente impiegati nelle discussioni filosofiche sulla spiegazione scientifica per riferirsi rispettivamente alla descrizione di ciò su cui si richiede una spiegazione e all’insieme degli enunciati che riceviamo come risposta a tale domanda. Se chiediamo al nostro medico “Perché ho la febbre?”, l’explanandum in questione è “ho la febbre”, mentre l’explanans è l’insieme degli enunciati che il medico produrrà rispondendo. Una seconda precisazione, di carattere più sostanziale, è la seguente. È facile notare come gli explananda delle domande 1 e 2 vertano su relazioni regolari che intercorrono tra circostanze o eventi di un certo tipo (per esempio, la vicinanza di un predatore) e circostanze o eventi di un altro tipo (per esempio, il cambiamento di colore). In breve, diremo che queste domande esprimono richieste di spiegazione a proposito di insiemi di regolarità che riguardano la relazione tra i camaleonti e il loro ambiente. Non tutte le richieste di spiegazione mostrano queste caratteristiche. Talvolta desideriamo comprendere perché certi eventi singoli si sono prodotti: Perché questo camaleonte ha appena assunto una colorazione così simile allo sfondo? Perché il bicchiere che avevo messo sul tavolo adesso è a terra, ridotto in mille pezzi? Perché si è appena scatenato un temporale? Gli explananda, in questi casi, sono relativi a eventi singoli verificatisi in particolari circostanze. Tenendo in mente queste precisazioni preliminari, torniamo alle nostre domande – o meglio, passiamo all’esame di alcune possibili risposte.
63
64
La spiegazione scientifica
05
Spiegazioni di eventi singoli e spiegazioni di regolarità Questa distinzione è spesso tracciata nelle analisi filosofiche del problema della spiegazione scientifica. Alcuni modelli di spiegazione (come quello nomologicodeduttivo, che esamineremo più avanti) non prevedono differenze strutturali tra i casi in cui l’explanandum verta su una regolarità e i casi in cui esso verta su eventi singoli. Altri filosofi (per esempio Woodward 1984) hanno elaborato teorie sulle spiegazioni singolari. Non sono però frequenti i casi in cui lo scopo principale della formulazione di una spiegazione scientifica sia quello di rispondere a una domanda a proposito di un evento singolo: su questo si veda Alston (1971).
Spiegazione teleologica Perché i camaleonti cambiano colore ogniqualvolta un predatore si trova nelle vicinanze? La prima risposta che balza alla mente è quella che interpreta il comportamento dell’animale come un comportamento mimetico. Quindi, una possibile e del tutto sensata risposta alla domanda numero 1 è la seguente: «per mimetizzarsi e sfuggire a quel predatore». Tale risposta è soltanto un po’ più stringata di quella che troviamo in un articolo pubblicato su una rivista specialistica dedicata alla ricerca biologica ed etologica (il Biological Journal of the Linnean Society). Il cambiamento cromatico è un particolare tipo di risposta adattativa alla presenza di un predatore che, essendo difficile da quantificare, è stato studiato relativamente poco. Esso può tuttavia costituire un meccanismo di difesa particolarmente efficace – soprattutto per organismi dotati di ristrette capacità di locomozione – perché permette all’animale di modificare rapidamente il proprio aspetto in risposta al cambiamento delle condizioni ambientali. [Stuart-Fox et al. 2006, 437]
Il passo che abbiamo appena riportato è particolarmente convincente: esso mette infatti in evidenza come il cambiamento di colore non sia solamente uno tra i tanti espedienti che i camaleonti possono mettere in atto per sfuggire ai predatori, ma rappresenti una strategia particolarmente efficace data un’altra caratteristica dell’animale, ovvero la sua lentezza, che impedisce una fuga rapida dal pericolo incombente. Vediamo adesso una risposta alla seconda domanda che, come la precedente, è estratta da un articolo pubblicato su una rivista specialistica (in questo caso Biology Letters). Perché i camaleonti appartenenti alla specie Bradypodion taeniabronchum assumono una colorazione più simile allo sfondo quando un uccello si trova nelle vicinanze rispetto al caso in cui il predatore sia un serpente? La questione è ancora dibattuta, ma gli scienziati hanno alcune possibili spiegazioni in mente. Una di esse è espressa dagli autori nel modo seguente: dato che gli uccelli possiedono maggiori capacità di discriminazione dei colori, i camaleonti devono assumere colorazioni più simili allo sfondo per raggiungere un adeguato livello di mimetismo. [Stuart-Fox et al 2008, 327]
Anche questa risposta lega il cambiamento di colore del camaleonte al fine di sfuggire dai predatori, ma con un’ulteriore precisazione: la selettività del mutamento cromatico è in stretta relazione con le elevate capacità di discriminazione visiva del predatore. In base a
La spiegazione scientifica
questa proposta di spiegazione, l’assunzione di una colorazione così simile allo sfondo è particolarmente efficiente al fine di sfuggire agli uccelli, date le loro notevoli capacità di distinguere contrasti cromatici. I passi che abbiamo citato sono ovviamente solo frammenti o spunti di spiegazioni, che potrebbero essere resi più precisi e completi sotto vari aspetti. Tuttavia essi illustrano una particolare scelta esplicativa, in base alla quale “spiegare perché R ha luogo” (dove R sta per una qualsiasi regolarità) significa mettere in evidenza il fine che l’esibizione di R contribuisce a raggiungere. Chiamiamo questo uno stile esplicativo di carattere finalistico o teleologico (dal greco telos, “scopo”); entrambe le risposte, nonostante la loro vaghezza e incompletezza, sono possibili spiegazioni di carattere teleologico del cambiamento cromatico dei camaleonti. Proviamo ora a collegare queste riflessioni con il problema filosofico di cui ci stiamo occupando che, si ricorderà, può essere espresso nei seguenti termini: quali caratteristiche deve possedere una buona spiegazione scientifica? Le risposte che abbiamo esaminato presentano certe caratteristiche, per così dire, strutturali: esse, come abbiamo appena evidenziato, mettono in luce il fine della regolarità da spiegare. Generalizzando a partire dagli esempi considerati possiamo dunque formulare una prima, possibile risposta al nostro problema filosofico, in base al quale una buona spiegazione di una regolarità (ma lo stesso può dirsi anche di un evento singolo) dovrebbe mettere in luce il fine che quella regolarità contribuisce a raggiungere. Questa è una buona risposta al problema filosofico della spiegazione scientifica? Possiamo iniziare a farci qualche idea su questo problema di carattere molto generale tornando ai nostri esempi, e chiedendoci se le varie risposte esaminate possano essere qualificabili come buone spiegazioni del cambiamento cromatico dei camaleonti. Sapere che tale comportamento contribuisce al raggiungimento di uno scopo dell’animale (la difesa dai predatori) ci permette davvero di comprendere perché i camaleonti cambiano colore? Prima di rispondere diamo un rapido sguardo a una spiegazione strutturalmente diversa, rispetto a quella teleologica, delle sorprendenti capacità di mutamento cromatico dei camaleonti.
Spiegazione meccanicistica Perché i camaleonti cambiano colore ogniqualvolta un predatore si trova nelle vicinanze? Ecco una risposta sensibilmente diversa da quella che abbiamo appena analizzato; una risposta che gli autori del passo seguente considerano valida non solo per quanto riguarda i camaleonti, ma anche per quanto riguarda tutti gli animali a sangue freddo (detti, in gergo, poichilotermi) che sono in grado di cambiare colore. Il cambiamento di colore dei vertebrati poichilotermi è dovuto alla risposta dei cromatofori, localizzati nella pelle dell’animale, a stimoli nervosi o endocrini (o a stimoli di entrambi i tipi). [Taylor e Hadley 1970, 282]
65
66
La spiegazione scientifica
Abbiamo bisogno di qualche informazione in più per comprendere il senso di questo passo che, come quelli esaminati nella sezione precedente, presenta alcuni aspetti non chiari e omette alcuni dettagli importanti. Anzitutto, i cromatofori sono cellule che contengono pigmenti. A seguito di stimolazioni impartite dal sistema nervoso e/o dal sistema endocrino dell’animale si attiva un meccanismo che produce cambiamenti nel numero, nella qualità e nella concentrazione dei pigmenti all’interno di queste cellule; l’effetto macroscopico di questi cambiamenti è proprio il mutamento cromatico della pelle. Più in dettaglio, vi sono principalmente due differenti tipi di cambiamento di colore, che contribuiscono in modo diverso al mimetismo dell’animale: (i) mutazioni di colore morfologiche, legate al cambiamento nel numero e nella qualità delle celle che contengono pigmenti (cromatofori) nel derma dell’animale, che generalmente avvengono a scale temporali di qualche giorno o qualche mese, e (ii) mutazioni di colore fisiologiche, molto più rapide (da qualche millisecondo a qualche ora), dovute al movimento (dispersione o concentrazione) di granuli di pigmento all’interno dei cromatofori. […] I cambiamenti di colore fisiologici sono generalmente controllati da meccanismi neuromuscolari … o neuroendocrini, generando risposte rapide ai cambiamenti che hanno luogo entro il campo visivo dell’animale [Stuart-Fox e Moussalli 2009, 463].
Perché, dunque, i camaleonti cambiano colore in presenza di un predatore? Perché la presenza (o meglio, la vista) del predatore attiva particolari meccanismi fisiologici che agiscono sulla concentrazione dei pigmenti all’interno dei cromatofori, producendo a livello macroscopico il cambiamento di colore della pelle. Questi passi non ci forniscono conoscenze approfondite riguardo alla struttura dei meccanismi fisiologici che guidano i vari processi in gioco. Tuttavia, le scarne informazioni che abbiamo a disposizione ci permettono di affrontare la domanda che segue: la spiegazione (che etichettiamo come “meccanicistica”) tracciata, nelle sue linee essenziali, in questi passi è dello stesso tipo della spiegazione teleologica che abbiamo esaminato poche righe addietro?
Spiegazioni teleologiche e meccanicistiche a confronto Proviamo a rispondere a questa domanda confrontando gli aspetti essenziali delle due proposte di spiegazione. - Nel primo dei due casi – quello teleologico – la regolarità oggetto della richiesta di spiegazione viene messa in relazione con il raggiungimento di una certa condizione futura (salvarsi dai predatori, dunque sopravvivere). Capiamo che la capacità di cambiare colore è funzionalmente molto efficiente per raggiungere questo scopo, date le caratteristiche dell’animale e dei suoi predatori. L’animale è poco agile: dunque la capacità di mimetizzarsi cromaticamente è particolarmente efficace per la sua sopravvivenza. Inoltre la capacità di assumere una colorazione molto simile allo sfondo è particolarmente efficace se il predatore è un uccello, date le caratteristiche del suo sistema visivo (rispetto, per esempio, a quello dei serpenti). - Il secondo caso che abbiamo esaminato – la spiegazione meccanicistica – non fa riferimento ad alcuna condizione da raggiungere nel futuro, bensì al meccanismo preesistente (nell’animale adulto) che determina il regolare cambiamento di colore in risposta alla vista di un predatore.
La spiegazione scientifica
La distinzione che abbiamo appena tracciato ci fornisce qualche elemento per apprezzare l’importanza del problema filosofico della spiegazione scientifica. È infatti naturale chiedersi, data questa distinzione, quale dei due tipi di risposta ci permetta di comprendere effettivamente perché la regolarità in questione ha luogo. In altri termini, più vicini alla formulazione del problema filosofico della spiegazione che abbiamo enunciato nella sezione 3.1, è legittimo chiedersi quali caratteristiche debba possedere una buona spiegazione scientifica del cambiamento cromatico dei camaleonti: dovrà illustrare il fine più ampio a cui il cambiamento cromatico contribuisce (la fuga dai predatori) oppure dovrà delineare il meccanismo che produce quel cambiamento? Aspettiamo ancora a rispondere: abbiamo altre opzioni.
Spiegazioni evoluzionistiche Ricordiamo che il Bradypodion taeniabronchum assume una colorazione più simile allo sfondo quando un uccello si trova nelle vicinanze rispetto al caso in cui il predatore sia un serpente. Perché? La risposta che segue presenta caratteristiche peculiari rispetto ai due tipi di spiegazione che abbiamo finora introdotto. C’è una gran quantità di predatori volatili [nell’habitat dei camaleonti Bradypodion taeniabronchum], e ciò impone una maggior pressione selettiva rispetto alla capacità di mimetizzarsi. Per questo i camaleonti sono capaci di assumere colorazioni più simili allo sfondo in presenza di uccelli, nonostante non vi siano particolari differenze nelle risposte comportamentali ad altri tipi di predatori. [Stuart-Fox et al. 2008, 327]
Questa risposta, per quanto stringata, lascia intendere una ulteriore possibile spiegazione dell’elevata capacità mimetica che i membri della specie Bradypodion taeniabronchum manifestano in risposta a predatori volatili. La spiegazione in gioco fa riferimento alla storia evolutiva della specie e alla grande abbondanza di uccelli nell’habitat dei camaleonti. In particolare, il passo citato esprime la possibilità di considerare l’elevata selettività cromatica rispetto agli uccelli come un prodotto dei meccanismi di selezione naturale che, in presenza di una grande quantità di volatili, hanno affinato, nel corso della storia della specie, l’efficienza dell’apparato mimetico fino a renderlo (negli odierni esemplari di Bradypodion taeniabronchum) particolarmente efficiente proprio in risposta a quel tipo di predatori. Naturalmente questo è soltanto uno spunto, frettoloso e qualitativo, per una possibile spiegazione; tuttavia il passo citato ci fornisce qualche elemento per riflettere sulla possibilità di classificare questo tentativo di spiegazione in una delle due categorie discusse sopra (spiegazione teleologica e spiegazione meccanicistica). Questa risposta è classificabile in una di quelle categorie oppure rappresenta veramente un terzo tipo di spiegazione? Con un po’ di riflessione ci accorgeremo che vi è una differenza sostanziale tra questo esempio di spiegazione evoluzionistica e gli esempi di spiegazione teleologica e meccanicistica che abbiamo esaminato poche righe addietro. La differenza è legata non tanto allo stile della risposta quanto al tipo di domanda, o meglio, all’interpretazione che scegliamo di dare alla richiesta di spiegazione «Perché il camaleonte nano
67
68
La spiegazione scientifica
Bradypodion taeniabronchum assume una colorazione più simile allo sfondo quando un uccello si trova nelle vicinanze rispetto al caso in cui il predatore sia un serpente?». - Domanda sulla manifestazione di tratti o capacità. Nel caso teleologico e meccanicistico lo scopo era quello di spiegare perché i camaleonti adulti generano un certo tipo di cambiamento di colore in risposta a certe condizioni fisiologiche o interne. Si tratta dunque di spiegare la manifestazione di una certa capacità (cambiare colore, con un grado minore o maggiore di cromatismo, alla presenza di un predatore). - Domanda sul possesso di tratti o capacità. La spiegazione evoluzionistica, invece, risponde sì alla stessa domanda, ma interpretata in modo piuttosto differente. Non si chiede perché (in virtù di quale meccanismo o in vista di quale fine) i membri adulti di quella specie producano occasionalmente quel certo tipo di comportamento, bensì perché i membri di quella specie possiedano la capacità di produrre quel comportamento in risposta a quel tipo di stimoli. Si cerca di spiegare, dunque, non tanto la manifestazione di quella capacità, quanto il possesso – da parte dei membri attuali della specie Bradypodion taeniabronchum – dell’apparato mimetico che mette in grado i camaleonti di manifestare quel comportamento.
La domanda è la stessa: «Perché il camaleonte nano Bradypodion taeniabronchum assume una colorazione più simile allo sfondo quando un uccello si trova nelle vicinanze rispetto al caso in cui il predatore sia un serpente?». Ma essa può essere interpretata in due sensi. In una delle due interpretazioni ci si interroga sul funzionamento del meccanismo di mutamento cromatico del camaleonte, oppure sul fine più ampio in vista del quale tale meccanismo si attiva occasionalmente. In un’altra interpretazione – che assegna un significato un po’ diverso a quel “perché” iniziale – ci si interroga sui fattori che hanno portato i membri attuali della specie Bradypodion taeniabronchum a possedere un meccanismo mimetico così selettivo. Naturalmente a differenti interpretazioni della stessa domanda dovranno corrispondere risposte di tipo diverso. Se interpretata come una domanda sulla manifestazione della capacità di mutare colore, ci aspetteremo come risposta una descrizione del meccanismo che regola il cambiamento cromatico nel camaleonte nano o del fine per cui quel meccanismo si attiva. Se interpretata come una domanda sul possesso di tale capacità ci aspetteremo una risposta che verte sulla storia evolutiva della specie, che non illustra tanto (o esclusivamente) il funzionamento degli esemplari odierni di camaleonte nano, quanto piuttosto un resoconto dei fattori che hanno condotto i camaleonti odierni a possedere tale meccanismo. 06
Spiegazioni meccanicistiche e spiegazioni evoluzionistiche Ecco un altro esempio che aiuta a comprendere meglio questo punto: «Perché le falene si dirigono verso le fonti luminose?». Questa domanda può essere interpretata almeno in due modi profondamente diversi tra di loro. In un caso ci si chiede in virtù di quale meccanismo interno (che probabilmente coinvolgerà gli organi sensoriali, gli organi motori e il sistema nervoso dell’insetto), oppure in vista di quale fine, le falene sono capaci di dirigersi verso fonti luminose. Secondo un’altra interpretazione della stessa domanda, ci si chiede il motivo per cui gli esemplari odierni di falena sono giunti a possedere un meccanismo che funziona in quel modo, oppure che assicura il raggiungimento di quel fine. Le due domande vertono su explananda molto diversi tra di loro, e ovviamente diverso sarà il tipo di risposta attesa.
La spiegazione scientifica
Gli esempi che abbiamo esaminato sopra (quelli che abbiamo catalogato sotto l’etichetta “spiegazione meccanicistica” e “spiegazione teleologica”) erano allora esempi di possibili tipi di risposte alle domande sollevate sopra interpretate come domande sulla manifestazione della capacità di mutare colore. Focalizziamo ora la nostra attenzione sulla seconda interpretazione della domanda «Perché il camaleonte nano Bradypodion taeniabronchum assume una colorazione più simile allo sfondo quando un uccello si trova nelle vicinanze rispetto al caso in cui il predatore sia un serpente?». Anche sotto questa interpretazione (ovvero come domanda sul possesso delle capacità di mutamento cromatico) possiamo dare risposte di tipo teleologico e di tipo meccanicistico a tale domanda? La risposta è sì. Il quadro si arricchisce: la stessa domanda può essere interpretata in due modi diversi (come domanda sulla manifestazione o domanda sul possesso di certi tratti o capacità); per ogni interpretazione possiamo in linea di principio fornire risposte di tipo teleologico e di tipo meccanicistico. Vediamo in che senso. Abbiamo visto che le risposte ai quesiti 1 e 2, se interpretati come quesiti sul possesso della capacità di mutare colore, faranno presumibilmente riferimento alla storia evolutiva della specie che, di generazione in generazione, ha condotto i camaleonti odierni a possedere proprio quella particolare capacità. In particolare, il passo citato poco sopra spiega l’elevata selettività cromatica rispetto agli uccelli come un prodotto dei meccanismi di selezione naturale che, in presenza di una grande quantità di volatili, hanno affinato l’efficienza dell’apparato mimetico nel corso della storia della specie fino a renderlo, oggi, particolarmente efficiente proprio in risposta a quel tipo di predatori. È intuitivamente molto facile dare un senso teleologico a questo abbozzo di spiegazione. Basta assumere che tale processo evolutivo sia stato in qualche senso innescato e diretto, magari da un artefice divino o da una finalità intrinseca alla natura, in vista dell’affinamento dei meccanismi mimetici degli animali. Naturalmente una tale risposta evoluzionistica teleologica incorpora un certo tasso di antropomorfismo, o comunque si regge a sua volta sull’assunzione che vi sia qualcuno o qualcosa, magari di natura divina, che ha diretto, generazione dopo generazione, lo svolgimento del processo evolutivo verso tale fine. Uno dei grandi meriti dell’opera di Charles Darwin, e dei molti ricercatori che ne hanno raffinato ed elaborato le idee, è stato quello di schiudere la possibilità di fornire risposte non teleologiche ma meccanicistiche a domande come 1 e 2, interpretate come domande sul possesso di tratti e capacità. Il loro contributo è stato quello di descrivere una rete di meccanismi che regolano l’evoluzione delle specie e adatti a rispondere adeguatamente a molti quesiti sul possesso di certe capacità comportamentali o tratti morfologici, senza introdurre all’interno di tali spiegazioni alcun elemento di finalità o di creazione intelligente19. Il rapporto tra risposte di tipo teleologico e meccanicistico a questioni di tipo evoluzionistico è sotto alcuni aspetti simile a quello che intercorre tra le risposte di tipo teleologico e meccanicistico a questioni sulla manifestazione delle capacità 19 Non approfondiamo i contenuti della teoria dell’evoluzione naturale: tra i molti testi dedicati all’argomento rimandiamo il lettore interessato a Mayr [2002, 1999, 1994]. Un recente testo sui fondamenti epistemologici e metodologici della biologia, che affronta anche temi legati alla struttura delle spiegazioni scientifiche in questa area di ricerca, è Boniolo e Giaimo [2008].
69
70
La spiegazione scientifica
di cambiamento cromatico dei camaleonti. Così come è possibile identificare il meccanismo che regola certi processi nell’ambito di singoli esemplari di camaleonte senza necessariamente introdurre elementi di finalità, la teoria dell’evoluzione fornisce un quadro di riferimento per descrivere il meccanismo che ha regolato certi processi evolutivi nell’ambito della storia della specie senza necessariamente introdurre, anche in questo caso, alcun elemento intrinsecamente finalistico20. Naturalmente, occorre ripeterlo, nulla vieta in linea di principio di preferire un’impostazione teleologica che leghi l’aspetto attuale dei sistemi viventi a un atto di creazione divina. Non approfondiamo il dibattito, molto intenso anche ai nostri giorni, tra i sostenitori della teoria dell’evoluzione e i cosiddetti “creazionisti”21: il nostro scopo è stato quello di illustrare certe opzioni esplicative nel tentativo di convincere il lettore che quello di determinare le caratteristiche che contraddistinguono le buone spiegazioni scientifiche è un compito non banale. Nel corso di questo capitolo ci limiteremo a rilevare come le risposte di carattere teleologico (siano esse basate su finalità animali o divine) possono difficilmente essere considerate buone spiegazioni almeno rispetto ad alcune idee pre-teoriche, del tutto plausibili, sulla spiegazione scientifica.
Riepilogo Cosa impariamo da questo breve viaggio attraverso varie proposte di spiegazione delle capacità mimetiche dei camaleonti? Anzitutto, che la medesima domanda può essere interpretata in modi sostanzialmente diversi (che differiscono tra di loro rispetto a ciò che si chiede di spiegare), e che per ognuna di queste interpretazioni possiamo immaginare risposte strutturalmente differenti tra di loro. Abbiamo tralasciato alcune ulteriori opzioni, perché il nostro intento finora non è stato quello di fornire un quadro esaustivo dei possibili tipi di spiegazione bensì quello di introdurre il problema filosofico della spiegazione scientifica (che abbiamo qui sollevato in relazione a spiegazioni di carattere biologico, ma che può essere naturalmente riferito a qualsiasi ambito di ricerca scientifica). Se alla stessa domanda possiamo fornire risposte strutturalmente molto diverse tra di loro, è lecito chiedersi quali caratteristiche dovrebbe possedere una buona spiegazione: quelle finalistiche e meccanicistiche, illustrate dagli esempi che abbiamo discusso, ci permettono entrambe di comprendere adeguatamente il fenomeno a cui si riferisce la domanda? Per rispondere a questa domanda dobbiamo iniziare a chiarirci le idee su cosa intendiamo per “buona spiegazione”22. 20 Per una recente discussione filosofica sulle spiegazioni meccanicistiche di tipo evoluzionistico si veda Barros [2008]. 21 22
Rimandiamo il lettore interessato a Pievani [2006].
Per un quadro più dettagliato di alcuni possibili tipi di spiegazione scientifica si veda Nagel [1968, cap. 2], e Braithwaite [1953].
La spiegazione scientifica
3.3 Il problema filosofico della spiegazione scientifica Il problema filosofico della spiegazione scientifica può essere formulato come il problema di rimpiazzare la X dell’enunciato seguente con un insieme di criteri – non soggettivi e ragionevolmente precisi – che caratterizzino univocamente le buone spiegazioni: SNS : E è una buona spiegazione se e solo se X dove E sta per l’insieme costituito da un qualunque explanans e un qualunque explanandum. Se riuscissimo a completare l’enunciato SNS in modo soddisfacente (risolvendo dunque il problema filosofico della spiegazione nel senso appena precisato) avremmo un potente strumento per valutare la bontà di qualsiasi proposta di spiegazione scientifica: potremmo per esempio utilizzarlo per valutare quale, o quali, tra i tentativi di spiegazione che abbiamo esaminato nel paragrafo precedente rispondano in modo soddisfacente alle domande 1 e 2, o potremmo comunque immaginare come tali abbozzi di spiegazione dovrebbero essere completati e rifiniti per adempiere propriamente al loro scopo. Formulato in questo modo, il problema è particolarmente impegnativo: X dovrà essere sostituito con un insieme di condizioni necessarie e sufficienti perché una qualsiasi spiegazione E sia soddisfacente (il pedice “NS” nell’etichetta SNS indica proprio questo). In altre parole, X dovrà essere tale che tutte e solo le buone spiegazioni soddisfano X. 07
Condizioni necessarie e condizioni sufficienti La distinzione tra condizioni necessarie e sufficienti può essere illustrata da questo semplice esempio. Prendere un voto maggiore di 23 a un esame è condizione sufficiente per passare quell’esame: tutti coloro che prendono un voto maggiore di 23 hanno superato l’esame. Ma non è una condizione necessaria: non è necessario prendere più di 23 per superare l’esame, dal momento che anche un voto tra 18 e 23 sarà utile allo scopo. Adesso vediamo un esempio complementare. Essere iscritto all’università è condizione necessaria per passare l’esame di Filosofia della Scienza: tutti coloro che passano quell’esame sono iscritti all’università. Ma, certo, essere iscritto all’università non è sufficiente per passare l’esame di Filosofia della Scienza. Possiamo fare un piccolo passo verso una maggiore generalità. Sostenere che C (esempio: essere iscritto all’università) è una condizione necessaria per E (esempio: passare l’esame) equivale a sostenere che in tutti i casi in cui E è vero, anche C è vero (esempio: se ho passato l’esame, allora sono iscritto all’università). Sostenere che C (esempio: prendere più di 23) è una condizione sufficiente per E (esempio: passare l’esame) equivale a sostenere che in tutti i casi in cui C è vero, anche E è vero (esempio: se ho preso più di 23, allora ho passato l’esame). Si confrontino le frasi in corsivo per apprezzare la differenza tra condizioni necessarie e sufficienti. Ovviamente esistono anche condizioni che sono assieme necessarie e sufficienti per la verità di un’affermazione. Sostenere che C è condizione necessaria e sufficiente per la verità di E equivale a congiungere le due definizioni appena proposte: equivale cioè a sostenere che in tutti i casi in cui C è vero anche E è vero, e che in tutti i casi in cui E è vero anche C è vero. Prendere un voto maggiore di 18 (C) è condizione assieme necessaria e sufficiente per passare un certo esame (E). Ovvero: tutti coloro che prendono più di 18 passano l’esame, e tutti coloro che passano l’esame hanno preso più di 18.
71
72
La spiegazione scientifica
Un problema filosofico leggermente meno ambizioso è quello di identificare condizioni necessarie perché E possa essere qualificata come buona spiegazione. SN : E è una buona spiegazione solo se X L’enunciato SN è molto diverso da SNS: in questo caso il problema è quello di identificare un insieme di condizioni soddisfatte da ogni buona spiegazione scientifica, dunque, appunto un insieme di condizioni necessarie perché si dia una buona spiegazione. Ma non si pretende che X sia soddisfatta solo dalle buone spiegazioni scientifiche, ovvero che soddisfare X sia per sé sufficiente per qualificare una spiegazione scientifica come adeguata. Il problema di identificare un insieme di condizioni sufficienti perché E sia una buona spiegazione può essere formulato come il problema di completare il seguente enunciato: SS : E è una buona spiegazione se X in cui la lettera “S” nel pedice dell’etichetta sta, naturalmente, per “sufficiente”. Nelle pagine che seguono valuteremo una teoria filosofica sulla spiegazione scientifica e ci chiederemo se essa fornisca condizioni necessarie e sufficienti (SNS), oppure necessarie (SN), o sufficienti (SS) per qualificare una spiegazione come adeguata. Ma come possiamo capire se una certa proposta di soluzione al problema filosofico della spiegazione (ovvero, un possibile insieme di condizioni da sostituire alla X in uno dei tre enunciati) ha colto nel segno? Valutare la bontà di una teoria sulla spiegazione scientifica non è impresa semplice: i tre problemi che abbiamo introdotto sono infatti, per loro natura, scivolosi. Completare gli enunciati SNS, SN e SS significa dare una veste precisa al concetto di “buona spiegazione”. Molti di noi hanno una qualche idea sulle caratteristiche che le spiegazioni scientifiche dovrebbero possedere, oppure, se non altro, una qualche forma di “sesto senso” che ci porta talvolta ad affermare, di fronte a una spiegazione ricevuta, “ecco, ora ho veramente capito!”. Ma l’idea che ci aiuta a discriminare tra spiegazioni convincenti e spiegazioni non convincenti è intuitiva, vaga e dai contorni sfumati: il nostro problema filosofico è proprio quello di chiarire questi contorni. Ecco dunque l’intrinseca difficoltà di tale problema. Supponiamo di identificare un insieme di condizioni da sostituire alla X in uno dei tre enunciati, e di voler valutare se essi ci aiutano o meno a precisare l’idea intuitiva di “buona spiegazione”. Proprio per il carattere intuitivo di tale idea, non è chiaro in che modo decidere se X ne colga appieno le caratteristiche! In genere, l’adeguatezza di particolari proposte di soluzione al problema della spiegazione (così come di altri problemi filosofici che richiedono l’identificazione di condizioni necessarie e sufficienti per la verità di certe asserzioni) viene valutata sulla base del confronto con specifici esempi.
La spiegazione scientifica
- Come confutare una tesi del tipo SN , ovvero una tesi che esprime un insieme di condizioni X ritenute necessarie perché una qualsiasi spiegazione sia soddisfacente? Identificando casi di buone spiegazioni che non soddisfano le condizioni X. Tali casi contraddicono la tesi SN , perché suggeriscono che le condizioni X non sono effettivamente necessarie perché la spiegazione sia soddisfacente. La tesi SN in questione sarà invece corroborata da casi di buone spiegazioni che soddisfano le condizioni X. - Come confutare una tesi del tipo SS , ovvero una tesi che esprime un insieme di condizioni sufficienti? Identificando casi di explanantia che soddisfano X ma che non possono essere ritenute buone spiegazioni (permettendo dunque di concludere che il possesso di X non è sufficiente perché la spiegazione sia soddisfacente). La tesi SS in questione sarà invece corroborata da casi di explanantia che soddisfano X e che possono essere ritenute buone spiegazioni. - Naturalmente, una tesi del tipo SNS viene confutata identificando casi di buone spiegazioni che non soddisfano le condizioni X (le condizioni X non sono necessarie) oppure casi di explanantia che soddisfano X ma che non possono essere ritenute buone spiegazioni (dunque le condizioni X non sono sufficienti). Metteremo in atto alcune di queste strategie valutative nella sezione 3.6 (Il modello ND e il problema filosofico della spiegazione scientifica), esaminando una particolare teoria sulla spiegazione scientifica. Naturalmente tali strategie soffrono di un limite intrinseco. Supponiamo – tanto per fare un esempio – di voler confutare una tesi del tipo SN identificando una spiegazione E1 che è evidentemente soddisfacente, ma che non possiede quei requisiti necessari. Con un po’ di riflessione ci renderemo conto che la confutazione avrà successo nella misura in cui E1 è evidentemente soddisfacente. Ma proprio l’ambiguità e la vaghezza dell’idea di “spiegazione soddisfacente”, che il problema della spiegazione ci chiede di precisare, indebolisce la portata della confutazione: altri potrebbero obiettare, sulla base di qualche ragionamento ulteriore, che E1 dopo tutto non è effettivamente una buona spiegazione, e che dunque non costituisce un buon controesempio della tesi SN . Nella sezione 3.6 incontreremo un esempio di circostanze di questo tipo, che spesso rendono la valutazione delle teorie filosofiche sulla spiegazione terreno di vivaci dibattiti. Iniziamo adesso a delineare progressivamente i contorni della nozione di “spiegazione scientifica” elaborando alcuni possibili modi di completare l’enunciato SN . Ecco due possibili strade da seguire, che fanno capo al rapporto, nel primo caso, tra spiegazione e causalità e, nel secondo caso, tra spiegazione e previsione.
73
74
La spiegazione scientifica
3.4 Due idee sulla spiegazione scientifica: causalità e previsione Spiegazione e causalità Cosa significa “spiegare”? In base a un’idea del tutto intuitiva e condivisibile, e ben radicata nel nostro linguaggio quotidiano, spiegare un fenomeno significa esibirne propriamente le cause: un buon explanans dovrebbe dunque esprimere le cause del fenomeno descritto nell’explanandum. Fissiamo questa idea23 completando l’enunciato SN nel seguente modo (in cui il riferimento alle cause del fenomeno da spiegare figura come condizione necessaria perché la spiegazione sia adeguata). SN1: E è una buona spiegazione solo se l’explanans esprime le cause del fenomeno descritto nell’explanandum. L’idea espressa da SN1 è a prima vista molto sensata. Nei colloqui con il nostro medico tendiamo a ritenerci soddisfatti della spiegazione ricevuta a proposito di un nostro malessere fisico nel momento in cui riteniamo di essere stati informati sulle cause di quel malessere. Perché quel bicchiere, che prima sapevamo essere sul tavolo, è ora ridotto in mille pezzi sparsi per terra? Spieghiamo questo evento affermando che la caduta del bicchiere è stata causata dal fatto che abbiamo appena urtato il gambo del tavolo. Analogamente, crediamo di aver raggiunto una comprensione profonda di certi eventi di carattere sociale, politico o economico nel momento in cui crediamo di averne apprese le cause, siano esse manifeste o sotterranee. Che spiegare un fenomeno consista nell’identificarne ed esprimerne le cause può sembrare a molti un’ovvietà. Come vedremo, questa idea a prima vista così banale solleva problemi non secondari, attorno a cui si svolge da lungo tempo un’ampia discussione filosofica; ma prima di entrare in questo intricato territorio è il caso di notare come questa apparente ovvietà ci permette di mettere un po’ di ordine tra gli esempi che abbiamo discusso sopra. Se la spiegazione di un fenomeno è così intimamente legata alla ricerca delle sue cause, allora le risposte di tipo teleologico possono difficilmente costituire buone spiegazioni del fenomeno in esame, al contrario di quelle meccanicistiche. Molti di noi, infatti, affermerebbero senza difficoltà che le spiegazioni di tipo meccanicistico del mimetismo del camaleonte che abbiamo esaminato nelle pagine precedenti possono essere orientate, almeno in linea di principio, in direzione causale. L’abbozzo di spiegazione meccanicistica della manifestazione della capacità mimetica mette infatti in evidenza il meccanismo attraverso cui la vista del predatore causa il cambiamento macroscopico di colore della pelle: la stimolazione degli organi di senso del camaleonte causa l’innesco di certi processi fisiologici che, a un 23
La connessione tra spiegazione e causalità è approfondita in Laudisa [2010b, sezione 2.1].
La spiegazione scientifica
certo punto, causano variazioni nella concentrazione dei pigmenti all’interno dei cromatofori; questo cambiamento a sua volta causa il cambiamento di colore della pelle. Naturalmente questo tentativo di spiegazione è assai lacunoso, e per soddisfarci appieno dovrebbe essere senz’altro rifinito e precisato con maggiori dettagli sui vari passi del meccanismo coinvolto. Ciò non toglie plausibilità all’idea secondo cui un’impostazione esplicativa di questo tipo è orientata verso l’identificazione delle varie relazioni causali che presiedono al funzionamento di tale meccanismo. Anche l’abbozzo di spiegazione meccanicistica del processo evolutivo che ha condotto all’elevata selettività dei camaleonti Bradypodion taeniabronchum rispetto al tipo di predatori si presta a un’analisi di questo tipo, dato che la grande quantità di uccelli nell’habitat di tali camaleonti è presentata come un fattore causale rispetto alla selezione, durante il lungo cammino dell’evoluzione della specie, di individui che possedessero un apparato mimetico così specializzato. Le spiegazioni teleologiche, invece, non sembrano passare questo test: il cambiamento di colore non può ovviamente dirsi causato dal fine di sopravvivere ai predatori. Il motivo è molto semplice: la condizione di sopravvivenza rispetto a un predatore (per esempio, a un uccello che si avvicina a un camaleonte) si verifica dopo il cambiamento di colore da parte dell’animale, non potendone dunque in alcun modo costituirne la causa. Piuttosto è il cambiamento di colore che, in qualche senso, causa la sopravvivenza del camaleonte ai predatori. Essendo temporalmente posteriore, ciò che quella risposta presenta come elemento esplicativamente rilevante (la sopravvivenza ai predatori) non sembra poter essere considerato un fattore causale rispetto al fenomeno da spiegare, in base a un’idea intuitivamente condivisibile di “causa”. Simili considerazioni anche per le spiegazioni che fanno riferimento a un processo evolutivo “guidato” verso il raggiungimento di un qualche fine (per esempio, la comparsa di camaleonti molto adatti a sopravvivere nel proprio ambiente). Tralasciando i problemi ontologici legati alla natura dell’ente che ha “guidato” il processo evolutivo, l’eventuale fine verso il quale quel processo è stato orientato non può naturalmente essere considerato tra le cause della comparsa di camaleonti dotati di tali caratteristiche, poiché il raggiungimento di quel fine non può essere ragionevolmente considerato anteriore alla comparsa della specie. Riepilogando, il criterio in base al quale le buone spiegazioni scientifiche illustrano le cause del fenomeno da spiegare assegna qualche punto di favore alle spiegazioni meccanicistiche e “squalifica” quelle teleologiche. Abbiamo compiuto un reale passo in avanti nella comprensione della nozione intuitiva di “spiegazione scientifica” e della soluzione al problema filosofico che stiamo esaminando, o quantomeno abbiamo buone ragioni per ritenere di essere nella direzione giusta? Torniamo di nuovo all’enunciato SN1: SN1: E è una buona spiegazione solo se l’explanans esprime le cause del fenomeno descritto nell’explanandum.
75
76
La spiegazione scientifica
08
Finalità e spiegazione teleologica È stata spesso presa in considerazione la possibilità di riformulare le spiegazioni teleologiche in modo da non fare riferimento essenziale ad alcun tipo di finalità. Un modo piuttosto intuitivo, ma dalle implicazioni decisamente problematiche almeno in riferimento agli esempi che stiamo discutendo, è quello di riformulare le spiegazioni teleologiche presupponendo che chi guida il comportamento del sistema o il processo evolutivo verso un certo fine sia un essere cosciente provvisto del desiderio di raggiungere quel fine; tale desiderio, essendo antecedente rispetto al conseguimento del fine, potrebbe essere considerato come fattore causale rispetto al comportamento da spiegare. Per esempio, assumendo che il camaleonte cambi colore perché desidera sopravvivere, potremmo spiegarne il comportamento facendo riferimento non tanto alla sopravvivenza stessa (condizione che si realizza, eventualmente, dopo il cambiamento di colore) bensì al suo antecedente desiderio di sopravvivere. Lo stesso dicasi per le spiegazioni evoluzionistiche teleologiche: si tratterebbe di presupporre che l’ente che ha guidato il processo evolutivo desiderasse giungere alla comparsa di camaleonti così adattati alla propria nicchia ecologica prima che tale processo venisse innescato o conducesse al risultato che sappiamo. Il problema sollevato da una mossa di questo tipo è ovviamente quello di giustificare l’attribuzione di desideri e intenzioni ai camaleonti e all’ente che ha diretto il processo evolutivo. Un utile riferimento per approfondire questi problemi è Wright [1976]. Un altro importante punto di riferimento è la proposta, avanzata dai pionieri del movimento cibernetico Arturo Rosenblueth, Norbert Wiener e Julian Bigelow, di spiegare una grande varietà di comportamenti animali rivolti a uno scopo sulla base di meccanismi detti “a retroazione negativa” che non incorporano alcun tipo di processo intenzionale. A questo proposito si veda Rosenblueth et al. [1943] e Tamburrini [2002]. Si vedano anche il capitolo The Logic of Functional Analysis in Hempel [1965], e Cummins [1975] sulla relazione tra spiegazioni teleologico-funzionali e il modello nomologico-deduttivo, di cui ci occuperemo nella sezione 3.5.
Purtroppo il tentativo di chiarire la nozione intuitiva di “spiegazione” ci ha portato di fronte a un’altra nozione problematica: quella di “relazione causale”, che gioca un ruolo essenziale in questa proposta di completamento dell’enunciato SN . Attorno a questa nozione si sono sviluppate innumerevoli discussioni filosofiche che hanno condotto, fino a ora, a una pluralità di posizioni spesso molto divergenti tra loro. Non è affatto chiaro cosa contraddistingua le relazioni causali da semplici successioni temporali di eventi. Non approfondiamo qui la questione, a cui è dedicato il capitolo 5.2 (Causalità), se non per chiarire la natura del problema riferendoci all’esempio del barometro e della tempesta, ormai diventato protagonista in molte discussioni filosofiche sulla natura della causalità e della spiegazione scientifica. Lo scenario è molto semplice: ipotizziamo che ogni volta che la pressione atmosferica scende sotto una certa soglia si scateni una tempesta (in realtà le cose non stanno proprio così: lo scatenarsi della tempesta dipende sì dall’abbassamento della pressione, ma anche da un gran numero di condizioni al contorno che trascuriamo per semplicità, senza che ciò tolga interesse e significato all’esempio). Immaginiamo anche di disporre di un barometro, la cui lancetta indica il valore corrente della pressione atmosferica. In questo scenario idealizzato, noteremo (a) una correlazione stretta tra l’abbassarsi della lancetta del barometro e l’insorgenza della tempesta, e anche (b) una correlazione
La spiegazione scientifica
stretta tra l’abbassarsi della pressione atmosferica e l’insorgenza della tempesta. Quale di queste correlazioni esprime una relazione causale? Guidati dal nostro intuito non avremmo dubbi a scegliere la correlazione (b), che lega pressione atmosferica e insorgenza della tempesta, e ad affermare che la relazione (a) tra lancetta e tempesta è in realtà dovuta al fatto che entrambi i termini sono effetti del medesimo fattore causale (ovvero: l’abbassamento della lancetta del barometro e l’insorgenza della tempesta sono correlati in virtù del fatto che entrambi sono effetti dell’abbassarsi della pressione atmosferica). La questione può sembrare ovvia, ma non lo è! Le riflessioni filosofiche sulla natura della causalità hanno infatti messo in evidenza le enormi difficoltà che incontra il proposito di definire criteri non circolari (cioè, che non facciano essi stessi riferimento alla nozione di causalità) per discriminare generalizzazioni che diremmo causali (come la seconda) da generalizzazioni che invece qualificheremmo come non causali (come la prima). Alla luce di queste difficoltà, non è affatto banale il compito di giustificare su basi razionali la nostra intuitiva convinzione rispetto al fatto che la generalizzazione (b), e non la (a), esprima una relazione causale. Rimandiamo al capitolo 5 una discussione più approfondita sulla natura della causalità. Per il momento ci interessa solo rilevare l’impatto che le difficoltà appena introdotte hanno sulla tesi che stiamo discutendo – quella secondo cui spiegare un fenomeno consiste nell’esibirne le cause. Questa tesi, come abbiamo rilevato, sembra un’ovvietà; ma la mancanza di una caratterizzazione precisa della nozione di “relazione causale” costituisce un ostacolo particolarmente gravoso al compito di chiarire i contorni della nozione di “spiegazione” così intesa. Più concretamente, la straordinaria difficoltà di identificare criteri non circolari per distinguere relazioni causali da relazioni non causali mina alla base l’identificazione di criteri che ci permettano di riconoscere le “buone spiegazioni” – nell’ipotesi, appunto, che spiegazione e causalità siano intimamente connessi. Per esempio (tornando al caso del camaleonte) abbiamo rilevato come l’intuizione ci suggerisca di considerare l’abbozzo di spiegazione meccanicistica come un caso di spiegazione causale, poiché essa identifica un meccanismo di relazioni causali che hanno luogo nel sistema nervoso ed endocrino dell’animale (tra cui quelle che legano certi tipi di attività neurale con il cambiamento di concentrazione dei pigmenti nei cromatofori). Ma come possiamo essere sicuri che quelle relazioni siano effettivamente causali e non siano per esempio, come nel caso (a) appena discusso, regolarità che si ottengono in virtù del fatto che entrambi i termini sono effetto di un comune fattore causale oppure, ancor più semplicemente, semplici coincidenze? I filosofi della scienza sono impegnati da secoli nella ricerca di criteri che permettano di valutare queste possibilità, quindi di decidere se una certa descrizione di meccanismo sia effettivamente descritta in termini di relazioni causali; quindi, infine, di decidere se una certa spiegazione meccanicistica possa legittimamente fregiarsi del titolo di “buona spiegazione”, nell’accezione causale di questa nozione.
77
78
La spiegazione scientifica
Spiegazione e previsione La tesi che abbiamo finora discusso stabiliva un legame stretto tra spiegazione e causalità. Qui di seguito esamineremo un altro tentativo di precisare i contorni della nozione di “spiegazione scientifica” che muove in una direzione diversa, e che ha svolto un ruolo da protagonista nella riflessione filosofica novecentesca sul problema di cui ci stiamo occupando. L’idea che stiamo per discutere è stata espressa da Hempel e Oppheneim [1948] nei termini seguenti: si può dire […] che una spiegazione non è pienamente adeguata se il suo explanans, qualora fosse stato preso in considerazione al tempo dovuto, non avesse permesso di prevedere il fenomeno in considerazione. [Hempel e Oppenheim 1948, 138]
La tesi espressa in questo passo stabilisce un forte legame tra spiegazione e previsione senza fare alcun riferimento esplicito alla causalità. Come quella esaminata nelle righe precedenti, si tratta di un’idea intuitivamente molto appetibile: quando abbiamo la sensazione di avere veramente compreso perché si è verificato un certo fenomeno abbiamo spesso anche la sensazione che, sulla base delle informazioni ricevute da chi ci ha fornito la spiegazione, lo avremmo potuto prevedere. SN2: E è una buona spiegazione solo se l’explanans, se preso in considerazione a tempo debito, avesse permesso di prevedere il fenomeno descritto nell’explanandum. Facciamo un esempio. Perché questo calcolatore portatile si è improvvisamente spento? L’explanandum è il seguente: (explanandum) Questo calcolatore portatile si è spento. Dopo alcune ricerche formuliamo un explanans costituito dalle seguenti affermazioni. 1. Ogniqualvolta il carico elettrico supera i 3500 W, l’interruttore magnetotermico installato nell’appartamento si attiva; 2. Ogniqualvolta l’interruttore magnetotermico si attiva, esso interrompe il flusso di corrente elettrica nell’appartamento; 3. Nell’appartamento sono accesi contemporaneamente il forno elettrico, la lavatrice e la lavastoviglie, per un carico complessivo che supera i 3500 W; 4. Il calcolatore portatile è direttamente collegato alla rete elettrica dell’appartamento; 5. Il calcolatore portatile non ha una batteria;
La spiegazione scientifica
6. Se il calcolatore portatile non ha batteria, è collegato alla rete elettrica dell’appartamento, e il flusso di corrente dell’appartamento si interrompe, il calcolatore portatile si spegne. In breve, questa spiegazione collega lo spegnimento del calcolatore (l’evento da spiegare) a un sovraccarico nell’alimentazione dovuto all’uso contemporaneo di più elettrodomestici: una circostanza piuttosto familiare. Riflettendo su questo esempio ci convinceremo facilmente che, se avessimo avuto queste informazioni a tempo debito, saremmo stati evidentemente in grado di prevedere lo spegnimento del calcolatore: in base alla tesi che abbiamo appena enunciato, questo insieme di informazioni possiede dunque un requisito essenziale per costituire una spiegazione adeguata dell’evento in esame. Mettiamo alla prova questa idea immaginando un explanans un po’ più stringato di quello appena proposto, in cui, per esempio, non si fa menzione del fatto che il calcolatore fosse direttamente connesso alla rete elettrica in assenza di batteria (enunciato 5). Tale explanans sarebbe dunque costituito dalle seguenti affermazioni: 1. Ogniqualvolta il carico elettrico supera i 3500 W, l’interruttore magnetotermico installato nell’appartamento si attiva; 2. Ogniqualvolta l’interruttore magnetotermico si attiva, esso interrompe il flusso di corrente elettrica nell’appartamento; 3. Nell’appartamento sono accesi contemporaneamente il forno elettrico, la lavatrice e la lavastoviglie, per un carico complessivo che supera i 3500 W; 4. Il calcolatore portatile è direttamente collegato alla rete elettrica dell’appartamento; 6. Se il calcolatore portatile non ha batteria, è collegato alla rete elettrica dell’appartamento, e il flusso di corrente dell’appartamento si interrompe, il calcolatore portatile si spegne. Tale explanans, se considerato a tempo debito, ci avrebbe messo o meno nella condizione di prevedere lo spegnimento del calcolatore? Certamente no: l’informazione relativa all’assenza della batteria è di fondamentale importanza per prevedere lo spegnimento del calcolatore. Le affermazioni appena menzionate ci permettono infatti di prevedere l’arresto del sistema elettrico dell’appartamento a causa di un sovraccarico, ma non lo spegnimento del calcolatore: se infatti la batteria fosse stata inserita e parzialmente carica – ma questo explanans non ci fornisce alcuna informazione al proposito – il calcolatore non si sarebbe spento all’arresto del sistema elettrico dell’appartamento, ma avrebbe continuato a funzionare traendo energia elettrica dalla batteria. Se dunque non avessimo avuto alcuna informazione a proposito della presenza o meno della batteria, non avremmo nemmeno avuto solide basi per formulare alcuna previsione per quanto riguarda lo spegnimento dell’apparecchio.
79
80
La spiegazione scientifica
Questo limite predittivo avrebbe comportato un limite esplicativo? L’impossibilità di prevedere lo spegnimento del calcolatore avrebbe cioè reso insoddisfacente la spiegazione ricevuta? Sembra del tutto ragionevole rispondere di sì: in mancanza di questa informazione, la spiegazione ricevuta appare quantomeno lacunosa. Qualsiasi utente di un calcolatore portatile è pienamente cosciente del fatto che il proprio sistema è generalmente provvisto di una batteria, in grado di assicurare il suo funzionamento anche in assenza di alimentazione elettrica per un certo periodo di tempo. Sapere se la batteria fosse effettivamente collegata al sistema o meno è di importanza cruciale per collegare l’arresto dell’alimentazione elettrica dell’appartamento allo spegnimento del calcolatore – in breve, per spiegare perché si è verificato quest’ultimo evento. «L’avrei potuto prevedere!» è un’esclamazione che spesso proferiamo o pensiamo quando riteniamo di aver compreso davvero perché si sia verificato un certo evento o perché certi eventi siano regolarmente correlati. L’idea espressa dal passo di Hempel e Oppenheim che abbiamo citato è intuitivamente molto plausibile e, per questo motivo, è stata e continua a costituire un punto di riferimento molto importante nelle discussioni filosofiche sulla spiegazione scientifica. È opportuno, anche in questo caso, tenere bene a mente il fatto che SN2 esprime una condizione necessaria, ma non sufficiente, perché un certo resoconto possa qualificarsi come una spiegazione scientifica (non si afferma cioè che la prevedibilità dell’explanandum sulla base dell’explanans sia anche, da sola, sufficiente perché si dia una buona spiegazione)24. Inoltre è utile rendersi conto che l’idea di spiegazione che stiamo qui discutendo non coincide con quella esaminata precedentemente, in base alla quale spiegare un fenomeno consiste nell’identificare le cause del fenomeno. Perché? Anzitutto, non sempre conoscere le cause di un fenomeno ci permette di affermare che l’avremmo potuto prevedere. Sapere che la caduta di un bicchiere dal tavolo è stata causata dall’urto del mio ginocchio contro il gambo del tavolo non ci permette di affermare che avremmo potuto prevedere la caduta del bicchiere sulla base dell’urto contro il tavolo (magari il bicchiere era troppo pesante per arrivare al bordo del tavolo, oppure era circondato da ostacoli che ne avrebbero impedito la caduta, o altro ancora). Viceversa, non sempre affermare che avremmo potuto prevedere un certo fenomeno significa che ne conosciamo le cause. L’abbassarsi della lancetta del barometro ci permette di prevedere un cambiamento meteorologico, ma non ce ne fornisce senz’altro le cause (si ricordi l’esempio discusso qualche pagina addietro). La condizione espressa dalla tesi SN2 è soddisfatta dalle spiegazioni meccanicistiche e 24
L’ideale di spiegazione proposto da Hempel e Oppenheim è in realtà più articolato rispetto alla tesi che abbiamo qui discusso. Il nostro scopo non è quello di proporre un resoconto fedele dell’ideale di spiegazione scientifica condiviso da Hempel e Oppenheim (e che ha guidato il modello nomologico-deduttivo, di cui ci occuperemo nelle righe che seguono), ma di riflettere sulla natura e sulle implicazioni di una particolare idea intuitiva e pre-teorica sulla spiegazione scientifica. Per approfondire le posizioni di Hempel e Oppenheim, oltre all’articolo già citato, si veda Hempel [1965] e Salmon [1992].
La spiegazione scientifica
teleologiche che abbiamo esaminato qualche pagina addietro? Ripensiamo all’abbozzo di spiegazione teleologica che risponde alla domanda 1 mettendo in relazione la manifestazione della capacità di cambiar colore con il fine di sopravvivere al predatore. Il requisito espresso in SN2 è soddisfatto in una spiegazione teleologica di questo tipo se (a) il fatto che il cambiamento di colore costituisce una strategia particolarmente efficace per sfuggire ai predatori permette di prevedere (b) il cambiamento di colore quando si avvicina un predatore. Non è così: anche se il mutamento cromatico fosse la migliore strategia difensiva (a), il camaleonte potrebbe pur scegliere un’altra strategia difensiva diversa da (b), per esempio ritirarsi in un pertugio vicino inaccessibile al predatore, oppure potrebbe semplicemente evitare di difendersi. Insomma, il mero riferimento al fine di un’azione non ci fornisce una base solida per prevedere che quell’azione (e non altre) verrà effettivamente messa in pratica, e il requisito espresso da SN2 non sembra essere soddisfatto dalle spiegazioni di tipo teleologico. Cosa possiamo dire a proposito delle risposte meccanicistiche alle domande 1 e 2? Certo, esse sono troppo frettolose e abbozzate per fornirci la possibilità di prevedere il cambiamento di colore della pelle di un camaleonte alla vista di un predatore. Tuttavia, almeno in linea generale, è ragionevole supporre che, se il funzionamento di un certo meccanismo fosse descritto con la necessaria precisione e a un livello di dettaglio adeguato, avremmo a nostra disposizione una base teorica per prevedere come si comporterà tale meccanismo in risposta a certi stimoli: del resto, la nostra capacità di prevedere come la nostra automobile reagirà ai nostri comandi e alle caratteristiche della strada aumenta all’aumentare della nostra conoscenza dei dettagli di funzionamento del meccanismo che opera in essa. Forse allora, non è fuori luogo pretendere che una buona spiegazione meccanicistica del cambiamento cromatico dei camaleonti (ovvero, una dettagliata e fedele descrizione del meccanismo che regola il mutamento del colore della pelle) debba fornirci strumenti per prevedere la reazione cromatica dell’animale alla vista del predatore; essa dovrebbe insomma permetterci di esclamare, osservando il camaleonte confondersi con lo sfondo, «l’avrei potuto prevedere!»25.
3.5 Il modello nomologico-deduttivo Abbiamo visto due tentativi, a prima vista piuttosto differenti tra loro, di procedere verso un chiarimento della nozione di “spiegazione” illustrando alcuni requisiti che una buona spiegazione scientifica dovrebbe soddisfare. In base alla prima idea (SN1) un buon explanans è quello che illustra le cause del fenomeno descritto nell’explanandum; in base alla seconda idea (SN2), un buon explanans è quello che avrebbe permesso di prevedere il fenomeno descritto nell’explanandum qualora fosse stato considerato a tempo debito. Entrambe le tesi, per i motivi che abbiamo brevemente discusso, mettono in dubbio il 25
Lasciamo al lettore il compito di riflettere sulla relazione tra SN2 e le spiegazioni evoluzionistiche di tipo teleologico e meccanicistico.
81
82
La spiegazione scientifica
potere esplicativo delle risposte di tipo teleologico (a meno di pesanti riformulazioni), mentre almeno in prima battuta assegnano qualche punto a favore delle spiegazioni di tipo meccanicistico. Questi tentativi, entrambi intuitivamente plausibili, compiono (seppur in direzioni diverse) qualche passo verso una delucidazione dell’idea intuitiva di “spiegazione”, ma non forniscono ancora requisiti precisi e non soggettivi che ci permettano di riconoscere le buone spiegazioni. Ulteriori passi verso questa meta sono stati compiuti dai già citati Carl Hempel e Paul Oppenheim in un celebre articolo, dal titolo Studies in the Logic of Explanation, pubblicato nel 1948 sulla rivista Philosophy of Science [Hempel e Oppenheim 1948]. Il loro contributo al problema filosofico della spiegazione scientifica è chiamato “modello nomologico-deduttivo” (da ora in poi, modello ND). Il modello fornisce alcuni requisiti che, secondo gli autori, le buone spiegazioni dovrebbero soddisfare, sulla base dell’idea che la spiegazione sia intimamente connessa con la prevedibilità dell’explanandum sulla base dell’explanans. In altri termini, i due filosofi hanno contribuito a elaborare la posizione espressa in SN2, precisandola e rafforzandola. Ecco i quattro requisiti. R1 L’explanandum deve essere derivabile logicamente dall’explanans. R2 L’explanans deve contenere almeno una legge di carattere generale. R3 L’explanans deve essere controllabile empiricamente. R4 L’explanans deve essere vero. Il primo è relativo al rapporto che deve sussistere tra explanans ed explanandum, mentre gli altri tre requisiti sono relativi a caratteristiche che, secondo il modello, l’explanans deve possedere. Prima di analizzare più nel dettaglio questi requisiti fissiamo le tesi su cui ci soffermeremo nelle pagine che seguono, secondo cui R1-R4 costituiscono condizioni necessarie (SN3) o sufficienti (SS3) perché una qualsiasi spiegazione E sia adeguata. SN3: E è una buona spiegazione solo se E soddisfa i criteri R1, R2, R3 e R4 del modello ND. SS3: E è una buona spiegazione se E soddisfa i criteri R1, R2, R3 e R4 del modello ND. Tenteremo di valutare le tesi SN3 e SS3 nella sezione 3.6, confrontandoci con alcuni esempi sulla base delle strategie valutative discusse in precedenza. Adesso è però opportuno soffermarci sui requisiti R1-R4, che analizzeremo riprendendo l’esempio dello spegnimento del calcolatore discusso nella sezione precedente a proposito della relazione tra spiegazione e previsione. Lo riportiamo di seguito per comodità. L’explanandum (ovvero l’enunciato che descrive l’evento da spiegare) era il seguente. (explanandum) Questo calcolatore portatile si è spento. Abbiamo visto come questo evento possa essere spiegato sulla base di un explanans che include i seguenti enunciati.
La spiegazione scientifica
1. Ogniqualvolta il carico elettrico supera i 3500 W, l’interruttore magnetotermico installato nell’appartamento si attiva; 2. Ogniqualvolta l’interruttore magnetotermico si attiva, esso interrompe il flusso di corrente elettrica nell’appartamento; 3. Nell’appartamento sono accesi contemporaneamente il forno elettrico, la lavatrice e la lavastoviglie, per un carico complessivo che supera i 3500 W; 4. Il calcolatore portatile è direttamente collegato alla rete elettrica dell’appartamento; 5. Il calcolatore portatile non ha una batteria; 6. Se il calcolatore portatile non ha batteria, è collegato alla rete elettrica dell’appartamento, e il flusso di corrente dell’appartamento si interrompe, il calcolatore portatile si spegne. Questa spiegazione soddisfa i requisiti previsti dal modello ND? Vediamoli uno per uno. REQUISITO R1: l’explanandum deve essere derivabile logicamente dall’explanans. La nozione di derivabilità logica appartiene a un dominio di indagine – la logica, appunto – che intrattiene strette relazioni con la filosofia della scienza, pur avendo obiettivi, basi teoriche e metodologie molto differenti. Senza la pretesa di discutere esaustivamente questa nozione, ci limitiamo a delinearne informalmente i contorni almeno quanto basta per comprendere il significato del primo requisito imposto da Hempel e Oppenheim alle buone spiegazioni scientifiche, aiutandoci con l’esame dell’esempio che abbiamo appena preso in considerazione. (Sulla nozione di “derivazione”, che abbiamo incontrato anche nella discussione del falsificazionismo di Popper, il lettore è invitato a riferirsi alla scheda a pag. 40 del capitolo 2). Se riflettiamo sulla relazione che sussiste tra explanans ed explanandum in questo esempio, possiamo facilmente convincerci del fatto che l’explanandum è derivabile dall’explanans attraverso una catena di ragionamento all’apparenza molto “solida”, composta da un certo numero di passi intermedi. Proviamo a percorrere le principali tappe di questo ragionamento, prendendo le mosse dai primi tre enunciati di cui è composto l’explanans. 1. Ogniqualvolta il carico elettrico supera i 3500 W, l’interruttore magnetotermico installato nell’appartamento si attiva; 2. Ogniqualvolta l’interruttore magnetotermico si attiva, interrompe il flusso di corrente elettrica nell’appartamento; 3. Nell’appartamento sono accesi contemporaneamente il forno elettrico, la
83
84
La spiegazione scientifica
lavatrice e la lavastoviglie, per un carico complessivo che supera i 3500 W; Non avremmo alcun dubbio, riflettendo un momento sul contenuto di queste proposizioni, nel ritenere del tutto logico derivare dagli enunciati 1 e 3 la seguente conclusione intermedia: 1a L’interruttore magnetotermico si attiva. Riterremmo altrettanto logico derivare da quest’ultimo enunciato, congiuntamente all’enunciato 2, la seguente conclusione intermedia: 3a Il flusso di corrente elettrica nell’appartamento è interrotto. Ora riflettiamo su ciò che l’enunciato 3a, appena derivato, assieme ai seguenti enunciati che fanno parte dell’explanans, ci permettono di derivare: 4. Il calcolatore portatile è direttamente collegato alla rete elettrica dell’appartamento; 5. Il calcolatore portatile non ha una batteria; 6. Se il calcolatore portatile non ha batteria, è collegato alla rete elettrica dell’appartamento, e il flusso di corrente dell’appartamento si interrompe, il calcolatore portatile si spegne. Anche in questo caso, se ci riflettiamo un po’ sopra, non avremmo dubbi a ritenere del tutto logico derivare da 3a, 4, 5 e 6 l’enunciato «il calcolatore portatile si spegne» che esprime, con una piccola modifica sintattica non sostanziale, proprio il nostro explanandum. Cosa provoca in noi l’impressione che, in questo esempio, l’explanandum segua logicamente dagli enunciati inclusi nell’explanans (e da enunciati che, come 1a e 3a, seguono logicamente da alcuni enunciati compresi in esso)? Dal fatto che, nello svolgere questa derivazione, abbiamo utilizzato alcune regole di ragionamento all’apparenza molto “solide”. Prendiamo di nuovo in considerazione gli enunciati 3 e 1 e la conclusione intermedia 1a. 1. Ogniqualvolta il carico elettrico supera i 3500 W, l’interruttore magnetotermico installato nell’appartamento si attiva; 3. Nell’appartamento sono accesi contemporaneamente il forno elettrico, la lavatrice e la lavastoviglie, per un carico complessivo che supera i 3500 W; ----------------------1a. L’interruttore magnetotermico si attiva.
La spiegazione scientifica
Concludendo la proposizione 1a a partire da 1 e 3 applichiamo una regola di ragionamento, o regola di inferenza (ovvero, regola per inferire enunciati sulla base di altri enunciati), che utilizziamo molto frequentemente nella nostra vita quotidiana, e che i logici formalizzano sotto il nome di modus ponens. La regola in questione è la seguente. Supponiamo che A e B siano enunciati qualsiasi; a partire da due premesse che hanno la forma - Se A, allora B -A la regola prescrive di derivare l’enunciato “B”. Se piove, allora prendo l’ombrello; piove; dunque prendo l’ombrello. Se il camaleonte vede un predatore, allora cambia colore; il camaleonte vede un predatore; dunque, il camaleonte cambia colore. Se l’acqua viene scaldata fino alla temperatura di 100°, allora l’acqua bolle; l’acqua ha una temperatura di 100°; dunque, l’acqua bolle. Possiamo facilmente convincerci del fatto che questi insiemi di enunciati, nonostante abbiano contenuti completamente diversi, abbiano molto in comune quanto alla loro forma: essi sono applicazioni del modus ponens. Lo stesso riguarda la relazione tra gli enunciati 1 e 3 e l’enunciato 1a del nostro esempio. Se prestiamo la necessaria attenzione, ci renderemo facilmente conto che il modus ponens è stato utilizzato anche in altri passi del ragionamento attraverso il quale abbiamo spiegato lo spegnimento del calcolatore. Il modus ponens possiede una proprietà chiamata dai logici correttezza. Cosa significa? Significa affermare che, se la applichiamo nel modo appropriato, l’argomento che risulta dalla sua applicazione possiede la seguente proprietà (spesso chiamata validità): non si può dare il caso in cui le premesse dell’argomento siano vere e la conclusione falsa. Oppure, in termini del tutto equivalenti, se le premesse dell’argomento sono vere, anche la conclusione è vera26. Pensiamo al nostro esempio. Se è vero che, in caso di carico superiore a 3500 W, l’interruttore magnetotermico blocca la corrente (enunciato 1), e se è vero che nell’appartamento si verifica effettivamente un carico elettrico superiore a 3500 W (enunciato 3), allora è vero che l’interruttore blocca la corrente (enunciato 1a). Non si può dare il caso che, se 1 e 3 sono veri, 1a sia falsa. Torniamo al rapporto tra explanans ed explanandum. Se – come stiamo ipotizzando – l’explanandum è derivato dall’explanans sulla base di un ragionamento che si svolge attraverso regole di inferenza corrette, l’intero argomento che costituisce la spiegazione sarà valido: se tutti gli enunciati inclusi nell’explanans sono veri, anche l’explanandum è necessariamente vero. Affermare che l’explanandum deve essere logicamente derivabile dall’explanans (questo è il requisito R1) significa proprio affermare che l’explanandum deve poter essere ottenuto a partire dagli enunciati contenuti nell’explanans sulla base dell’applicazione di regole di inferenza corrette. Abbiamo ora qualche elemento per comprendere l’importanza e il ruolo del requisito R1 nell’ambito del modello ND. Esso 26
Anche il modus tollens, che abbiamo incontrato nella sezione 2.6.4 a proposito del falsificazionismo, è una regola di inferenza corretta.
85
86
La spiegazione scientifica
esprime, in forma precisa e non soggettiva, l’idea che abbiamo discusso poche pagine addietro a proposito del rapporto tra previsione e spiegazione ed espresso in SN2: una spiegazione non è adeguata se il suo explanans, considerato a tempo debito, non avesse permesso di prevedere il fenomeno descritto nell’explanandum. Il termine “previsione” non viene esplicitamente utilizzato nell’enunciato che esprime R1, ma è chiaro che vi sono forti legami tra la derivabilità logica dell’explanandum a partire dall’explanans e la possibilità di prevedere il primo a partire dal secondo. Se una spiegazione soddisfa R1, allora sarebbe stato possibile prendere le mosse dal suo explanans e, attraverso semplici regole di inferenza corrette, con sufficienti risorse temporali e di calcolo, derivare l’explanandum. La correttezza di tali regole ci assicura che, se fossero stati veri tutti gli enunciati contenuti nell’explanans, anche l’explanandum sarebbe stato vero. L’explanans ci avrebbe dunque fornito delle basi per ricavare, attraverso un certo numero di semplici passi di ragionamento corretto, l’explanandum. Ragionandoci su, avremmo potuto prevedere l’evento da spiegare. Ripensiamo allora all’esempio dell’impianto elettrico dell’appartamento: disponendo di sufficienti risorse temporali e di calcolo avremmo potuto certamente affermare che «Se l’impianto dispone di un interruttore magnetotermico che blocca la corrente in caso di carico che supera i 3500 W; se nell’appartamento sono accesi forno, lavatrice e lavastoviglie per un carico che supera i 3500 W» – e così via per tutti gli enunciati contenuti nell’explanans – «allora il calcolatore non può non spegnersi». Derivando l’explanandum avremmo, nei fatti, previsto il fenomeno che esso descrive. Naturalmente, se il nostro explanans fosse stato più stringato (se, per esempio, non avessimo considerato l’assenza della batteria come un elemento tanto rilevante da esprimerlo nell’explanans), non avremmo avuto le informazioni necessarie per derivare l’explanandum, dunque per convincerci che il calcolatore si sarebbe spento; la spiegazione, in tal caso, non avrebbe soddisfatto né il requisito R1 né l’idea (espressa in SN2) secondo cui, nelle buone spiegazioni, l’explanans fornisce basi per prevedere l’explanandum. REQUISITO R2: l’explanans deve contenere almeno una legge di carattere generale. Cos’è una legge? Anche questa domanda è di non facile risposta: a essa sarà dedicato il capitolo 4 (Le leggi). Qualche precisazione sarà tuttavia utile per comprendere l’importanza del requisito R2 nell’ambito del modello ND. Il termine “legge” è generalmente usato per riferirsi a enunciati che esprimono regolarità: chiameremo generalizzazioni tali enunciati. Un esempio di generalizzazione è la premessa 1 del nostro explanans: «Ogniqualvolta il carico elettrico supera i 3500 W, l’interruttore magnetotermico installato nell’appartamento si attiva». Lo stesso dicasi per i vari enunciati coinvolti nell’esempio del barometro e della tempesta che abbiamo discusso nel paragrafo sul rapporto tra spiegazione e causalità: «Ogniqualvolta la lancetta del barometro scende al di sotto del valore X, si scatena una tempesta» e «Ogniqualvolta la pressione atmosferica scende sotto una soglia Y, si scatena una tempesta». Il lettore ricorderà altre generalizzazioni che abbiamo discusso nella sezione 3.2 (Una domanda, molte risposte) a proposito del cromatismo dei camaleonti. Se è vero che tutte le leggi sono generalizzazioni, i filosofi della scienza sono generalmente concordi nel ritenere che il viceversa non sia vero. Alcune generalizzazioni sembrano
La spiegazione scientifica
infatti non soddisfare alcune caratteristiche costitutive della nozione di “legge”, così come viene comunemente intesa e utilizzata nelle scienze. In genere, per esempio, si suole riservare il termine “legge” solo per quelle generalizzazioni che esprimono legami di carattere necessario tra eventi o situazioni (rimandiamo alla sezione 4.5, La natura non accidentale delle leggi, una discussione del significato del termine “necessario” in questo contesto). L’enunciato «Tutte le monete presenti nella mia tasca sono di 20 centesimi» esprime senza dubbio una regolarità (ovvero, una relazione regolare tra il fatto di essere una moneta nella mia tasca e il fatto di valere 20 centesimi), e può ben essere vero che in questo momento tutte le monete presenti nella mia tasca siano di 20 centesimi; ma saremmo propensi a considerarla una regolarità del tutto accidentale. Invece, non avremmo dubbi nel ritenere che la generalizzazione «L’oro è un buon conduttore di elettricità» esprima una connessione di carattere necessario (tra il fatto di essere d’oro e il fatto di essere un buon conduttore di elettricità). Non tutte le generalizzazioni sono allora qualificabili come leggi, nell’accezione che comunemente attribuiamo al termine. Nel prossimo capitolo vedremo come questa idea, così apparentemente plausibile, sia estremamente difficile da precisare (il lettore avrà forse riconosciuto qualche relazione tra questo problema e il problema di distinguere regolarità causali da regolarità non causali, che abbiamo introdotto qualche pagina addietro). La difficoltà di definire con precisione i contorni di questa nozione, così spesso chiamata in causa nelle spiegazioni scientifiche, ha reso il requisito R2, e il modello ND, bersagli di numerose critiche. R2 sancisce che l’explanans di una buona spiegazione deve contenere almeno una legge; ma se non disponiamo di criteri precisi per decidere se una generalizzazione può qualificarsi come legge, allora non disponiamo nemmeno di criteri precisi per decidere se un insieme di enunciati può qualificarsi come un buon explanans secondo il modello ND. Oltre alla vaghezza di tale nozione, molti filosofi hanno ritenuto che il requisito R2 renda il modello ND troppo restrittivo, sulla base del presupposto che in alcune aree di indagine scientifica – come in molte branche della biologia – sia estremamente difficile identificare buoni esempi di legge27. Ma se le generalizzazioni biologiche non sono qualificabili come leggi, allora le spiegazioni biologiche non possono essere qualificate come buone spiegazioni secondo il modello ND (dato che violano il requisito R2). Il modello ND risulta quindi essere troppo “esigente”, poiché (sotto il presupposto appena introdotto) implica che sia estremamente difficile trovare buoni esempi di spiegazione scientifica in biologia: tesi, quest’ultima, difficilmente sostenibile (chi sarebbe disposto a sostenere che la ricerca biologica non produce occasionalmente buone spiegazioni, al di là del fatto che esse aderiscano o meno allo schema ND?). Torneremo a occuparci di questi problemi nel capitolo dedicato alla nozione di legge. Per il momento è importante notare come il requisito R2, nonostante le varie difficoltà che esso solleva, giochi un ruolo cruciale nell’ambito del modello ND. Ricordiamo 27
Per approfondimenti si veda Hamilton [2007] e il capitolo 4 (Le leggi) di questo libro, in cui discuteremo lo statuto delle leggi nelle cosiddette “scienze speciali”.
87
88
La spiegazione scientifica
che tale modello esprime l’idea secondo cui la prevedibilità del fenomeno descritto nell’explanandum sulla base delle informazioni contenute nell’explanans costituisce un requisito essenziale delle buone spiegazioni. Ma come sviluppare previsioni in assenza di enunciati che esprimono regolarità? Asserzioni che esprimono stati di cose o eventi singoli, come «Nell’appartamento sono accesi contemporaneamente il forno elettrico, la lavatrice e la lavastoviglie, per un carico complessivo superiore a 3500 W», non ci permettono di prevedere alcunché, se non le affianchiamo ad asserzioni che ci permettano di collegare il verificarsi di condizioni di un certo tipo al successivo regolare verificarsi di condizioni o eventi di altro tipo. REQUISITO R3: l’explanans deve essere controllabile empiricamente. Perché una spiegazione sia considerata soddisfacente, deve essere possibile mettere a punto esperimenti il cui esito fornisca basi adeguate per valutare la plausibilità delle asserzioni che compongono l’explanans. Questo requisito è ovviamente molto ragionevole: non saremmo disposti ad accettare una spiegazione che si basi su premesse sulla cui verità o falsità non sia possibile decidere attraverso esperimenti di qualche tipo. Ma sulla base di quali criteri possiamo decidere se un explanans è controllabile sperimentalmente oppure no? In alcuni casi sembra non sussistere alcun problema: pensiamo all’enunciato «Il calcolatore portatile non ha una batteria» (enunciato 5 del nostro explanans). L’esperimento, in questo caso, consiste nella semplice osservazione diretta: nulla di più convincente, per valutare la verità o della falsità di tale enunciato, che guardare il lato inferiore del calcolatore e controllare se la batteria è inserita o meno. In altri casi, però, la questione è più spinosa. L’enunciato «La stella Deneb, nella costellazione del Cigno, è distante 3229,27 anni luce dalla Terra» è controllabile sperimentalmente? Certo: gli astrofisici sono giunti a determinare il valore “3229,27 anni luce” proprio sulla base di esperimenti di qualche tipo. Ma, soprattutto nel caso di stelle lontane come Deneb, tali esperimenti comportano in realtà la misurazione di quantità che sono solo indirettamente legate alla distanza astronomica (in questo esempio si tratta di misure spettroscopiche). A partire dal risultato dell’esperimento si deve quindi inferire, sulla base di assunzioni e teorie ausiliarie, il valore della quantità che interessa. Tra l’enunciato da controllare e l’esperimento, in casi come questo, vi è un rapporto non diretto, che rende arduo il problema di giustificare la convinzione in base alla quale quell’enunciato è controllabile sulla base di tale procedura sperimentale. Approfondiremo questo problema nel capitolo 6 (Il realismo e l’anti-realismo scientifico). REQUISITO R4: l’explanans deve essere vero. In base a R4, affinché la spiegazione dello spegnimento del calcolatore sia adeguata tutti gli enunciati che compongono l’explanans devono essere veri: in particolare deve essere vero che, ogniqualvolta il carico elettrico supera i 3500 W, l’interruttore magnetotermico installato nell’appartamento si attiva; che nell’appartamento sono accesi contemporaneamente il forno elettrico, la lavatrice e la lavastoviglie, per un carico complessivo superiore a 3500 W; e così via. Il lettore, a questo punto, si aspetterà che anche questo requisito – apparentemente così plausibile – sollevi
La spiegazione scientifica
problemi intricati e di difficile soluzione. È proprio così. Ci limitiamo a introdurre una questione che sarà trattata più ampiamente in alcuni capitoli successivi di questo volume. Il problema è relativo al fatto che, spesso, le spiegazioni scientifiche sembrano essere basate su premesse false. Prendiamo in considerazione l’enunciato «Ogniqualvolta il carico elettrico supera i 3500 W, l’interruttore magnetotermico installato nell’appartamento si attiva». È un enunciato vero? Se lo interpretiamo alla lettera, così come si presenta, possiamo legittimamente pensare che non lo sia. Non è vero, infatti, che ogniqualvolta il carico elettrico supera i 3500 W, l’interruttore magnetotermico installato nell’appartamento si attiva: ci possono essere casi in cui il carico elettrico supera i 3500 W ma l’interruttore magnetotermico installato nell’appartamento non si attiva, semplicemente perché è guasto. Ora, si potrebbe obiettare che il buon funzionamento dell’interruttore magnetotermico sia un presupposto implicito nell’ambito della spiegazione fornita. Capita spesso, e non solo quando forniamo spiegazioni, di formulare enunciati che sottintendono qualcosa che ci pare ovvio assumere. Questa è un’obiezione del tutto sensata, ma implica che l’enunciato in questione non deve essere interpretato alla lettera, contrariamente a quanto abbiamo assunto poche righe addietro. Ciò implica, in altre parole, sostenere che l’enunciato «Ogniqualvolta il carico elettrico supera i 3500 W, l’interruttore magnetotermico installato nell’appartamento si attiva» sta per un enunciato diverso, che potrebbe essere espresso con «Ogniqualvolta il carico elettrico supera i 3500 W, l’interruttore magnetotermico installato nell’appartamento si attiva, a meno che l’interruttore non sia guasto». Quindi, in base a questa obiezione, potremmo concludere che l’enunciato 1 del nostro explanans è sì falso letteralmente, ma che è possibile completarlo con informazioni implicitamente presupposte fino a ottenere un enunciato vero. Torneremo su questo tema nella sezione 4.4, dedicata al ruolo della nozione di verità nella caratterizzazione delle leggi scientifiche, mettendo in evidenza come l’obiezione che abbiamo appena discusso generi, a sua volta, problemi difficili da superare. Riepilogo Il nostro percorso all’interno del modello ND ha preso le mosse da un primo tentativo di progredire verso un chiarimento dell’idea intuitiva di “buona spiegazione”: SN2: E è una buona spiegazione solo se l’explanans, se preso in considerazione a tempo debito, avesse permesso di prevedere il fenomeno descritto nell’explanandum. Il modello ND sviluppa e rafforza questa idea proponendo i quattro criteri R1-R4 che abbiamo discusso in queste pagine. Nel presentare tali criteri abbiamo discusso alcuni problemi concettuali intrinseci a essi. Nel prossimo paragrafo ci occuperemo invece delle relazioni tra R1-R4 e l’idea intuitiva di “buona spiegazione” dalla quale abbiamo preso le mosse: ci chiederemo se tali requisiti possano effettivamente costituire condizioni assieme necessarie e sufficienti perché una spiegazione sia soddisfacente. Valuteremo dunque i due
89
90
La spiegazione scientifica
enunciati SN3 e SS3, che abbiamo già introdotto e che riportiamo qui per comodità. SN3: E è una buona spiegazione solo se E soddisfa i criteri R1, R2, R3 e R4 del modello ND. SS3: E è una buona spiegazione se E soddisfa i criteri R1, R2, R3 e R4 del modello ND.
3.6 Il modello ND e il problema filosofico della spiegazione Se le tesi SN3 e SS3 si rivelassero entrambe plausibili, il modello ND costituirebbe una soluzione al problema filosofico della spiegazione scientifica: i criteri R1-R4 sarebbero soddisfatti da tutte le buone spiegazioni scientifiche (SN3) e solo da esse (SS3). In tal caso, per sapere se una data spiegazione è adeguata o meno sarebbe sufficiente controllare se essa soddisfa i canoni del modello ND; sarebbe adeguata in caso affermativo, non adeguata in caso negativo. Proviamo dunque a valutare le due tesi. SS3. Quella di soddisfare i quattro requisiti è una condizione sufficiente perché la spiegazione sia adeguata? No: possiamo trovare un esempio di argomento che soddisfa i canoni del modello ND, ma che non saremmo senz’altro disposti (sulla base della nostra intuizione) a classificare come una buona spiegazione scientifica. Consideriamo la Figura 3. Perché l’ombra della bandiera è lunga 20 metri28?
Figura 3 - Il problema dell’ombra della bandiera
28
Per altri controesempi alla tesi SS3, si veda Salmon [1992, cap. 2], e Boniolo e Vidali [1999, par 6.3.1.1].
La spiegazione scientifica
Ecco una possibile spiegazione. I raggi di luce che provengono dal sole colpiscono l’asta della bandiera che è lunga esattamente 15 metri; l’angolo di elevazione del sole è di 37°; dato che la luce viaggia in linea retta, attraverso un semplice calcolo trigonometrico (si calcola il coseno di 37°, lo si moltiplica per 15, dividendo poi il risultato per il seno di 37°) ricaviamo proprio una lunghezza di 20 metri (Figura 4).
Figura 4 - Il problema dell'ombra della bandiera (segue)
Questa spiegazione soddisfa i requisiti del modello ND: lasciamo al lettore il compito di convincersene attraverso l’esame di ognuno dei quattro requisiti (le difficoltà concettuali che abbiamo evidenziato nella sezione precedente, e che rendono talvolta arduo il compito di decidere se R1-R4 sono soddisfatti o meno in particolari esempi di spiegazione, non sollevano grossi problemi in questo caso). Questa spiegazione soddisfa anche la nostra idea intuitiva di “buona spiegazione scientifica”? Certamente sì. Tuttavia, basta fare una piccola modifica a questo esempio e le cose cambiano notevolmente. Anziché interrogarci a proposito della lunghezza dell’ombra, supponiamo di chiederci: “Perché l’asta della bandiera è lunga 15 metri?”. Si tratta di una domanda perfettamente legittima. Ora, riflettendoci un po’, chiunque si potrà convincere del fatto che la lunghezza di 15 metri è ricavabile a partire dalla lunghezza dell’ombra, attraverso semplici calcoli trigonometrici (è sufficiente moltiplicare il seno di 37° per 20, e dividerlo poi per il coseno di 37°). Abbiamo cambiato di poco le carte in tavola, collocando nell’explanandum un enunciato che prima faceva parte dell’explanans, e tutto continua a funzionare. Poco fa abbiamo ricavato matematicamente la lunghezza dell’ombra sulla base dell’altezza dell’asta e dell’elevazione solare; con altrettanta facilità adesso ricaviamo matematicamente l’altezza dell’asta sulla base della lunghezza dell’ombra e dell’elevazione solare. Questo argomento soddisfa i canoni ND? Sì: la differenza rispetto al caso precedente è minima, e riflettendoci un po’ possiamo facilmente capire che lo “scambio” di informazioni da explanans a explanandum non intacca la conformità ai requisiti R1-
91
92
La spiegazione scientifica
R4. Saremmo disposti, sulla base della nostra intuizione, a considerare quest’ultimo argomento come una buona spiegazione? Ovviamente no! Spiegare perché l’asta è lunga 15 metri sulla base della lunghezza dell’ombra che essa proietta quando l’elevazione del sole è pari a 37° risulta quantomeno bizzarro29. Piuttosto, per cercare una spiegazione della lunghezza dell’asta della bandiera dovremmo rivolgerci al suo costruttore e capire perché ha deciso di costruirla così lunga. L’esempio che abbiamo appena discusso ci induce a rigettare la tesi SS3: esiste almeno un argomento che soddisfa i requisiti del modello ND ma che non saremmo disposti a qualificare come “buona spiegazione”. Dunque, il fatto di soddisfare i requisiti ND non è sufficiente perché la spiegazione possa essere considerata adeguata. Passiamo ora alla tesi SN3. SN3. Soddisfare i quattro requisiti è necessario perché una spiegazione sia adeguata? In altre parole, tutte le spiegazioni che (in base alla nostra intuizione) riteniamo adeguate soddisfano i requisiti del modello ND? No, se vi è almeno un esempio di buona spiegazione che non soddisfa i canoni del modello ND. Questo è il momento di aprire un’importante parentesi su un tema che non svilupperemo ulteriormente. In alcuni casi, sia nella ricerca scientifica che nella vita quotidiana, pretendiamo di spiegare eventi singoli (come lo spegnimento del calcolatore) sulla base di explanantia che coinvolgono leggi probabilistiche. Un esempio di legge probabilistica è il seguente: «Chi assume penicillina guarirà da infezioni da streptococco con una probabilità del 98%». Non è vero che l’assunzione di penicillina comporta sempre la guarigione da infezioni di streptococco: c’è una probabilità del 98% che il paziente guarisca. Si qualificano come leggi probabilistiche anche quegli enunciati che non assegnano un valore alla probabilità dell’evento (in questo caso, 98), bensì affermano che l’evento si verificherà “con alta probabilità”, “spesso”, “molto raramente”. La sezione 5.5 (Il problema filosofico della probabilità) guiderà il lettore nell’interpretazione di enunciati di questo tipo. Quel che è certo è che, se l’explanans contiene leggi probabilistiche e l’explanandum è un evento singolo, la spiegazione non potrà soddisfare i requisiti del modello ND né l’idea sottostante a proposito del rapporto tra previsione e spiegazione. Immaginiamo di voler spiegare perché Luisa è guarita da infezione di streptococco; e supponiamo che l’explanans sia costituito dai due enunciati «Chi assume penicillina guarirà da infezioni da streptococco con una probabilità del 98%» e «Luisa ha assunto penicillina». Ovviamente, questo explanans non ci avrebbe permesso di prevedere con sicurezza che Luisa sarebbe guarita: questa spiegazione, che appare del tutto soddisfacente, non soddisfa dunque l’ideale di prevedibilità che caratterizza le buone spiegazioni secondo il modello ND. Casi come questi, in cui un evento singolo viene spiegato sulla base di 29 Per una discussione interessante (e divertente) di un esempio del tutto simile a quello del sole e dell’asta della bandiera, che induce a riflettere sugli aspetti pragmatici della spiegazione e sull’importanza delle conoscenze di sfondo, si veda Van Fraassen [1980, par 3.2].
La spiegazione scientifica
una legge probabilistica, sono stati ampiamente studiati dai filosofi della scienza; gli stessi Hempel e Oppenheim hanno formulato un modello di spiegazione, chiamato statistico-induttivo, che dovrebbe catturare i requisiti delle “buone spiegazioni” di questo tipo. Escludiamo il caso in cui l’explanans contenga una legge probabilistica e l’explanandum consista in un evento singolo (gli esempi finora discussi non erano di questo tipo), restringendo la nostra analisi a spiegazioni nel cui explanans non compaiano leggi probabilistiche. Tutte le buone spiegazioni di questo tipo sono ND? La questione è più spinosa della precedente; anche in questo caso ci aiuteremo con un esempio. Supponiamo di urtare per sbaglio il gambo del nostro tavolo facendo cadere per terra un bicchiere pieno d’acqua. Alla domanda «Perché il bicchiere è caduto?» risponderemmo senz’altro «Perché ho urtato il gambo del tavolo», ritenendo di aver fornito con ciò una buona spiegazione dell’evento. In questo esempio, l’explanans è costituito unicamente dall’enunciato «Ho urtato il gambo del tavolo». Si tratta di un explanans troppo stringato per soddisfare i requisiti del modello ND: non vi è alcuna legge (R2), e non vi è alcun modo di derivare l’explanandum a partire dall’explanans sulla base di regole di ragionamento corrette (R1). Ci troveremmo dunque di fronte a una spiegazione che non soddisfa i canoni del modello ND, pur costituendo – almeno così sembra – una buona spiegazione. Tale spiegazione, com’è da attendersi sulla base di quanto abbiamo finora detto al proposito, non soddisfa nemmeno l’idea secondo cui una buona spiegazione è quella il cui explanans avrebbe permesso di prevedere l’explanandum (espressa nella tesi SN2, che costituisce il precursore del modello nomologico-deduttivo). L’urto contro il tavolo costituisce una base troppo debole per prevedere l’explanandum: a seguito dell’urto il bicchiere sarebbe potuto rimanere sul tavolo, magari perché l’urto era stato troppo debole, oppure in virtù di altre circostanze al contorno non menzionate nell’explanans. Sulla base di queste considerazioni potremmo essere indotti a rigettare anche la tesi SN3: non tutte le argomentazioni che classifichiamo come buone spiegazioni soddisfano i requisiti del modello di Hempel e Oppenheim (quello del tavolo e del bicchiere è appunto un esempio). Parallelamente, dovremmo concludere che la prevedibilità dell’explanandum sulla base dell’explanans non costituisce un requisito necessario delle buone spiegazioni (SN2). Questa posizione ci soddisfa? Tutto dipende dalla nostra disposizione a ritenere che la risposta «Perché ho urtato il tavolo» sia, in tale forma, una buona spiegazione della caduta del bicchiere. Questo è naturalmente un punto cruciale: se riteniamo che tale risposta costituisca una buona spiegazione dell’evento, in base a ciò che ci suggerisce la nostra intuizione, allora dobbiamo rigettare la tesi SN3, poiché quella spiegazione non soddisfa i canoni ND. Ma se la spiegazione «Perché ho urtato il tavolo» non ci appare del tutto convincente, allora forse la tesi SN3 non è del tutto errata. La domanda relativa a SN3 è infatti: tutte le spiegazioni che (in base alla nostra intuizione) riteniamo adeguate soddisfano i requisiti del modello ND? A rigor di logica, un argomento che non è una
93
94
La spiegazione scientifica
buona spiegazione e non soddisfa i requisiti del modello ND non ci permette di concludere alcunché rispetto a quella domanda. Ecco un esempio delle difficoltà intrinsecamente coinvolte nella valutazione delle teorie filosofiche sulla spiegazione scientifica che abbiamo discusso nella sezione 3.3 (Il problema filosofico della spiegazione scientifica): quella di confrontare tali teorie filosofiche con esempi di spiegazioni convincenti e non convincenti è probabilmente la migliore strategia valutativa di cui disponiamo, ma l’esito di tale valutazione dipende dal modo in cui la nostra intuizione ci suggerisce di classificare gli esempi di spiegazione che prendiamo in esame. Resta dunque da capire se la risposta «Perché ho urtato il tavolo» possa essere qualificata come una buona spiegazione della caduta del bicchiere. Non vi sono facili risposte, ma vale la pena sottolineare il fatto che tale risposta potrà apparirci più o meno convincente a seconda del contesto in cui domanda e risposta vengono formulate. Uno spettatore che assiste alla caduta del bicchiere, o che esamina lo scenario subito prima o subito dopo l’evento, probabilmente sarà soddisfatto da una risposta così stringata. Sarà infatti in possesso, assieme a chi formula la domanda e fornisce la risposta, di alcune informazioni implicite sulla situazione in cui l’evento si è verificato, informazioni che quindi possono essere omesse senza perdita di efficacia. Per esempio, quella persona saprà che il bicchiere si trovava vicino all’orlo del tavolo; che l’urto è stato molto forte; che non vi erano parapetti od oggetti che potessero fare scudo al bicchiere; che il bicchiere era fragile e non molto pesante; e così via. Ma una persona che non si trova in possesso di queste informazioni, magari perché non ha assistito all’evento, potrebbe legittimamente considerare la risposta troppo stringata e richiedere tali ulteriori precisazioni. È ragionevole immaginare che tale persona si dichiarerebbe pienamente soddisfatta della risposta ricevuta solo dopo aver acquisito informazioni, a proposito dello scenario di cui si parla, sufficienti per affermare che il bicchiere non avrebbe potuto fare altro che rompersi dopo l’urto con il tavolo (ovvero per prevedere tale evento): il semplice urto con il tavolo non permette di trarre tale conclusione, in mancanza di un resoconto sufficientemente esaustivo delle varie condizioni al contorno. Mutando il contesto di riferimento, e l’insieme delle informazioni implicite che colui che riceve la risposta ha a disposizione, cambia anche il giudizio a proposito dell’adeguatezza della risposta «Perché ho urtato il tavolo» e dunque il giudizio a proposito del fatto che il modello ND fornisca effettivamente requisiti necessari delle buone spiegazioni30.
30
L’esempio del bicchiere è molto simile a quello discusso da Scriven [1962] per riflettere sull’adeguatezza del modello ND in relazione alla spiegazione di eventi singoli. Hempel [1965] risponde a Scriven sostenendo che la rottura dell’oggetto non può dirsi spiegata meramente dall’urto contro il gambo del tavolo: tale spiegazione presuppone un’ulteriore informazione implicita, ovvero una generalizzazione che leghi l’urto alla caduta del bicchiere. Per un’analisi del ruolo del contesto nella valutazione della bontà delle spiegazioni scientifiche un riferimento classico è Van Fraassen [1980, cap. 5]. Si veda anche Salmon [1992, cap. 4.4].
La spiegazione scientifica
Riepilogo Semplici esempi di spiegazione ci hanno aiutato a riflettere sull’adeguatezza delle tesi SS3 e SN3, che vertono sulla relazione tra il modello ND (e l’ideale di spiegazione che esso incorpora) e l’idea intuitiva di “buona spiegazione” che i filosofi della scienza cercano di chiarire. Abbiamo fornito un controesempio alla tesi SS3, concludendo che non tutti gli argomenti che soddisfano i requisiti R1-R4 costituiscono buone spiegazioni. Su questo punto c’è ampio consenso tra i filosofi della scienza. Molti di essi si schierano anche contro la tesi SN3 (ristretta a spiegazioni nel cui explanans non figurino leggi probabilistiche), sostenendo che vi sono buone spiegazioni che non soddisfano il modello ND. Abbiamo però suggerito qualche motivo di cautela nel classificare l’esempio della rottura del bicchiere, spesso addotto per discutere la questione relativa a SN3, come un esempio di buona spiegazione e, dunque, come un buon controesempio a tale tesi. La questione, su questo punto, è aperta.
3.7 Verso i prossimi capitoli Perché i camaleonti cambiano colore? Capire quali caratteristiche debba possedere una risposta soddisfacente a questa domanda, una risposta che ci metta davvero in grado di comprendere il fenomeno a cui si riferisce, è un problema non da poco. In questo capitolo abbiamo preso in considerazione una porzione molto ridotta – per quanto estremamente importante e influente – di ciò che i filosofi della scienza hanno detto al proposito. Il nostro scopo non era tanto quello di presentare una rassegna esaustiva delle varie posizioni in gioco, quanto quello di illustrare un modo di procedere verso l’elaborazione di una posizione filosofica su tale problema. Il primo passo è stato quello di riconoscere l’esistenza del problema; di questo ci siamo occupati nella sezione 3.2. Come si affronta questo problema? Tentando di chiarire progressivamente i contorni della nozione intuitiva di “buona spiegazione”. Il punto di partenza di questo percorso è una nozione del tutto vaga, una sorta di “sesto senso” che ci guida nel riconoscere, tra le molte risposte che riceviamo, quelle che davvero producono in noi quella strana sensazione di aver realmente compreso un fenomeno, di aver finalmente dissipato i nostri dubbi, di essere penetrati dentro i segreti di quella parte di realtà che, prima, produceva in noi meraviglia e senso di mistero. Tentando di capire in cosa consista questo “sesto senso”, abbiamo incontrato subito un bivio (sezione 3.3): possiamo tentare di delucidare la nozione di “spiegazione” attraverso il riferimento alla causalità (abbiamo realmente compreso un fenomeno quando ne abbiamo compreso le cause), oppure attraverso il riferimento alla prevedibilità. Un piccolo progresso che porta con sé un piccolo premio: ognuna di queste due strade assegna punti di merito e note di demerito ad alcune delle tipologie di spiegazione viste in precedenza (è significativo come, in base a entrambe le tesi, le spiegazioni teleologiche non possano costituire buone spiegazioni). Abbiamo poi scelto di sviluppare una delle due strade – quella che lega spiegazione e
95
96
La spiegazione scientifica
previsione – seguendo il percorso tracciato da Hempel e Oppenheim (sezione 3.4). I due filosofi hanno tentato di chiarire ulteriormente la nozione di “buona spiegazione” elaborando quattro criteri, che costituiscono il modello ND e sviluppano l’idea secondo cui tutte le buone spiegazioni sono predittive nel senso precedentemente discusso. Al di là dei problemi intrinseci del modello ND, possiamo dire che Hempel e Oppenheim hanno fatto qualche passo in avanti nel chiarimento della nozione intuitiva di “spiegazione scientifica”? Rispondere a questa domanda significa anzitutto chiedersi se tutto ciò che il nostro “sesto senso” classifica come buona spiegazione è conforme al modello ND e, viceversa, se tutto ciò che è conforme al modello ND sia valutato dal nostro “sesto senso” come buona spiegazione. Abbiamo discusso questo punto nella sezione 3.5. Detto questo, abbiamo percorso soltanto una piccola (per quanto importante) frazione di quanto i filosofi della scienza hanno detto a proposito del problema della spiegazione scientifica. Ci siamo concentrati solo sull’ideale di spiegazione secondo cui le buone spiegazioni sono predittive (confluito nel modello ND) e non abbiamo esaminato i tentativi di precisare i contorni dell’altra opzione vagliata, quella causale espressa nella tesi SN1, alla quale molti filosofi si rivolgono nel tentativo di elaborare teorie sulla spiegazione che non soffrano dei limiti del modello ND31. Abbiamo inoltre trascurato una terza importante proposta, secondo cui le buone spiegazioni sono quelle che permettono di sistematizzare, o unificare, una molteplicità di eventi e regolarità sulla base di un numero limitato di principi esplicativi32. Il nostro scopo non era quello di condurre una rassegna esaustiva di questo ampio territorio di discussione filosofica, bensì di fornire al lettore qualche spunto per comprendere come si proceda verso l’elaborazione di una teoria sulla natura della spiegazione scientifica, e di mettere in evidenza una rete di importanti problemi filosofici strettamente collegati a quello di cui ci siamo occupati. Uno di essi, come abbiamo visto riflettendo sul requisito R2, è legato alla nozione di “legge”: questo sarà il tema del prossimo capitolo.
31 32
Il lettore interessato può riferirsi a Salmon [1992] e a Psillos [2002].
Questa idea, condivisa anche da Hempel [1965, 83], è stata sviluppata tra gli altri da Fiegl [1970], Friedman [1974] e Kitcher [1989]; per una recente critica si veda Gijsbers [2007] .
Le leggi
4.1 Il problema filosofico delle leggi È quasi un’ovvietà affermare che la ricerca scientifica è volta alla scoperta delle leggi che permettono di prevedere, spiegare e controllare la realtà. Non è possibile formulare previsioni senza basarsi, più o meno esplicitamente, su generalizzazioni di qualche tipo: se alziamo gli occhi al cielo e, vedendo delle nuvole scure, prevediamo che pioverà, è perché riteniamo (a torto o a ragione) che la presenza di nuvole scure sia immancabilmente seguita dalla pioggia; se i meteorologi riescono a formulare previsioni del tempo più accurate di quelle che ci suggerisce il senso comune è non solo perché essi hanno a disposizione strumenti di misura ben più sofisticati, ma anche perché dispongono di insiemi di generalizzazioni più raffinate che tengono conto di un numero molto maggiore di fattori rilevanti. Considerazioni analoghe per le previsioni formulate da scienziati che appartengono ad altre aree di ricerca. Ed è un dato di fatto che numerosi enunciati ordinariamente qualificati come “leggi” (la legge di gravitazione universale, la legge della segregazione in genetica, la legge di Ohm sulla relazione tra intensità, tensione e resistenza elettrica nei conduttori, e così via) trovino posto nelle spiegazioni scientifiche: nel capitolo precedente, peraltro, abbiamo visto come in base a una certa idea sulla natura delle spiegazioni scientifiche le leggi siano componenti essenziali delle “buone” spiegazioni. La loro centralità nella ricerca scientifica e nella nostra vita quotidiana, il ruolo chiave che la nozione di “legge” svolge nel quadro di molte importanti questioni filosofiche, e la frequenza con cui il termine “legge” viene utilizzato in svariate aree di ricerca, rendono particolarmente pressante il problema filosofico di cui ci occuperemo in questo capitolo. Il problema filosofico delle leggi nasce dalla difficoltà di identificare i criteri che permettano di distinguere le leggi da enunciati che somigliano a leggi, pur non essendo qualificabili come tali. Confrontiamo i seguenti enunciati: 1. Tutte le volte che Luigi va a Parigi, piove. 2. I metalli, se scaldati, si dilatano. Saremmo disposti a qualificare entrambi gli enunciati come leggi? Entrambi affermano la sussistenza di una relazione regolare tra eventi: nel primo caso tra un’azione di Luigi e un evento meteorologico, nel secondo tra il riscaldamento di un qualsiasi metallo e la sua dilatazione. Nel capitolo precedente abbiamo utilizzato il termine “generalizzazione” per riferirci a enunciati che esprimono relazioni regolari tra eventi; diciamo dunque che entrambi gli enunciati sono generalizzazioni. Tuttavia,
98
Le leggi
nessuno esiterebbe a notare una differenza profonda tra di essi. Il primo esprime sì una regolarità, ma tale regolarità è del tutto accidentale: come potrebbe sussistere un legame necessario tra il fatto che Luigi vada a Parigi e il fatto che piova? Il secondo, invece, esprime una connessione tra eventi che non avremmo dubbi a ritenere in qualche senso necessaria. Solitamente riserviamo il termine “legge” a generalizzazioni che esprimono regolarità non accidentali, come nel secondo enunciato. Diremmo dunque che il secondo enunciato esprime una legge, mentre il primo esprime una generalizzazione accidentale. Fin qui arrivano le nostre intuizioni. Il problema filosofico delle leggi, così come il problema che abbiamo esaminato nel capitolo precedente, ci sfida a passare dalle nostre considerazioni intuitive a un insieme di condizioni ragionevolmente precise che distinguano le leggi propriamente intese dalle generalizzazioni accidentali. Esprimiamo il problema nei termini seguenti, seguendo il formato con cui abbiamo espresso il problema della spiegazione scientifica: il problema filosofico delle leggi ci chiede di identificare ed esprimere propriamente un insieme di condizioni da sostituire a X nel seguente enunciato a cui, per brevità, ci riferiremo d’ora in poi con l’etichetta LNS. LNS: P è una legge se e solo se X dove P è una generalizzazione qualunque, e X rappresenta una sorta di “segnaposto” da sostituire con un insieme di affermazioni che rappresentano le condizioni necessarie e sufficienti (da qui il suffisso NS) perché P possa essere qualificato come “legge” (Per interpretare correttamente il significato dell’espressione “condizioni necessarie e sufficienti” si veda la scheda Condizioni necessarie e condizioni sufficienti a pag. 71). Quale insieme di condizioni dovremmo sostituire alla X in modo da poter discriminare le “leggi” propriamente intese da generalizzazioni che non possono meritarsi tale titolo onorifico? Per esempio, quale insieme di condizioni ci permette di distinguere enunciati come il numero 1 da enunciati come il numero 2? Per aiutare il lettore a comprendere la natura del problema facciamo un primo esempio. Una possibile affermazione da sostituire a X è la seguente: «P è vero». L’enunciato LNS diventa, quindi, «P è una legge se e solo se P è vero». Quella che abbiamo ottenuto è una possibile soluzione al problema filosofico delle leggi, che può essere parafrasata nel modo seguente: una generalizzazione è qualificabile come legge se e solo se è vera. Si tratta di una soluzione adeguata? La caratteristica che distingue le generalizzazioni come la numero 1 da generalizzazioni come la numero 2 è legata al loro valore di verità? Uno dei vari metodi che seguiremo per valutare l’adeguatezza di una certa proposta di soluzione al problema filosofico delle leggi (simile a quello adottato nel capitolo precedente in relazione al modello ND) consiste nell’identificare dei controesempi. In casi come questo si tratta di trovare dei controesempi alla tesi secondo cui una generalizzazione è qualificabile come legge se e solo se è vera (oppure,
Le leggi
in altri termini, secondo cui le leggi sono tutte e solo le generalizzazioni vere). Con un minimo di riflessione ci potremo convincere del fatto che un controesempio a questa possibile soluzione è costituito da (a) un esempio di generalizzazione che intuitivamente qualificheremmo come legge ma che è falsa, oppure da (b) un esempio di generalizzazione vera che però non qualificheremmo intuitivamente come legge. Ci impegneremo in analisi di questo tipo nella sezione 4.4 (Verità) proprio per controllare l’adeguatezza della soluzione che abbiamo preso come esempio. Naturalmente valuteremo altre possibili soluzioni, anche attraverso altri metodi di analisi. Un completamento adeguato dell’enunciato LNS ci dovrebbe fornire, come abbiamo osservato, un insieme di condizioni necessarie e sufficienti per qualificare una generalizzazione come legge. In generale, nel corso dell’analisi che seguirà, ci porremo un problema solo apparentemente più semplice: quello di identificare condizioni soltanto necessarie perché una qualsiasi generalizzazione P possa essere considerata legge, condizioni cioè che P non può non possedere per essere considerata tale. In altre parole, condizioni che sono soddisfatte da tutte le leggi (ma non solo da esse: altrimenti quell’insieme di condizioni sarebbe non soltanto necessario ma anche sufficiente). Questo problema può essere espresso come il problema di completare adeguatamente il seguente enunciato. LN: P è una legge solo se X Perché il problema filosofico delle leggi di natura, nelle due forme in cui lo abbiamo presentato, è importante? Perché, come abbiamo sottolineato all’inizio di questo capitolo, le leggi sono al centro di un’impressionante varietà di attività umane, sia nell’ambito della nostra vita quotidiana che nell’ambito della ricerca scientifica. Pensiamo alla previsione, alla spiegazione e al controllo dei fenomeni, che costituiscono, come abbiamo notato all’inizio del capitolo sulla spiegazione scientifica, attività comunemente praticate dagli scienziati e dai tecnologi. Sarebbe poco ragionevole basare una previsione sull’enunciato 1, affermando che a Parigi tra una settimana pioverà sulla base del fatto che Luigi la visiterà in quei giorni. Nulla ci impedisce di farlo, ma con tutta probabilità riterremmo di non doverci fidare troppo di una previsione fondata su basi così deboli. Al contrario non avremmo alcun dubbio rispetto al fatto che, se scalderemo un certo pezzo di metallo, esso si dilaterà. Ora pensiamo alla spiegazione. Perché la scorsa settimana a Parigi pioveva? Possibile risposta: perché Luigi era lì, e tutte le volte che Luigi va a Parigi piove. Questa spiegazione soddisfa il requisito R1 del modello ND (l’explanandum può essere dedotto dall’explanans sulla base di un’unica applicazione della regola di inferenza modus ponens). Tuttavia, con tutta probabilità, non saremmo molto soddisfatti da essa. C’è qualcosa che non va nelle sue premesse: l’enunciato 1 è una base esplicativa troppo debole. Supponiamo invece di renderci conto che un certo oggetto ha aumentato il suo volume e di chiedere perché; qualcuno risponde affermando che quell’oggetto è di metallo ed è stato riscaldato, e tutti i metalli riscaldati si dilatano. Si tratterebbe, come
99
100
Le leggi
nell’esempio precedente, di una spiegazione deduttiva; tuttavia, al contrario della precedente, la giudicheremmo molto più “solida” proprio perché la generalizzazione coinvolta («tutti i metalli riscaldati si dilatano») ci sembra asserire una connessione non accidentale tra eventi. Infine, attribuiamo alle leggi un ruolo chiave nel controllo della realtà e nelle nostre 09
Generalizzazioni accidentali e previsione Anche generalizzazioni che definiremmo accidentali, in certi casi, possono fornire buone basi predittive. Prendiamo in considerazione per esempio «Tutte le sfere d’oro hanno un diametro minore di 10000 km». Diremmo che vi è una relazione accidentale tra il fatto di essere una sfera d’oro e il fatto di avere diametro minore di 10000 km; che non vi siano motivazioni di principio per negare la possibilità dell’esistenza di una sfera d’oro così grande. Però non vi è così tanto oro sulla Terra, e questo è un buon motivo per fidarci del fatto che tutte le sfere d’oro abbiano effettivamente diametro minore di 10000 km, dunque che, la prossima volta in cui ci troveremo di fronte a una sfera d’oro, essa non raggiungerà quel diametro. Altre generalizzazioni accidentali, come l’enunciato 1, non possono comunque fornire solide basi predittive. La sezione 4.4 fornirà altri strumenti per approfondire questo punto.
decisioni di carattere pratico. L’enunciato numero 1 non è di grande utilità da questo punto di vista. Pensiamo di dover pianificare un viaggio turistico a Parigi: sarebbe irragionevole decidere se andare o meno in funzione della presenza di Luigi a Parigi. L’enunciato 2, invece, è molto più affidabile, com’è ovvio dal fatto che molto spesso utilizziamo un termometro a mercurio per misurare la febbre (sfruttando la legge secondo la quale i metalli riscaldati si dilatano), e che dunque decidiamo se prendere o no delle medicine, se andare o no al lavoro, se chiamare o meno il medico, sulla base del valore della temperatura indicata dal termometro. La centralità delle leggi nelle attività predittive, esplicative e manipolative di tutti i giorni sta alla base della centralità della nozione di “legge” nell’analisi di una molteplicità di concetti filosofici, sia nell’ambito della filosofia della scienza (fondamentale è il ruolo delle leggi nell’analisi della causalità e della spiegazione), sia nella teoria della conoscenza, sia in altri ambiti maggiormente legati alla sfera etica e politica. Vale dunque la pena tentare di capire cosa distingue l’enunciato 1 dall’enunciato 2 e, più in generale, perché riteniamo che alcuni enunciati non possano essere qualificati come “leggi di natura”. Questo problema, tra l’altro, ha una grande ricaduta anche su una questione di elevato interesse per coloro che svolgono attività di ricerca in discipline come la biologia (nelle sue diverse articolazioni disciplinari), l’economia, la psicologia e altre aree di ricerca che rientrano nel vasto ambito delle cosiddette “scienze umane”. Queste discipline sono spesso classificate dai filosofi come “scienze speciali” anche sulla base del presupposto, generalmente affermato come se fosse una ovvietà (a cui abbiamo accennato brevemente nel capitolo precedente), secondo cui le generalizzazioni formulate in tali ambiti di ricerca non possano ricevere il blasonato titolo di “legge” al
Le leggi
contrario di molte generalizzazioni formulate nell’ambito di discipline come la fisica e la chimica (spesso per questo motivo classificate come “scienze dure”). La distinzione tra “scienze dure” e “scienze speciali”, che molti semplicemente danno per scontata, e che spesso conferisce una patina peggiorativa alle discipline del secondo tipo, si fonda anche sulla distinzione tra “leggi” ed enunciati che non possono meritare tale titolo. Purtroppo quest’ultima distinzione, per quanto intuitivamente plausibile, non è così solida come si potrebbe pensare in prima battuta. In questo capitolo vedremo perché.
4.2 Analisi riduzioniste e non riduzioniste Prima di cominciare è opportuno tracciare una prima distinzione tra soluzioni riduzioniste e soluzioni non riduzioniste al problema filosofico delle leggi. Ricordiamo che il problema consiste nel completare l’enunciato «P è una legge se e solo se X» (oppure «P è una legge solo se X»). Se vogliamo che al posto della X compaia un’affermazione che non faccia riferimento né esplicito né implicito alla nozione di “legge”, allora vogliamo trovare una soluzione riduzionista al problema filosofico di cui ci stiamo occupando. Se invece sostituiamo la X con un’affermazione che fa anche solo indirettamente riferimento alla nozione di “legge”, proponiamo una soluzione non riduzionista. Facciamo qualche esempio. La condizione «P è vero» che abbiamo considerato poco fa è riduzionista, perché non c’è nulla in tale condizione che faccia riferimento diretto o indiretto alla nozione di “legge”. Il problema di discriminare tra leggi e non-leggi viene ridotto al problema di discriminare tra enunciati veri e non veri, problema quest’ultimo che non richiama a sua volta la nozione di legge. Vi sono invece buoni motivi per ritenere che l’espressione «P esprime una connessione causale» fornisca una soluzione non riduzionista al problema delle leggi (LNS diventerebbe «P è una legge se e solo se P esprime una connessione causale»). Tale soluzione fa riferimento alla nozione di “relazione causale”: ma cosa sono le relazioni causali? Tentare di fornire una buona analisi della nozione di “relazione causale” che non faccia riferimento alla nozione di “legge” è impresa straordinariamente difficile (cfr sezione 5.2, Causalità). Molti filosofi preferiscono tentare soluzioni riduzioniste al problema filosofico delle leggi perché giudicano insoddisfacente l’alternativa. Le soluzioni non riduzioniste – quelle in cui l’affermazione da sostituire a X contiene il riferimento alla nozione di “legge” – offrono secondo molti un’analisi poco informativa della nozione di “legge”, e il motivo è intuitivamente chiaro: le soluzioni non riduzioniste sono in un certo senso circolari. Prendiamo per esempio la seguente possibile soluzione al problema delle leggi (senza preoccuparci tanto della sua plausibilità quanto, appunto, delle conseguenze del suo carattere non riduzionista): P è una legge se e solo se è possibile spiegare P sulla base delle leggi della fisica.
101
102
Le leggi
Ciò che abbiamo sostituito alla X in questa affermazione («è possibile spiegare P sulla base delle leggi della fisica») fa un riferimento esplicito alla nozione di “legge” poiché contiene proprio quel termine. Si fa inoltre un riferimento indiretto alla nozione di “legge” chiamando in causa la nozione di “spiegazione”, sotto l’assunzione (che abbiamo discusso nel capitolo precedente) secondo cui la nozione di “legge” gioca un ruolo chiave nell’analisi filosofica della nozione di “spiegazione”. Insomma, la soluzione che abbiamo proposto è circolare: abbiamo tentato di analizzare la nozione di “legge” sulla base della nozione di “legge” e questo, secondo molti filosofi, rende l’analisi poco informativa. Altri filosofi ammettono senza imbarazzo di essere interessati anche a soluzioni non riduzioniste al problema della spiegazione scientifica. Anzitutto perché – come vedremo in questo capitolo – la mancanza di buone analisi riduzioniste della nozione di “legge”, che continua a essere uno dei problemi aperti più affascinanti e interessanti nella filosofia della scienza (e non solo), è un dato di fatto. In secondo luogo è bene notare che le soluzioni non riduzioniste non sono sempre e totalmente inutili. Certo, esse non servono a granché se vogliamo capire cosa distingue le leggi dalle non-leggi in generale. Ma se abbiamo scopi più ristretti, anche un’analisi non riduzionista può essere utile. Se per esempio il nostro scopo è quello di prendere posizione su un particolare enunciato – per esempio, decidere se l’enunciato «i metalli, se scaldati, si dilatano» è una legge – allora la soluzione non riduzionista che abbiamo proposto può funzionare. La tesi secondo cui «P è una legge se e solo se è possibile spiegare P sulla base delle leggi della fisica», per esempio, implica il seguente enunciato: «I metalli, se scaldati, si dilatano» è una legge se e solo se è possibile spiegare «i metalli, se scaldati, si dilatano» sulla base delle leggi della fisica.
Pur non disponendo di un’analisi riduzionista della nozione di “legge” possiamo comunque essere d’accordo, magari su basi pre-teoriche e intuitive, sul fatto che alcune tra le generalizzazioni della fisica si meritino di essere considerate “leggi”. Possiamo spiegare “I metalli, se scaldati, si dilatano” sulla base di tali generalizzazioni? Se rispondiamo affermativamente a questa domanda, anche in assenza di una buona analisi riduzionista della nozione di “legge” in generale, ciò implica – in base all’analisi non riduzionista proposta – che anche l’enunciato in questione sia classificabile come “legge”. Un risultato forse più modesto rispetto a quello di trovare una buona soluzione al problema filosofico generale delle leggi; tuttavia un risultato di un qualche rilievo, che illustra come anche le analisi non riduzioniste della nozione di “legge” possano avere qualche virtù33.
33
Tra i filosofi che sostengono posizioni non riduzioniste sulle leggi si veda Carroll [2008] e Lange [2000].
Le leggi
4.3 Universalità delle leggi Nelle pagine seguenti intraprenderemo un percorso del tutto analogo a quello che abbiamo seguito nell’analisi del problema filosofico della spiegazione scientifica: cercheremo di “tradurre” in forma esplicita e ragionevolmente precisa alcune idee intuitive sulle caratteristiche che distinguono enunciati come il numero 1 da enunciati come il numero 2. Una prima proposta da esplorare chiama in causa l’universalità delle leggi. Sembra fin troppo ovvio pretendere che il termine “legge” venga riservato soltanto a enunciati di carattere universale, che non valgano soltanto in certe regioni dello spazio, periodi di tempo o contesti particolari. Questa intuizione marca, almeno in prima battuta, una differenza sostanziale tra l’enunciato 1 e l’enunciato 2. Il primo si riferisce esplicitamente a un particolare individuo (Luigi) e a un particolare luogo del mondo (Parigi), mentre il secondo appare decisamente più generale, riferendosi indistintamente a tutti i metalli. È l’universalità il “marchio” delle leggi? L’idea sembra appetibile ma è ancora troppo vaga: è necessario precisare cosa intendiamo per “universalità”. Per affrontare questo punto è opportuno ricordare che gli enunciati che prenderemo in considerazione come possibili candidati per l’assegnazione del titolo di “legge” sono enunciati che esprimono regolarità, ovvero generalizzazioni. Si noti come questa scelta sia leggermente più restrittiva rispetto all’uso che spesso viene fatto, nell’ambito della ricerca scientifica, della parola “legge”. Talvolta si parla di “legge” anche in riferimento a enunciati che non esprimono regolarità, come nel caso di enunciati che assegnano il valore a certe costanti: si dice, per esempio, che per legge la costante di gravitazione universale è pari a 6,67428 10-11 m3kg-1s-2. Nelle pagine che seguono utilizzeremo il termine “legge” soltanto per riferirci a generalizzazioni di un certo tipo, dunque senza considerare enunciati come quello appena menzionato. Più in particolare, prenderemo in considerazione particolari tipi di generalizzazioni: enunciati che esprimono relazioni regolari tra eventi ed enunciati, di varia forma, che esprimono relazioni regolari tra proprietà. Semplificando un po’, la maggior parte delle generalizzazioni che prenderemo in esame avranno una delle seguenti forme. - Relazione tra proprietà. Si stabilisce una relazione regolare tra il possesso di una certa proprietà A e il possesso di una proprietà B. La struttura canonica è: «Tutte le cose che possiedono la proprietà A possiedono anche la proprietà B». Un esempio è: «Tutte le sfere d’oro hanno diametro minore di 1 km». - Relazioni tra eventi. Si stabilisce una relazione regolare tra eventi di tipo P ed eventi di tipo Q. Generalizzazioni di questo tipo possono presentarsi in più forme, tra cui le seguenti. • Relazioni semplici tra eventi. «Tutte le volte che si verifica un evento di tipo P si verifica, dopo un certo intervallo di tempo, un evento di tipo Q». Un esempio di relazione semplice tra eventi è l’enunciato 1: «Tutte le volte
103
104
Le leggi
che Luigi va a Parigi piove», in cui si stabilisce una relazione regolare tra eventi del tipo “Luigi va a Parigi” ed eventi del tipo “piove”. • Relazioni tra proprietà ed eventi regolari. In altri casi si afferma la sussistenza di una relazione regolare tra eventi ristretta a oggetti che possiedono una certa proprietà A. La forma dell’enunciato, in questi casi, può essere ricondotta alla seguente: «Per qualsiasi oggetto che possiede la proprietà A, tutte le volte che si verifica un evento di tipo P che riguarda quell’oggetto si verifica, dopo un certo intervallo di tempo, un evento di tipo Q che riguarda quell’oggetto». Un esempio di questo tipo di generalizzazioni è l’enunciato 2: «I metalli, se scaldati, si dilatano». Questo enunciato afferma infatti che sussiste una certa regolarità tra eventi di un certo tipo (“essere scaldato” e “dilatarsi”) solo per oggetti che possiedono una certa proprietà (“essere di metallo”). In altre parole: per qualsiasi oggetto di metallo, tutte le volte che tale oggetto viene scaldato esso, dopo un certo intervallo di tempo, si dilata. La distinzione che abbiamo appena tracciato tra diversi tipi di generalizzazioni può sembrare un po’ macchinosa. Tuttavia comprendere la struttura interna delle generalizzazioni è importante per riflettere sul problema filosofico delle leggi: in linea generale sarà utile tentare di ricondurre gli esempi che prenderemo in considerazione, alla ricerca del “marchio” distintivo delle leggi, a una delle strutture standard che abbiamo appena presentato. Ed è fondamentale tenere a mente il fatto che qualsiasi generalizzazione (che assuma una delle forme appena introdotte, o una variante più articolata) esprime un’affermazione che “vale” per tutti gli eventi di un certo tipo o tutti gli individui che possiedono certe proprietà. Torneremo più avanti a riflettere sul significato di questa considerazione. Chiusa questa parentesi torniamo a esaminare la proposta di soluzione al problema filosofico delle leggi che chiama in causa l’universalità. Cosa vogliamo dire quando pensiamo che le leggi debbano avere un carattere universale, e che tale carattere universale manca all’enunciato 1? Riferimento a termini individuali Abbiamo già notato come l’enunciato 1 faccia riferimento a luoghi specifici (Parigi) e individui specifici (Luigi) al contrario dell’enunciato 2, che fa riferimento indistintamente a tutti i metalli. Potremmo dunque essere tentati di imporre, come condizione necessaria e sufficiente perché un enunciato P sia qualificabile come “legge”, che esso non faccia riferimento a specifici luoghi o individui34. LNS1: P è una legge se e solo se P non contiene riferimenti espliciti o impliciti a particolari luoghi o individui. 34
Si veda Nagel [1968, cap. 4, par. III].
Le leggi
È facile convincersi che questa idea non può funzionare. Anzitutto, il fatto che P non faccia riferimento a specifici luoghi o individui non può costituire una condizione sufficiente perché P sia adeguatamente classificabile come “legge”. L’enunciato «Tutte le sfere d’oro hanno diametro minore di 1 km» non fa esplicito riferimento a luoghi o individui, ma non per questo è classificabile come generalizzazione non accidentale. Inoltre, il fatto di non far riferimento a specifici luoghi o individui non può costituire nemmeno una condizione necessaria perché una generalizzazione sia qualificabile come legge, ovvero una condizione che tutte le leggi devono soddisfare. Vengono infatti chiamate “leggi” scientifiche anche generalizzazioni che coinvolgono riferimenti a oggetti specifici. L’enunciato conosciuto come “prima legge di Keplero” è un esempio: «l’orbita descritta da un pianeta è un’ellisse, di cui il Sole occupa uno dei due fuochi». Questo enunciato fa esplicito riferimento a un oggetto specifico, cioè il Sole: se volessimo imporre il criterio appena formulato saremmo costretti a negare a esso il titolo di “legge”. Eppure quell’enunciato è comunemente conosciuto proprio come “prima legge di Keplero”! Poco male, si potrebbe obiettare: se questa analisi filosofica della nozione di “legge” si reggesse su basi solide potremmo sentirci giustificati ad affermare che quella di chiamare “legge” la prima legge di Keplero è soltanto una consuetudine secolare, un fatto puramente terminologico. Ma una breve riflessione ci convincerà del fatto che non si tratta di una questione puramente terminologica. Al di là del fatto che l’enunciato «l’orbita descritta da un pianeta è un’ellisse, di cui il Sole occupa uno dei due fuochi» venga convenzionalmente chiamato “legge” oppure no da parte della comunità scientifica, sta di fatto che il criterio di universalità appena formulato classificherebbe l’enunciato «l’orbita descritta da un pianeta è un’ellisse, di cui il Sole occupa uno dei due fuochi» nello stesso insieme dell’enunciato «ogni volta che Luigi va a Parigi, piove», ovvero nell’insieme delle non-leggi. Entrambi gli enunciati (la prima legge di Keplero e l’enunciato numero 1) contengono infatti il riferimento a luoghi o individui specifici. Questa conclusione è decisamente contro-intuitiva. Molti di noi non avrebbero alcun dubbio nell’affermare che l’enunciato «l’orbita descritta da un pianeta è un’ellisse, di cui il Sole occupa uno dei due fuochi», nonostante contenga un riferimento a oggetti specifici, esprima una regolarità che è tanto non accidentale quanto quella espressa dalla generalizzazione sui metalli riscaldati; e che entrambe le generalizzazioni non stiano sullo stesso piano di quella, intuitivamente classificabile come accidentale, espressa dall’enunciato 1. Il criterio LNS1 dunque ammette dei controesempi: dobbiamo perciò concludere che il riferimento a luoghi, individui e oggetti specifici non ha molto a che fare con la differenza tra leggi e non-leggi. Condizioni al contorno Prendiamo allora in considerazione un altro possibile modo di interpretare il requisito secondo cui il titolo di “legge” dovrebbe essere riservato solo a enunciati universali, in un senso del termine “universale” relativo, ancora una volta, alla non ristrettezza spazio-
105
106
Le leggi
temporale dell’enunciato, ma in un senso piuttosto diverso rispetto a quello analizzato poche righe addietro. Il problema che stiamo per discutere è molto importante – per questo lo riprenderemo nelle sezioni successive – perché non pochi filosofi hanno fatto riferimento a questa interpretazione del requisito di universalità, o a sue varianti, per affermare che in certe aree di indagine scientifica (come nelle “scienze speciali” a cui abbiamo fatto cenno nell’introduzione a questo capitolo) ma non in altre (fisica e chimica) non troviamo esempi di leggi “vere e proprie”. Il punto è il seguente. In molte discipline scientifiche capita di incontrare enunciati che esprimono regolarità non accidentali tra proprietà o eventi; ma tali proprietà o eventi sono regolarmente connessi soltanto a patto che si verifichino alcune condizioni al contorno, spesso in numero enormemente alto. Prendiamo in considerazione le neuroscienze (ma moltissimi esempi possono essere facilmente identificati in altre aree della biologia, così come in psicologia, economia, sociologia e altro ancora). È noto ormai da alcune decine di anni che in una certa regione del cervello dei ratti, detta “formazione ippocampale”, esistono neuroni la cui attività elettrica è correlata alla posizione dell’animale nello spazio. In pratica, ciascun neurone (in quel gruppo di neuroni) si attiva se e solo se il ratto si trova in una particolare posizione dello spazio. Semplificando un po’ per non introdurre dettagli biologici non necessari, immaginiamo di riferirci a un particolare neurone della formazione ippocampale – chiamiamolo N – che si attiva se il ratto si trova in prossimità dell’angolo superiore sinistro della sua gabbia. Affermiamo dunque che «ogni volta che il ratto si trova nell’angolo superiore sinistro della gabbia, il neurone N si attiva». Questa generalizzazione (connessione regolare tra eventi) può essere considerata a buon diritto una legge? Essa si riferisce a particolari oggetti (un neurone specifico nel cervello del ratto) e a particolari regioni dello spazio (l’angolo superiore sinistro della gabbia). Ma, come abbiamo già sottolineato, questa caratteristica non costituisce un deterrente particolare alla possibilità di chiamare quell’enunciato una “legge”. Il motivo per cui molti esiterebbero a considerare tale generalizzazione una legge è relativo al fatto che la regolarità in questione – tra la posizione del ratto e l’attività del neurone N – vale soltanto a patto che valgano numerose circostanze al contorno, che fanno riferimento a fattori fisiologici dell’organismo, a proprietà dell’ambiente che circonda il ratto, e così via. - Anzitutto, è noto che affinché quella regolarità abbia luogo il neurone N deve trovarsi in una particolare condizione fisiologica: deve essere “a riposo”, cioè inattivo almeno da un certo (piccolo) lasso di tempo. Allora dovremmo emendare la generalizzazione che stiamo prendendo in esame nel modo che segue: «ogni volta che il ratto si trova nell’angolo superiore sinistro della gabbia il neurone N si attiva, a patto che N sia a riposo». - È anche noto che, affinché i neuroni della formazione ippocampale si attivino in corrispondenza della posizione spaziale del ratto, non deve essere avvenuto
Le leggi
alcun recente mutamento sostanziale nelle caratteristiche interne della gabbia: non devono essere stati aggiunti altri oggetti, modificate le sue dimensioni, e così via. In poche parole, l’ambiente deve essere rimasto immutato da quando il ratto si trova nella gabbia. Allora dobbiamo emendare ulteriormente la generalizzazione: «ogni volta che il ratto si trova nell’angolo superiore sinistro della gabbia il neurone N si attiva, a patto che N sia a riposo e che l’ambiente sia rimasto immutato da quando il ratto si trova nella gabbia». E così via: potremmo procedere in questo modo molto a lungo, perché le possibili circostanze perturbatrici sono moltissime. In ogni caso, poche o molte che siano, la regolarità che coinvolge il neurone N ha luogo solo a patto che si verifichino certe condizioni al contorno. Si tratta dunque di una regolarità settoriale e sofisticata, che vale soltanto in certi tipi di ambienti e sotto circostanze di un certo tipo (quelle, appunto, in cui le varie condizioni al contorno sono vere). È difficile identificare una generalizzazione in biologia (in psicologia, in economia, in sociologia e in tante altre discipline di ricerca) che non si trovi nella stessa condizione di quella che abbiamo appena esaminato. È un dato di fatto che praticamente qualsiasi generalizzazione biologica esprime una regolarità che vale soltanto in particolari contesti e ambienti. Lo stesso dicasi per le generalizzazioni formulate in psicologia, che sono vulnerabili a un insieme molto alto di fattori al contorno relativi sia alle variabilità psicologiche che contraddistinguono ciascun essere umano, sia alla complessità del contesto ambientale in cui ciascuno di noi vive. L’insieme delle condizioni al contorno associate alle generalizzazioni che troviamo in questi ambiti di indagine è spesso enormemente alto, e nella maggior parte dei casi gli scienziati fanno riferimento a tali generalizzazioni essendo ben consapevoli di non essere ancora riusciti a identificare un elenco esaustivo delle circostanze al contorno corrispondenti, e che tale difficile compito potrebbe richiedere scale temporali sovrumane. Una regolarità che vale soltanto in certi ambienti e in circostanze di un certo tipo può sembrare tanto meno meritevole della qualifica “universale” quanto più ristretto è il suo dominio di validità. Sulla scia di questa idea potremmo supporre che il fatto di dipendere da un numero estremamente basso, o nullo, di condizioni al contorno costituisca una condizione necessaria e sufficiente perché una generalizzazione sia qualificabile come legge, dunque che tutte le leggi dovrebbero dipendere da poche condizioni al contorno (o nessuna). LNS2: P è una legge solo se P è soggetta a un numero molto basso, o nullo, di condizioni al contorno. Questa idea, in varianti più o meno sofisticate, ha condotto molti a ritenere che molte discipline di ricerca “speciali” non conoscano leggi vere e proprie. In base a questa idea le generalizzazioni biologiche, psicologiche, economiche (e di altre discipline
107
108
Le leggi
scientifiche), essendo dipendenti da miriadi di condizioni al contorno, sarebbero troppo “settoriali” per poter essere considerate leggi al contrario di quelle, per esempio, della fisica o della chimica. Non si può negare che le premesse di questo ragionamento colgano nel segno. È vero che le generalizzazioni biologiche e di molte altre discipline di ricerca sono soggette a un enorme numero di circostanze al contorno. Ma perché questo dovrebbe costituire una buona ragione per negare a esse il titolo di “legge”? In primo luogo, se immaginiamo di eliminare dall’insieme di tutte le generalizzazioni scientifiche – non solo formulate nell’ambito delle “scienze speciali”, ma anche in fisica e in chimica – tutte quelle che sappiamo essere soggette a un certo numero di condizioni al contorno, rimane senz’altro ben poco. Per fare un esempio, anche la regolarità espressa dall’enunciato 2 è soggetta a condizioni al contorno. I metalli riscaldati si dilatano; sì, ma non se allo stesso tempo applichiamo una forza di compressione esterna che contrasta la dilatazione. Il cloruro di sodio si scioglie in una soluzione acquosa, ma solo se tale soluzione non è satura. Anche un principio al quale nessuno negherebbe la qualifica di “universale” come, appunto, la legge di gravitazione universale è soggetto a molte condizioni al contorno. Due corpi si attraggono con una forza direttamente proporzionale al prodotto delle masse e inversamente proporzionale al quadrato della loro distanza a meno che essi non siano elettricamente carichi: la carica elettrica dei due corpi influisce sulla forza della loro attrazione reciproca. Ma non solo: la forza con cui si attraggono due corpi dipende naturalmente anche dalla presenza di altri corpi, ognuno dei quali eserciterà un’attrazione gravitazionale su di essi. E così via: anche la legge di gravitazione universale, come praticamente tutte le generalizzazioni biologiche, psicologiche, economiche, è soggetta a un gran numero di condizioni al contorno. Potremmo provare a obiettare che il numero delle condizioni al contorno associate alle generalizzazioni fisiche o chimiche è generalmente minore del numero delle condizioni al contorno associate alle generalizzazioni biologiche, e che quindi le prime sono meno “settoriali” e dipendenti dal contesto delle seconde. Ma siamo proprio sicuri che sia così? E poi, qual è il numero di condizioni al contorno sotto il quale si può parlare di “legge”, e sopra il quale si deve invece parlare di generalizzazione “specialistica”? Qualsiasi generalizzazione scientifica – tanto nelle “scienze speciali” quanto nelle “scienze dure” – è soggetta a un certo numero di condizioni al contorno. Allora, se vi è una qualche distinzione tra leggi e generalizzazioni accidentali (e se vi è un qualche fondamento razionale all’idea che certe discipline scientifiche non coinvolgano leggi), dobbiamo guardare altrove: la tesi LNS2 non solo non fornisce un buon criterio di distinzione, ma implica che la nozione di “legge” è un concetto vuoto.
Riepilogo Abbiamo tentato di interpretare in vari modi l’idea secondo cui l’universalità di un enunciato permette di discriminare leggi da generalizzazioni che non meritano
Le leggi
questo titolo. Ma il risultato di questo percorso è stato deludente: non abbiamo trovato modi sensati di applicare questa idea al problema di discriminare le leggi dalle generalizzazioni di carattere accidentale. Dovremo dunque provare a cercare altrove il criterio che discrimina tra leggi e generalizzazioni accidentali, un criterio che, in ultima analisi, possa dare un qualche fondamento all’opinione condivisa da molti filosofi della scienza secondo cui certe discipline scientifiche, specialmente quelle dedicate allo studio della complessità del vivente, non possano ambire alla formulazione di leggi vere e proprie. Del resto, tutte le generalizzazioni che abbiamo preso in considerazione, in qualsiasi modo le vogliamo classificare, sono in qualche senso universali: se esprimono relazioni regolari tra eventi o proprietà, aderendo alle strutture canoniche che abbiamo messo in evidenza qualche pagina addietro, esse esprimono qualcosa a proposito di tutti gli oggetti che possiedono una qualche proprietà o che si trovano coinvolti in eventi di un certo tipo. Tutti gli oggetti metallici, se riscaldati, si dilatano. Tutte le volte in cui Luigi va a Parigi, piove. Anche se il criterio dell’universalità sembra a prima vista piuttosto plausibile, non è chiaro come esso possa essere formulato in modo sufficientemente esplicito e preciso da permetterci di sostituire adeguatamente la X negli enunciati LNS e LN. Proviamo dunque a guardare altrove. 4.4 Verità Qualunque altra caratteristica possiedano le leggi, sembra naturale imporre che esse siano quantomeno generalizzazioni vere. Cosa significa affermare che una generalizzazione è vera? L’enunciato «Tutti i cigni sono bianchi» è vero se e solo se tutti i cigni sono bianchi, ovvero se non c’è alcun punto del mondo, accessibile o meno all’occhio umano, in cui vive un cigno nero. Questo enunciato è falso, dal momento che l’Australia è terra di cigni neri: vi è dunque un controesempio a questa generalizzazione. Non c’è quindi una connessione solida tra la proprietà “essere cigno” ed “essere nero”. Invece, se teniamo conto delle debite condizioni al contorno, potremmo in linea di principio esprimere una generalizzazione vera che leghi l’aumento di temperatura di un pezzo di metallo all’aumento del suo volume. Sulla base di questa semplice considerazione potremmo allora proporre il seguente sostituto della X nell’enunciato LNS: LNS3: P è una legge se e solo se P è vero. È necessario a questo punto fare una precisazione molto importante, toccando un tema che riprenderemo nella sezione 6.2 (Breve intermezzo su convinzione, verità e giustificazione). Affermare che P è una legge se e solo se P è vero è ben diverso dall’affermare che P è una legge se e solo se sappiamo che P è vero. Dato che «tutti i cigni sono bianchi» è un enunciato falso cambiamo esempio, volatile e colore per illustrare
109
110
Le leggi
questo punto: «tutti i corvi sono neri». Oggi crediamo che questa generalizzazione sia vera, perché finora non è mai stato identificato un corvo bianco. Abbiamo quindi una valida giustificazione per affermare che tutti i corvi sono neri, una giustificazione che si basa sull’assenza di prove osservative contrarie. Ciò non toglie, tuttavia, la possibilità che l’enunciato «tutti i corvi sono neri» sia falso magari perché, da qualche parte nel mondo, vive un corvo bianco che nessuno ha mai visto, e che magari nessuno vedrà mai (perché per esempio morirà prima che l’occhio umano lo raggiunga). Se stanno così le cose, «tutti i corvi sono neri» è falso indipendentemente da qualsiasi nostra convinzione al proposito e al di là del fatto che abbiamo o meno qualche prova dell’esistenza di un corvo bianco. Stipulando che «P è una legge se e soltanto se P è vero» esigiamo che P sia vero, non che riteniamo P vero. La verità di una generalizzazione è condizione necessaria e sufficiente perché quella generalizzazione sia considerabile come legge? Non è certo condizione sufficiente. Un esempio un po’ artificioso, ma tuttavia plausibile e adatto a discutere questo punto, è il seguente35. Supponiamo che Luigi abbia appena comprato un paio di pantaloni e li indossi, mettendo in tasca un certo numero di monete da 20 centesimi, e supponiamo che stasera quei pantaloni verranno distrutti in un incendio. Quelle monete da 20 centesimi saranno le uniche monete che verranno messe nella tasca dei pantaloni di Luigi. Quindi l’enunciato «Tutte le monete nei pantaloni di Luigi sono di 20 centesimi» è vero. Ma non lo considereremmo certo come una legge! Allora il fatto che una generalizzazione sia vera non può essere condizione sufficiente perché quella generalizzazione possa dirsi legge. Può però darsi il caso che la verità di una generalizzazione sia una condizione necessaria, anche se non sufficiente, perché quella generalizzazione possa essere considerata una legge, ovvero che tutte le leggi siano generalizzazioni vere. LN4: P è una legge solo se P è vero. Questa idea sembra essere del tutto innocua: come potremmo considerare legge una generalizzazione falsa? In un senso ancor più generale, come potremmo utilizzare una generalizzazione falsa per formulare, prevedere, spiegare e controllare certi aspetti della realtà? Eppure, il requisito secondo cui le leggi devono essere vere genera un insieme di problemi di ampio raggio, molti dei quali costituiscono attuali temi di discussione nella comunità filosofica internazionale. Vale la pena di esporli brevemente, anche perché chiamano in causa questioni che abbiamo trattato, seppur con altre finalità, nella sezione precedente dedicata al requisito di universalità.
35
Carroll [1994, 1].
Le leggi
Condizioni al contorno Abbiamo sottolineato il fatto che la maggior parte delle generalizzazioni formulate in varie aree della ricerca scientifica, se non tutte, valgono solo a condizione che valga un elevato numero di condizioni al contorno. «I metalli, se scaldati, si dilatano, a patto che valgano le condizioni C1, …, Cn» (una di queste condizioni è che il pezzo di metallo non sia compresso da oggetti esterni, che ne impediscono la dilatazione). «Ogni volta che il ratto si trova nell’angolo superiore sinistro della gabbia il neurone N spara, a patto che valgano le condizioni D1, …, Dn» (una delle quali è il fatto che il neurone N si trovi a riposo). «Due corpi si attraggono con una forza direttamente proporzionale al prodotto della loro massa e inversamente proporzionale al quadrato della loro distanza a patto che valgano le condizioni E1, …, En» (che i due corpi non siano elettricamente carichi, che non vi sia l’influenza gravitazionale di un terzo corpo, e altro ancora). E così via. Gli scienziati, in qualsiasi area di ricerca, sono costantemente impegnati nel tentativo di identificare tutte le condizioni al contorno associate alle generalizzazioni da essi formulate. Nella maggior parte dei casi l’elenco è lunghissimo: enorme, per esempio, è il numero di condizioni fisiologiche e ambientali che devono essere soddisfatte perché un sistema “complesso” come un organismo vivente, o una parte di esso, si comporti in modo effettivamente regolare. Può venire il sospetto – se non altro, per sfinimento – che nella maggior parte dei casi l’elenco sia enormemente elevato, e che dunque il proposito di giungere a un elenco completo sia senza speranza. Ma non vi sono particolari ragioni a priori per adottare una così radicale posizione, anche sulla base del fatto che, se moltissime sono le condizioni fisiologiche ambientali che devono valere, è naturale sostenere che siano moltissime anche le condizioni del tutto irrilevanti – per esempio, rispetto al fatto che il neurone N si attivi quando il ratto si trova nell’angolo superiore sinistro della gabbia è certamente indifferente il fatto che un gatto si trovi a 1000 km di distanza. Perché il fatto che le generalizzazioni scientifiche siano ordinariamente soggette a una miriade di condizioni al contorno costituisce un elemento rilevante per parlare della verità delle generalizzazioni scientifiche? Perché, altrettanto ordinariamente, gli scienziati non fanno riferimento a tutte quelle condizioni al contorno quando utilizzano le generalizzazioni da loro formulate per formulare previsioni e spiegazioni. Da un certo punto di vista ciò è ovvio: se dovessero ogni volta elencare tutte le condizioni al contorno rilevanti, i testi scientifici sarebbero enormemente più lunghi e meno trattabili di come lo sono ora! Negli articoli scientifici e nei manuali troviamo generalizzazioni espresse in forma piuttosto stringata, come «Ogni volta che il ratto si trova nell’angolo superiore sinistro della gabbia, il neurone N si attiva», oppure «Due corpi si attraggono con una forza direttamente proporzionale al prodotto della loro massa e inversamente proporzionale al quadrato della loro distanza». Nessuna ulteriore condizione al contorno è menzionata. Trascurare il lunghissimo elenco di condizioni al contorno rende la generalizzazione più stringata e trattabile, ma il prezzo è alto. Se attraverso qualche artificio tecnologico
111
112
Le leggi
riuscissimo a misurare il livello di attivazione del neurone N in un ratto da laboratorio, ci accorgeremo con tutta probabilità che non è vero che ogni volta che il ratto si trova nell’angolo superiore sinistro della gabbia il neurone N si attiva. Chiaro: abbiamo scelto deliberatamente di ignorare il riferimento alle particolari condizioni fisiologiche e ambientali che devono valere perché il neurone N si attivi effettivamente ogni volta che il ratto si trova in quella posizione. Se dunque ci trovassimo a eseguire la prova sperimentale in circostanze che violano le condizioni al contorno rilevanti, ma omesse (per esempio, dopo aver spostato certi oggetti all’interno della gabbia), con tutta probabilità il neurone N non si attiverebbe anche se il ratto si trova nel posto giusto. Vi sono dunque ottimi motivi per sospettare che, nella sua versione stringata, quella generalizzazione sia falsa: non è vero che N si attiva quando il ratto si trova nell’angolo superiore sinistro indipendentemente da qualsiasi condizione al contorno, come tale generalizzazione letteralmente afferma. Per motivi analoghi dovremmo concludere che anche la generalizzazione «i metalli, se scaldati, si dilatano» è falsa, così come la maggior parte delle generalizzazioni che trovano posto nei manuali scientifici, in cui il riferimento alle condizioni al contorno viene ignorato. Ricapitoliamo. L’esempio dei pantaloni distrutti nell’incendio ci suggerisce che ci possono essere generalizzazioni vere che non chiameremmo “leggi”. Quindi dobbiamo rinunciare all’idea di considerare la verità di una generalizzazione come una condizione sufficiente perché essa possa essere considerata una legge. Ma se vogliamo imporre che la verità sia una condizione almeno necessaria perché si possa attribuire il titolo di “legge” a una generalizzazione, dobbiamo tentare in qualche modo di render ragione del fatto che le generalizzazioni espresse nei manuali e nei testi scientifici – spesso chiamate e considerate “leggi” – sono troppo stringate per non avere importanti controesempi. Ecco alcune reazioni. Generalizzazioni ceteris paribus Una delle strategie maggiormente discusse dai filosofi della scienza per superare questo problema può essere descritta nel modo seguente. Come abbiamo osservato, non è vero che ogni volta che il ratto si trova nell’angolo superiore sinistro il neurone N si attiva: questa regolarità vale soltanto se vale un gran numero di condizioni al contorno, fisiologiche e ambientali, che non sono affatto menzionate esplicitamente. Ma questo non significa che tale generalizzazione sia falsa, perché – in base alla posizione che stiamo esaminando – dobbiamo fare un piccolo sforzo interpretativo e non considerare la generalizzazione «ogni volta che il ratto si trova nell’angolo superiore sinistro della gabbia, il neurone N spara» così come si presenta (ovvero, in senso letterale). In realtà essa afferma che ogni volta in cui il topo si trova nell’angolo superiore sinistro della gabbia il neurone N spara a parità di tutte le altre circostanze, ovvero se non intervengono fattori avversi. Spesso, nel nostro eloquio quotidiano, formuliamo generalizzazioni che ammettono evidenti controesempi: «Se sfrego un fiammifero contro una superficie ruvida esso
Le leggi
si accenderà». Naturalmente però siamo ben consci che non dobbiamo fidarci ciecamente di questa generalizzazione: assumiamo che essa valga a parità di tutte le altre circostanze, per esempio se quel fiammifero non è bagnato, oppure difettoso, o altro ancora. Assumiamo implicitamente che quella generalizzazione sia corredata da quella che, in gergo filosofico, viene chiamata clausola ceteris paribus, espressione latina che significa, appunto, “a parità di tutte le altre circostanze”36. I sostenitori di questa linea di pensiero suggeriscono che tutte le generalizzazioni “stringate”, che non fanno riferimento esplicito alle condizioni al contorno che devono valere perché la generalizzazione sia effettivamente senza eccezioni, contengono un’implicita clausola ceteris paribus. In particolare, gran parte delle generalizzazioni biologiche (se non tutte) sono ceteris paribus, e molti filosofi si spingono fino a sostenere che gran parte delle generalizzazioni scientifiche (se non tutte) sono ceteris paribus! La proposta è allettante. Da una parte, come abbiamo sottolineato, spesso sottintendiamo clausole ceteris paribus nel nostro generalizzare quotidiano. Inoltre, questa soluzione sembra effettivamente risolvere il problema della verità di generalizzazioni “stringate”. «Ogni volta in cui il ratto si trova nell’angolo superiore sinistro della gabbia il neurone N spara, ceteris paribus». Non abbiamo inserito una lunghissima lista di condizioni al contorno ma solo un avvertimento formato da due parole latine: quella generalizzazione vale a patto che non vi siano condizioni avverse. Basta un attimo di riflessione per rendersi conto che questa soluzione soffre di un problema, a detta di molti, fatale. La generalizzazione «Ogni volta che il ratto si trova nell’angolo superiore sinistro della gabbia il neurone N spara, a patto che non vi siano condizioni avverse» è vera per effetto della clausola in corsivo; ma è vera in un senso molto banale! In sostanza, questa affermazione equivale infatti alla seguente: «Ogni volta che il ratto si trova nell’angolo superiore sinistro della gabbia il neurone N spara, a parte le circostanze in cui il ratto si trova nell’angolo superiore sinistro della gabbia e il neurone N non spara». Se sfregato il fiammifero si accende, a parte i casi in cui non si accende; i metalli riscaldati si dilatano, a parte i casi in cui non si dilatano. L’aggiunta della clausola ceteris paribus rende banalmente vera anche qualsiasi affermazione che riterremmo palesemente falsa, persino «Tutti gli asini volano» («Tutti gli asini volano ceteris paribus» significherebbe infatti «Tutti gli asini volano a parte i casi in cui non volano»). Ricapitoliamo. Il fatto che molte generalizzazioni scientifiche omettano il riferimento a un grande numero di condizioni al contorno le rende aperte a numerosi controesempi. Le rendiamo senz’altro vere sostenendo che esse sottintendono una implicita clausola ceteris paribus, ma in un modo molto banale, che rende vere anche affermazioni chiaramente false.
36
C’è una vastissima letteratura sulle generalizzazioni ceteris paribus. Utili riferimenti sono Pietroski e Rey (1995) e il numero monografico del 2002, vol. 57, n. 3, della rivista Erkenntnis.
113
114
Le leggi
Le generalizzazioni scientifiche ammettono eccezioni I notevoli problemi sollevati dalla strategia ceteris paribus, e quelli più ampi legati alla vastità delle condizioni al contorno associate alla generalizzazioni scientifiche, possono demoralizzare. In effetti non pochi sono i filosofi (soprattutto al giorno d’oggi) che gettano la spugna e si attrezzano a sostenere una posizione da un lato liberatoria, dall’altro controversa. Gli scienziati – in questo consiste la posizione che stiamo esaminando – formulano generalizzazioni “stringate” perché dopotutto sono disposti a tollerare qualche eccezione. Quando un neuroscienziato, alle prese con la formazione ippocampale di un ratto, afferma che «il neurone N spara ogni volta in cui il topo si trova nell’angolo superiore sinistro della gabbia», è in qualche modo consapevole di stare affermando una regolarità che non sarà soddisfatta tutte le volte che l’attività del neurone N verrà osservata durante il movimento del ratto nella sua gabbia. Ma non importa: quella generalizzazione può svolgere adeguatamente i vari ruoli a essa assegnati nell’indagine scientifica anche se, così come si presenta, ammette eccezioni. In base a questa posizione quel neuroscienziato è consapevole di stare pronunciando una generalizzazione letteralmente falsa, ma non vi sono alternative. Data la difficoltà di elencare tutte le condizioni al contorno rilevanti, e il fatto che la generalizzazione risultante sarebbe troppo lunga e complessa per essere effettivamente coinvolta in processi di spiegazione o previsione, arrendersi e tollerare qualche eccezione sembra essere l’unica opzione praticabile rimanente. In base a questa posizione, se assumiamo che qualsiasi regolarità dipenda da un numero molto elevato di condizioni al contorno, e che tali condizioni vengono generalmente omesse all’atto di formulare la generalizzazione, allora nella maggior parte dei casi (se non in tutti) gli scienziati prevedono, spiegano e controllano la realtà attraverso generalizzazioni che ammettono eccezioni. Attenzione: questa posizione non equivale ad affermare che non è possibile formulare generalizzazioni vere nella scienza, oppure che qualsiasi generalizzazione scientifica ammette eccezioni (sia cioè falsa). In linea di principio non vi sono evidenti motivi per affermare l’impossibilità teorica di formulare una generalizzazione vera che colleghi lo sparo del neurone N alla posizione del ratto, a patto di accollarsi l’ingrato compito di elencare tutte le condizioni al contorno rilevanti. Si afferma solo che gli scienziati possono fare a meno di impegnarsi in tale compito, perché anche generalizzazioni che ammettono eccezioni possono essere impiegate per spiegare, prevedere e controllare la realtà37. Questa posizione, da un certo punto di vista, è liberatoria: essa consiste nell’arrendersi alla difficoltà del compito di stilare lunghissimi elenchi di condizioni al contorno, con l’idea che qualche eccezione debba essere inevitabilmente tollerata. Allo stesso tempo essa ha ricadute significative sul problema filosofico delle leggi. Il nostro scopo, lo ricordiamo, è quello di identificare le condizioni necessarie (e sufficienti) per qualificare un enunciato come legge. La verità (assenza di eccezioni) può essere 37
Posizioni di questo tipo sono state recentemente sostenute, tra gli altri, da Woodward [2003] e Craver [2007].
Le leggi
considerata almeno una condizione necessaria perché un enunciato sia legge? Se vogliamo continuare a ritenere che un enunciato che abbia eccezioni non possa meritarsi l’ambito titolo di “legge”, allora dobbiamo rassegnarci – in base alla posizione che stiamo esaminando – ad ammettere che gli scienziati non fanno uso ordinario di leggi (anche se sembrerebbe un’ovvietà affermare il contrario). Se invece siamo disposti a rinunciare all’idea che la verità sia una condizione necessaria perché un enunciato sia legge, decretiamo il fallimento del tentativo che abbiamo percorso in questa sezione e torniamo al punto di partenza: quali sono le condizioni necessarie (e sufficienti) per qualificare un enunciato come legge? 10
Le generalizzazioni come regole È possibile sostenere una posizione radicale, diversa da tutte quelle finora esaminate, sulla verità delle generalizzazioni scientifiche: in base a questa posizione, le generalizzazioni scientifiche non sono né vere né false. Esse, in questa prospettiva, non affermano nulla a proposito del mondo (per questo motivo non sono né vere né false), ma costituiscono semplicemente regole, o strumenti mnemonici, utili per qualche finalità teoretica o pratica. Per esempio, in base a questa posizione l’enunciato «tutti i metalli, se riscaldati, si dilatano» non è né vero né falso: si tratta solamente di una regola che ci permette di collegare singoli eventi che accadono attorno a noi. Sulla base del fatto che un pezzo di metallo si stia scaldando, la regola ci chiede di convincerci del fatto che quel pezzo di metallo si dilaterà. Non approfondiamo ulteriormente questa posizione, invitando il lettore a riflettere sulla relazione che intercorre tra essa e lo strumentalismo, posizione filosofica che discuteremo nel capitolo 6 (Il realismo e l’antirealismo scientifico).
4.5 La natura non accidentale delle leggi 4.5.1 La necessità Come abbiamo più volte sottolineato, l’esito della discussione filosofica sul problema delle leggi ha ricadute significative su altre importanti questioni relative ai fondamenti epistemologici e metodologici della ricerca scientifica. In particolare, la distinzione tra generalizzazioni accidentali e generalizzazioni che meritano il titolo onorifico di “legge” figura tra i presupposti, più o meno espliciti, dell’atteggiamento che molti filosofi e scienziati assumono nei confronti di discipline di ricerca legate allo studio dei sistemi viventi: è un assunto variamente condiviso dalla maggior parte dei filosofi odierni (della scienza e non) quello secondo cui le scienze della vita abbiano a che fare con sistemi la cui “complessità” è troppo elevata perché il loro funzionamento possa essere adeguatamente catturato da leggi. Questo assunto conduce spesso a marcare una distinzione molto profonda tra scienze classificate come “speciali” (tra cui, appunto, biologia, psicologia, economia e altro ancora), e scienze “dure”, come la fisica e la chimica, che al contrario delle prime avrebbero condotto alla formulazione di leggi “vere e proprie”.
115
116
Le leggi
Il richiamo alla cautela, su queste distinzioni di ampio raggio, non è mai sufficiente. È ragionevole sostenere che certe discipline scientifiche siano in qualche senso più “mature” di altre, anche per ragioni anagrafiche, e che abbiano portato alla formulazione di un corpus di generalizzazioni relativamente solide; è quasi un dato di fatto che altre discipline di ricerca siano più “giovani”, e che i ricercatori coinvolti siano ben consapevoli di far riferimento a generalizzazioni che, a oggi, non sono passate attraverso quel lungo processo fatto di correzioni, emendamenti, raffinamenti a cui invece sono state sottoposte certe secolari leggi della fisica o della chimica. Ma non dovremmo concludere troppo affrettatamente che nelle scienze “speciali” non possiamo trovare leggi vere e proprie e soprattutto che proprio su questo si basi una profonda demarcazione tra scienze “speciali” e scienze “dure”. Queste distinzioni e classificazioni hanno senso soltanto a patto che sia possibile comprendere con ragionevole precisione la natura della distinzione (se ve ne è una) tra leggi “vere e proprie” ed enunciati che non possono meritarsi l’ambito titolo. I tentativi che abbiamo finora analizzato (e che ripercorrono alcune delle proposte avanzate dai filosofi della scienza a proposito di tale problema) non hanno condotto a un risultato soddisfacente da questo punto di vista; l’analisi finora condotta ci legittima a pensare che molti dei criteri che dovrebbero bollare le generalizzazioni delle scienze “speciali” come non-leggi (legati alla loro universalità e verità) si ritorcono anche contro le generalizzazioni della fisica e della chimica. Forse allora la distinzione tra scienze “speciali” e scienze “dure” non ha molto senso, almeno nella misura in cui essa è fondata su questioni filosofiche che riguardano la nozione di “legge”. Non abbiamo comunque terminato il nostro viaggio attraverso possibili posizioni sulla demarcazione tra “leggi” e “non-leggi”. Il lettore noterà che le proposte che abbiamo finora esaminato, relative all’universalità e alla verità delle generalizzazioni, non hanno affrontato direttamente l’intuizione dalla quale abbiamo preso le mosse: quella secondo cui, per esempio, l’enunciato 2 (“i metalli, se scaldati, si dilatano”) sembra possedere un carattere di necessità che invece non riconosciamo nell’enunciato 1 (“tutte le volte che Luigi va a Parigi, piove”), che sembra in qualche senso accidentale. Questa distinzione, almeno a prima vista, non è legata all’universalità o alla verità di tali generalizzazioni. D’altra parte è un presupposto fondamentale dell’analisi regolarista della causalità, che verrà esaminata nel capitolo 5 (Causalità, induzione, probabilità), quello secondo cui due proprietà o eventi di diverso tipo possono essere regolarmente connessi senza che vi sia alcuna traccia di una connessione necessaria tra essi, ovvero che una generalizzazione possa essere vera senza per ciò esprimere una connessione necessaria tra i termini della regolarità in questione. Ma qual è la natura di questa necessità? Sotto quali condizioni una generalizzazione è necessaria e non accidentale? Alcuni filosofi hanno inseguito l’idea secondo cui ciò che distingue generalizzazioni accidentali da generalizzazioni non accidentali è una proprietà intrinseca dei tipi di eventi o delle proprietà che vengono messi in relazione tra di loro. Ma il problema di comprendere la natura di questa caratteristica intrinseca di necessitazione è molto arduo, anche perché non abbiamo una percezione diretta di essa: attraverso l’esperienza siamo al più in grado di sapere che certe proprietà o eventi di tipo diverso sono state finora sempre connesse, ma non
Le leggi
abbiamo esperienza diretta dell’eventuale necessità a loro intrinseca38 (questo tema verrà discusso approfonditamente nel capitolo 5, Causalità, induzione, probabilità). Allora, forse, vale la pena di chiedersi se sia possibile trovare la caratteristica che una generalizzazione P deve possedere per essere qualificabile come generalizzazione non accidentale “all’esterno” di P, ovvero nella relazione che P intrattiene con altri enunciati. Ecco due proposte. 4.5.2 I condizionali controfattuali Riprendiamo gli enunciati 1 e 2: l’intuizione ci suggerisce che il primo, al contrario del secondo, esprime una correlazione accidentale. D’altra parte (come abbiamo sottolineato discutendo il rapporto tra leggi e previsione, spiegazione e controllo) nessuno avrebbe dei dubbi nel ritenere che, se prendessi un pezzo di metallo e lo scaldassi, esso si dilaterebbe; mentre molti di noi sarebbero poco disposti a credere che, se Luigi andasse a Parigi, pioverebbe. Chiameremo gli enunciati in corsivo “condizionali controfattuali”. Ricavare un condizionale controfattuale da una generalizzazione è semplice. Da «Tutti i fiammiferi, se sfregati, si accendono» ricaviamo il condizionale controfattuale «Se questo fiammifero fosse sfregato, si accenderebbe». Da «Ogni volta che il ratto si trova nell’angolo superiore sinistro della gabbia, il neurone N si attiva» ricaviamo il condizionale controfattuale «Se il ratto si trovasse nell’angolo superiore sinistro della gabbia, il neurone N si attiverebbe». «Se prendessi un pezzo di metallo e lo scaldassi, esso si dilaterebbe» è uno dei possibili condizionali controfattuali associati all’enunciato 2, mentre «Se Luigi andasse a Parigi pioverebbe» è uno dei possibili condizionali controfattuali formulati a partire dall’enunciato 1. Guidati dall’intuizione, non esiteremmo ad affermare che il primo condizionale (quello associato all’enunciato 2) sia vero: se prendessi un pezzo di metallo e lo scaldassi, esso si dilaterebbe. Non avremmo dubbi nemmeno nel ritenere che il secondo condizionale sia falso: se Luigi andasse a Parigi, potrebbe piovere ma anche non piovere. Sulla scia di quanto ci suggeriscono queste intuizioni potremmo allora imporre, come caratteristica necessaria e sufficiente per qualificare come “legge” una generalizzazione, che il corrispondente condizionale controfattuale sia vero. LNS5: P è una legge se e solo se il corrispondente condizionale controfattuale è vero. Questa proposta è stata discussa a più riprese e in varia forma nella recente storia della filosofia della scienza39. Per quanto sembri una condizione plausibile, com’è da aspettarsi anch’essa solleva un problema di non facile soluzione. Essa esprime una condizione 38 L’idea che le leggi siano caratterizzate da una relazione di necessità intrinseca tra i termini che figurano in esse è stata elaborata, tra gli altri, da Armstrong [1983], Dretzke [1977] e Tooley [1977]. Si veda anche il capitolo 6 di Psillos [2002]. 39
Un’analisi di questo tipo tesa a caratterizzare gli elementi distintivi delle generalizzazioni esplicative è stata recentemente elaborata, tra gli altri, dal già citato Woodward [2003].
117
118
Le leggi
necessaria e sufficiente perché una generalizzazione P possa considerarsi come legge: P è qualificabile come legge se e solo se il corrispondente condizionale controfattuale è vero. Ma sotto quali condizioni un condizionale controfattuale è vero? Facciamo un esempio: in base a questa proposta, l’enunciato «Tutti i metalli, se scaldati, si dilatano» è una legge se e solo se è vero l’enunciato «se prendessi un oggetto di metallo e lo scaldassi, esso si dilaterebbe». Ma sotto quali condizioni quest’ultimo enunciato è vero? Questa domanda è particolarmente spinosa, data la natura condizionale dell’enunciato. Se si fosse trattato di un enunciato che descrive uno stato di cose, come «Oggi splende il sole a Detroit», sarebbe stato relativamente semplice chiarire le condizioni sotto le quali quell’enunciato è vero: «Oggi splende il sole» è vero se e solo se oggi, effettivamente, splende il sole a Detroit (torneremo sul tema delle condizioni di verità di un enunciato nel capitolo 6 dedicato al realismo scientifico). Ma sotto quali condizioni è vero che «se prendessi un oggetto di metallo e lo scaldassi, esso si dilaterebbe»? Prendere un oggetto di metallo, scaldarlo e constatare la sua dilatazione non è una mossa utile per rispondere a questa domanda: ciò che ci stiamo chiedendo è sotto quali condizioni è vero che, se prendessi un oggetto di metallo e lo scaldassi, esso si dilaterebbe, indipendentemente dal fatto che qualcuno faccia o meno la prova. Analogamente, per identificare le condizioni di verità dell’enunciato «Oggi splende il sole a Detroit» non serve andare a Detroit, e il fatto che il sole adesso splenda o meno a Detroit (ovvero che tale enunciato sia vero) è totalmente irrilevante, dato che il nostro problema è quello di identificare le condizioni di verità di quell’enunciato, e non quello di decidere se quell’enunciato sia vero o falso. Le condizioni di verità dell’enunciato «Oggi splende il sole a Detroit» sono le seguenti: quell’enunciato è vero se e solo se oggi splende il sole a Detroit, ovvero, più genericamente, se solo se il mondo è fatto proprio come quell’enunciato descrive. Ma come deve essere fatto il mondo perché sia vero che «se prendessi un oggetto di metallo e lo scaldassi, esso si dilaterebbe»? Rispondere a questa domanda è fondamentale per difendere la proposta che lega il criterio discriminante tra leggi e generalizzazioni accidentali alla verità del corrispondente condizionale controfattuale: se non riusciamo a capire sotto quali condizioni un condizionale controfattuale sia vero, non riusciremo nemmeno a capire sotto quali condizioni la corrispondente generalizzazione è una legge (in base alla proposta che stiamo esaminando). Le leggi semantiche che regolano la normale implicazione logica “o” (detta implicazione materiale) stabiliscono che una generica implicazione A o B è falsa se e solo se A è vero ma B è falso. Dunque, l’implicazione A o B è vera se A, ovvero il suo antecedente, è falso. Ma se questo valesse anche per i condizionali controfattuali, ne seguirebbe una paradossale conseguenza. Come deve essere fatto il mondo perché sia vero che «se prendessi un oggetto di metallo e lo scaldassi, esso si dilaterebbe»? In base alle leggi semantiche appena menzionate tale controfattuale sarebbe vero se il suo antecedente fosse falso, ovvero se l’oggetto di metallo non fosse scaldato. Ecco la paradossale conseguenza: pensiamo al controfattuale opposto «se prendessi un oggetto di metallo e lo scaldassi, esso non si dilaterebbe» (che è chiaramente ben diverso dal
Le leggi
precedente). In base a quelle stesse leggi semantiche, tale controfattuale sarebbe vero se il suo antecedente fosse falso, ovvero se l’oggetto di metallo non fosse scaldato. Ma questa condizione è identica alla precedente! In altre parole, se ci riferiamo alle regole attraverso le quali si definiscono le condizioni di verità delle implicazioni logiche, dobbiamo concludere che vi sono condizioni nelle quali entrambi i controfattuali, benché opposti, sono veri. Come spiega Nelson Goodman: «Ovviamente, ciò che si vuol dire è qualcosa di diverso, e il problema sta nel definire le circostanze nelle quali se è vero un certo controfattuale non lo è, invece, il condizionale opposto il cui conseguente contraddice quello del primo. E tale criterio di verità va costruito a dispetto del fatto che un controfattuale non può mai, per sua natura, essere sottoposto a un controllo empirico diretto tramite la realizzazione del suo antecedente» [Goodman 1985, 6]. Inoltre, i condizionali controfattuali non soddisfano condizioni come la legge di contrapposizione (se A o B allora non-B o non-A) e la transitività (se A o B e B o C, allora A o C), condizioni che sono invece soddisfatte da condizionali come l’implicazione materiale e l’implicazione stretta (definita nella logica modale). L’esame delle varie proposte di definizione delle condizioni di verità dei condizionali controfattuali tese a superare il problema appena espresso ci condurrebbe troppo lontano (si veda la Scheda 11 per una breve esposizione della tesi di David Lewis). Saltiamo dunque direttamente a una conclusione su cui i filosofi oggi concordano: non sembra esservi modo di definire le condizioni di verità di un condizionale controfattuale senza fare appello alla distinzione tra leggi e generalizzazioni accidentali, ovvero senza chiamare in causa proprio la soluzione al problema per risolvere il quale si tenta di far ricorso ai condizionali controfattuali40! Facile rendersi conto che una conclusione di questo tipo, su cui i filosofi sono oggi concordi, rende la proposta che stiamo esaminando circolare e dunque non riduzionista (si ricordi la distinzione articolata nel paragrafo 4.2 di questo capitolo). In base a questa proposta, infatti, P è qualificabile come “legge” se e solo se il corrispondente condizionale controfattuale è vero; ma il corrispondente condizionale controfattuale è vero se e solo se sono vere certe condizioni che, a loro volta, fanno riferimento alla nozione di “legge”. In sostanza, per specificare le condizioni sotto cui un enunciato può qualificarsi come “legge” è necessario essere già in possesso di un insieme di condizioni sotto cui qualificare un enunciato come “legge”. Per quanto il percorso di analisi filosofica che ha condotto a questa conclusione non riduzionista sia stato ricco di importanti ricadute per molte importanti questioni della filosofia della scienza, possiamo concludere ancora una volta che esso non ha condotto a un significativo progresso verso la soluzione del problema filosofico di cui ci stiamo occupando. Passiamo quindi all’esame di un’altra possibile soluzione, che è anche l’ultima del nostro breve viaggio attraverso questo spinoso problema filosofico.
40
Un testo di fondamentale importanza, che ben illustra il problema che qui ci limitiamo a introdurre, è Goodman [1985]. Come indicato brevemente nella scheda a pag xxx, Lewis [1973] ha tentato un’analisi dei condizionali controfattuali facendo riferimento alla nozione di mondo possibile; ma anche l’analisi di Lewis non riesce a definire le condizioni di verità di un enunciato controfattuale senza far riferimento alla nozione di “legge” [Psillos 2002].
119
120
Le leggi
11
Condizionali controfattuali e le loro condizioni di verità Siano A e B due proposizioni: si denota con A oB il condizionale controfattuale «Se A fosse vera, allora B sarebbe vera» e si definisce A-mondo un mondo possibile in cui A è vera. Allora A oB è vero (in un mondo w) se e solo se (1) non esistono A-mondi (nel qual caso A oB è banalmente vero), oppure (2) gli A-mondi in cui B è vera sono più simili a w di qualsiasi altro A-mondo in cui B è falsa. Nelle parole di David Lewis: «un controfattuale è vero in senso non banale se e solo se rendere vero anche il conseguente insieme all’antecedente comporta un minore allontanamento dalla realtà di quanto non comporti rendere vero l’antecedente senza che sia vero anche il conseguente» (Lewis, 1973a, p. 197).
4.5.3 La rete di leggi La proposta che prenderemo ora in considerazione, da molti giudicata promettente, è basata sulla seguente intuizione. La generalizzazione «i metalli, se scaldati, si dilatano» fa parte integrante di una rete di generalizzazioni attraverso le quali gli scienziati esercitano con successo le loro attività di previsione, spiegazione e controllo della realtà; in sostanza essa è del tutto coerente con le leggi della fisica e della chimica odierne. La generalizzazione «Ogni volta che Luigi va a Parigi piove», invece, non fa parte di alcun corpus di leggi scientifiche accettate: non è in alcun modo implicata dalle leggi della fisica, della chimica, della meteorologia, né da alcuna delle discipline scientifiche odierne. Stessa considerazione per l’enunciato «tutte le monete nella mia tasca valgono 20 centesimi». Un altro esempio utile a illustrare questa idea prende la mossa dal confronto delle due seguenti generalizzazioni. - Tutte le sfere d’oro pesano meno di 1 tonnellata. - Tutte le sfere di uranio pesano meno di 1 tonnellata. Questi enunciati sono molto simili: di fatto identici, a parte le parole “oro” e “uranio”. Possiamo essere ragionevolmente sicuri del fatto che non esistano al mondo blocchi compatti di oro dal peso maggiore di una tonnellata. Però (come abbiamo osservato nella scheda 09 «Generalizzazioni accidentali e previsione») non vi sono ragioni di principio che impediscano a qualcuno di fondere una tonnellata e mezzo di monete d’oro e realizzare un blocco che falsifichi il primo enunciato. Quanto al secondo, la situazione è molto diversa. La massa critica dell’uranio arricchito è di poche decine di chilogrammi; oltre tale soglia si innescherebbe una reazione esplosiva! Allora il secondo enunciato esprime evidentemente una generalizzazione di carattere non accidentale. Ma in questo caso il motivo che ci spinge a classificare la seconda come una generalizzazione non accidentale è strettamente legato al fatto che il secondo
Le leggi
enunciato, e non il primo, è coerente con un corpus di generalizzazioni che fanno parte delle “migliori” teorie fisiche a nostra disposizione, teorie che affermano che la massa critica dell’uranio è di poche decine di chilogrammi. La caratteristica che marca la distinzione tra generalizzazioni accidentali e non accidentali potrebbe dunque consistere proprio nella coerenza con una rete di generalizzazioni scientifiche. Si noti che questo criterio è in certo senso esterno a P (analogamente al criterio che faceva riferimento ai condizionali controfattuali): non si parla, come nel caso dell’oscura relazione di necessitazione a cui abbiamo fatto breve riferimento nella sezione 4.5.1 (La necessità), di caratteristiche intrinseche all’enunciato stesso, né si fa riferimento alla natura necessaria della connessione asserita dalla generalizzazione. Per poter essere qualificato come legge, in base a questa proposta, P deve essere una generalizzazione ben connessa con una rete di altri enunciati. Quello di non riferirsi a caratteristiche intrinseche della connessione espressa dalla generalizzazione in questione, così difficili da delineare senza sconfinare in ardue ipotesi metafisiche, costituisce sicuramente un interessante aspetto della proposta spesso chiamata “rete di leggi”. Per poter formulare un buon sostituto alla X nell’enunciato LNS è però necessario precisare alcuni aspetti di questa idea. In primo luogo dobbiamo esprimere con maggior precisione il rapporto che deve sussistere tra una generalizzazione e la “rete di leggi” perché si possa parlare di generalizzazione non accidentale. Che rapporto sussiste tra l’enunciato «tutte le sfere di uranio arricchito pesano meno di 1 tonnellata» e le leggi della fisica? I filosofi che difendono la tesi della “rete di leggi” esprimono questo rapporto chiamando in causa la nozione di derivazione logica che abbiamo discusso nel capitolo precedente a proposito del requisito R1 del modello nomologicodeduttivo. Per poter essere qualificata come non accidentale, una generalizzazione deve essere derivabile logicamente da alcune generalizzazioni che fanno parte della “rete di leggi”, dunque derivabile da esse attraverso applicazioni di regole di inferenza corrette. In base a questa idea, dunque, affermando che l’enunciato «tutte le sfere di uranio arricchito pesano meno di 1 tonnellata» non è accidentale affermiamo che tale enunciato è derivabile logicamente da alcuni enunciati facenti parte di una “rete di leggi” che, in questo caso, appartengono a varie branche della fisica e della chimica. Ma aver definito il tipo di relazione che deve sussistere tra un enunciato e la “rete di leggi” non basta: dobbiamo anche caratterizzare la natura e la composizione della “rete di leggi”. Questo è ovviamente un passo cruciale. Non possiamo ammettere una rete arbitraria, magari inventata, di generalizzazioni: altrimenti anche la distinzione tra generalizzazioni accidentali e non accidentali diventa anch’essa arbitraria. Potremmo semplicemente inventarci una rete di leggi dalle quali sia possibile derivare logicamente «Tutte le volte che Luigi va a Parigi piove», e renderemmo non accidentale tale generalizzazione. Dobbiamo allora porre qualche vincolo sulla natura e sulla composizione della “rete di leggi”. Discutendo «i metalli, se riscaldati, si dilatano» e «tutte le sfere di uranio arricchito
121
122
Le leggi
pesano meno di 1 tonnellata» abbiamo fatto riferimento a una rete particolare di leggi, ovvero quelle che appartengono alle nostre “migliori” teorie scientifiche odierne. Allora potremmo stipulare che la “rete di leggi” a cui far riferimento nel valutare il carattere accidentale o meno di una generalizzazione sia costituita dalle generalizzazioni che qualifichiamo come leggi in base a ciò che ci dicono le scienze odierne. Questa proposta ha un difetto: la natura accidentale o meno di ogni generalizzazione è legata allo stato attuale delle conoscenze scientifiche; ma anche le nostre migliori teorie potrebbero un giorno essere sconfessate da nuove scoperte o esperimenti mai tentati prima. Meglio allora sarebbe riferirsi a un sistema di leggi ideale, non necessariamente coincidente con il sistema di leggi che formano le nostre migliori teorie scientifiche. Perseguendo questa intuizione, alcuni filosofi hanno sostenuto che la “rete di leggi” a cui far riferimento sia ciò che essi chiamano il sistema deduttivo ideale. Un sistema deduttivo (ideale o meno) è un insieme composto da alcune generalizzazioni di partenza, o assiomi, e da tutte le generalizzazioni che possono essere ottenute per derivazione logica – deduzione, appunto – a partire dagli assiomi. Naturalmente è possibile immaginare un’infinità di sistemi deduttivi; restringiamo allora la nostra attenzione ai sistemi deduttivi che includono solo generalizzazioni vere. Attenzione: abbiamo già sottolineato la differenza tra affermare che una generalizzazione è vera e affermare che riteniamo una generalizzazione vera. Il sistema deduttivo che ci interessa contiene solo generalizzazioni vere, indipendentemente dalle nostre convinzioni al proposito. Anche in questo sta il carattere ideale di tale sistema deduttivo. Il fatto di includere solo generalizzazioni vere non è l’unica caratteristica del sistema deduttivo ideale. Esso deve anche esprimere la miglior combinazione tra potenza e semplicità. In che senso? Per cogliere l’intuizione che sta alle fondamenta di questa particolare posizione sul problema delle leggi immaginiamo di costruire il sistema deduttivo ideale. Anzitutto esso deve essere molto potente: deve permettere di generare un elevato numero di generalizzazioni vere. Ma allora potremmo definire il sistema deduttivo “più potente di tutti” attraverso un semplice trucco: definiamolo come il sistema deduttivo in cui tutte le generalizzazioni vere sono assiomi. Poco fa abbiamo infatti ricordato come ogni proposizione sia derivabile logicamente da se stessa. «Tutte le sfere di uranio hanno diametro minore di 1 km» è logicamente derivabile, in un solo passo, da «Tutte le sfere di uranio hanno diametro minore di 1 km» (è logico, per quanto banale, sostenere che, se il primo enunciato è vero, è vero anche il secondo, dunque che il secondo è conseguenza logica del primo: i due enunciati sono identici, dunque non si può dare il caso che il primo sia vero e il secondo sia falso). Ma allora, se definiamo un sistema deduttivo ponendo tutte le generalizzazioni vere come assiomi, otterremo un sistema deduttivo da cui sia possibile derivare logicamente (in un solo passo) tutte le generalizzazioni vere. Sarebbe il sistema più potente tra quelli concepibili, in un senso della parola “potenza” legato al numero di verità che tale sistema può generare.
Le leggi
In particolare, immaginiamo che questo sistema estremamente potente contenga, tra gli assiomi, sia l’enunciato «tutte le sfere di uranio hanno diametro minore di 1 km» sia l’enunciato «tutte le sfere d’oro hanno diametro minore di 1 km». Entrambi gli enunciati, d’altra parte, sono veri (anche se abbiamo ravvisato nel primo un carattere di necessità che non attribuiamo al secondo), quindi possono trovare legittimo posto in un sistema deduttivo che debba contenere solo generalizzazioni vere. Il sistema così ottenuto è estremamente potente ma certo non semplice, dato il numero (infinito) degli assiomi. Il sistema deduttivo ideale, nelle intenzioni dei difensori della “rete di leggi”, deve essere un sistema più semplice. Allora, sempre mettendoci nella prospettiva ideale di costruire tale sistema, potremmo tentare di organizzare meglio le generalizzazioni che ne fanno parte sfruttando il fatto che è possibile utilizzare regole di inferenza corrette per dedurre enunciati dagli assiomi. Potremmo quindi formulare un numero minore di assiomi tali però che da essi derivi, per deduzione, il maggior numero possibile di generalizzazioni vere. Per esempio potremmo eliminare dagli assiomi l’enunciato «Tutte le sfere di uranio hanno diametro minore di 1 km» e inserire generalizzazioni fisiche più ampie, da cui sia derivabile «Tutte le sfere di uranio hanno diametro minore di 1 km» e tanti altri enunciati della fisica. E così via: la sfida è quella di rendere il sistema più semplice possibile, diminuendo il numero degli assiomi, ma cercando di far sì che il sistema sia più potente possibile rispetto alle generalizzazioni vere che è possibile derivare da essi. È facile immaginare che aumentando la semplicità del sistema vi sia il rischio di diminuirne la potenza. Restringendo sempre di più il numero degli assiomi e organizzando il sistema in modo tale che il maggior numero di generalizzazioni vere siano derivate da essi, anziché essere poste direttamente tra essi, c’è il rischio di “lasciar fuori” alcune generalizzazioni vere che non possono trovar posto all’interno della sempre più organizzata struttura deduttiva. Questa sorte, per esempio, potrebbe capitare all’enunciato vero «tutte le sfere d’oro hanno diametro minore di 1 km», nell’ipotesi che esso non sia derivabile logicamente dagli assiomi dai quali sono derivabili, tra le altre, le generalizzazioni vere della fisica. Se volessimo salvare tale enunciato, inserendolo nella struttura deduttiva, dovremmo a quel punto introdurlo di nuovo tra gli assiomi (proprio perché non è derivabile dalle generalizzazioni vere della fisica che invece trovano posto nel sistema deduttivo); con una tale mossa aumenteremmo la potenza del sistema a scapito però della semplicità, dato che il numero degli assiomi sarebbe aumentato; tale enunciato deve allora essere escluso dalla rete. L’intuizione che sottostà alla proposta “rete di leggi” è che le generalizzazioni accidentali siano proprio quelle generalizzazioni che non trovano posto nel sistema deduttivo che assicuri il miglior bilanciamento tra semplicità e potenza; siano cioè quelle generalizzazioni che non sono collegate, attraverso derivazioni logiche, alla struttura deduttiva che organizza nel modo migliore le verità sul mondo. Questa idea cattura l’intuizione da cui siamo partiti: il criterio che marca la distinzione tra generalizzazioni accidentali e generalizzazioni non accidentali non sta in qualche
123
124
Le leggi
caratteristica intrinseca alle regolarità espresse da tali generalizzazioni, ma nel rapporto che esse intrattengono con un sistema di generalizzazioni più ampio. Tale sistema di generalizzazioni è il sistema deduttivo ideale. LNS6: P è una legge se e solo se P è derivabile logicamente dall’insieme degli assiomi che definiscono il sistema deduttivo ideale. Torniamo a ribadire un punto importante: si parla di un sistema deduttivo ideale. Non si tratta di identificare gli assiomi che sistematizzino le nostre attuali convinzioni sulla realtà, bensì il sistema deduttivo che organizzi nel modo migliore generalizzazioni vere sulla realtà, al di là del fatto che esse facciano parte o meno delle nostre migliori teorie scientifiche41. Si potrebbe allora formulare la seguente obiezione: la proposta “rete di leggi” esprime le condizioni sotto le quali P è qualificabile come legge, ma non fornisce strumenti utili per prendere una decisione su casi concreti. Per decidere se l’enunciato «I metalli, se scaldati, si dilatano» è una legge o meno dovremmo capire se esso fa parte del sistema deduttivo ideale. Ma il meglio che possiamo fare è capire se esso fa parte del sistema che organizza nel modo migliore le nostre attuali convinzioni sulla realtà; come vedremo nel capitolo dedicato al realismo scientifico non è affatto ovvio che le nostre attuali convinzioni sulla realtà, frutto delle migliori teorie scientifiche di cui disponiamo, siano vere, dunque che il sistema che organizza nel modo migliore le nostre attuali convinzioni sulla realtà coincida con il sistema deduttivo ideale. Quindi, anche se in linea di principio la proposta “rete di leggi” esprime le condizioni sotto le quali un qualsiasi enunciato P è qualificabile come legge, tale proposta non ci fornisce basi per prendere una decisione definitiva sul fatto che P sia o meno, effettivamente, una legge. Questa obiezione è del tutto ragionevole. Il meglio che possiamo fare è concludere che abbiamo ottime ragioni per ritenere che «i metalli, se scaldati, si dilatano» sia una legge (al contrario di «ogni volta che Luigi va a Parigi piove») dato che, per motivi che esamineremo nel capitolo 6 (Il realismo e l’anti-realismo scientifico), abbiamo ottime ragioni per ritenere che le nostre migliori teorie fisiche siano vere, dunque che facciano parte del sistema deduttivo ideale. Non si tratta dunque di un giudizio definitivo, perché nulla esclude che in futuro potremo cambiare idea a proposito di quelle che adesso riteniamo teorie scientifiche vere. Ma la proposta “rete di leggi” ci permette almeno di formulare un giudizio, seppur fallibile, sulle proposizioni della scienza, laddove altre proposte (per esempio quella legata ai condizionali controfattuali) si rivelavano troppo problematiche persino per farsi una qualche idea al proposito. Per questo motivo la proposta “rete di leggi” determina secondo molti un genuino avanzamento verso la soluzione del problema filosofico delle leggi.
41
L’idea che stiamo discutendo ha le sue radici nel Sistema di Logica di John Stuart Mill [Mill, 1996]. È stata elaborata, tra gli altri, da Ramsey [1978] e dal già citato Lewis [1973].
Le leggi
Naturalmente anche questa proposta ha i suoi problemi. Anzitutto essa implica che la verità di una generalizzazione sia condizione necessaria perché essa possa qualificarsi come legge (soltanto generalizzazioni vere fanno infatti parte del sistema deduttivo ideale). Questa posizione, del tutto plausibile, solleva però i controversi problemi che abbiamo analizzato nella sezione 4.4 e su cui torneremo nel capitolo dedicato al ruolo dei modelli nella scienza. Inoltre, le nozioni di “semplicità” e “potenza” sono scivolose e rischiano di introdurre un pericoloso antropocentrismo in una questione filosofica il cui esito dovrebbe essere indipendente dalle caratteristiche di particolari esseri umani. Qual è il miglior compromesso tra “semplicità” e “potenza”? Possiamo chiarire il significato di “semplice” e “potente” in modo oggettivo? Ordinariamente giudichiamo qualcosa “semplice” o “non semplice” rispetto, per esempio, alle capacità o alle conoscenze di sfondo di qualcuno; ma allora anche la definizione di sistema deduttivo ideale, come sistema che risulta dal miglior compromesso di semplicità e potenza, è relativa alle capacità o alle conoscenze di sfondo di qualcuno. Non è un risultato confortante, perché vorremmo che la distinzione tra generalizzazioni accidentali e non accidentali fosse indipendente da fattori di carattere soggettivo o da caratteristiche di particolari persone. Queste sono alcune delle sfide sollevate dalla proposta “rete di leggi” su cui – come nel caso di altre posizioni che abbiamo toccato in questo viaggio nel problema filosofico delle leggi – la discussione è ancora aperta.
4.6 Leggi e “scienze speciali” Il percorso che abbiamo svolto in questo capitolo, esplorando una piccola (per quanto significativa) parte dell’estesa discussione filosofica attorno alla discriminazione tra leggi e generalizzazioni accidentali, ci conduce a una conclusione piuttosto deludente: il problema di discriminare generalizzazioni accidentali da generalizzazioni non accidentali è estremamente arduo, e nessuna tra le varie posizioni che abbiamo esaminato è completamente libera da ambiguità e problemi concettuali. Le reazioni a queste difficoltà sono molteplici. Come abbiamo sottolineato, alcuni filosofi si arrendono alla difficoltà di formulare analisi riduzioniste della nozione di “legge” rivolgendosi al meno (ma solo di poco) ambizioso proposito di compiere qualche passo avanti verso la chiarificazione di tale nozione attraverso analisi non riduzioniste. Altri propongono di assumere la nozione di “legge” come primitiva42, preferendo dedicarsi all’analisi del ruolo che le leggi effettivamente svolgono nella teorizzazione scientifica e nel controllo sperimentale. Lo scopo di questo capitolo non era quello di fornire un’analisi esaustiva delle varie proposte in gioco43 bensì quello di illustrare alcune delle principali direttrici attorno alle quali si articola l’ampio dibattito sulle leggi, e fornire ai lettori un saggio delle varie difficoltà concettuali coinvolte. Vogliamo concludere questo percorso ribadendo come proprio tali difficoltà concettuali abbiano
42
Si veda Maudlin [2007].
43
Per cui rimandiamo a Dorato [2000] e al più volte citato Carroll [1994].
125
126
Le leggi
non trascurabili ricadute sulla fondatezza della distinzione tra “scienze dure” e “scienze speciali” a cui abbiamo più volte fatto cenno. Non si tratta di negare a priori che discipline di ricerca come la fisica e la psicologia (tanto per fare un esempio di una disciplina di ricerca generalmente considerata “speciale”) si basino su metodologie di ricerca differenti, oppure che adottino diversi stili di spiegazione scientifica, oppure che si collochino sotto qualche senso a diversi livelli di “maturazione”. Ma il proposito di tracciare una netta linea di distinzione tra “scienze dure” e “scienze speciali” che faccia riferimento alla nozione di “legge” (sostenendo che le discipline del secondo tipo non conoscono genuini esempi di legge, oppure che le leggi non vi svolgono un ruolo teorico essenziale) si regge su basi molto deboli, proprio perché i confini della stessa nozione di “legge” sono incerti. Forse tale distinzione deve essere cercata altrove oppure, forse, non ha dopotutto molto senso. Nel capitolo seguente vedremo come anche il proposito di identificare la caratteristica distintiva di quella particolare classe di regolarità che intuitivamente siamo propensi a considerare causali (o che in tal modo vengono qualificate dagli scienziati) si scontri con formidabili difficoltà concettuali.
Causalità, induzione, probabilità
5.1 La centralità dell’idea di causa Le discussioni sulla natura della causalità e sulle forme della sua manifestazione segnano la storia stessa del pensiero filosofico e scientifico in tutto il suo sviluppo. In un modo o nell’altro, molti di coloro che hanno formulato una riflessione filosofica ed epistemologica sui caratteri della conoscenza scientifica si sono ritrovati ad assumere implicitamente la causalità come un aspetto costitutivo di ogni modello di conoscenza. La mappa delle idee che la tradizione filosofica occidentale ha sviluppato in relazione all’idea di causalità deve dunque essere interpretata come uno strumento essenziale per delineare un’immagine moderna di conoscenza, un’immagine che si è arricchita – e insieme complicata – da quando la rivoluzione scientifica del XVII secolo ha posto su nuove basi le relazioni tra filosofia e scienza (cfr. la sezione 1.4, La (ri)nascita della scienza moderna). Oltre a svolgere questo ruolo fondativo nella moderna razionalità scientifica, la causalità intrattiene relazioni importanti con almeno altre due nozioni chiave per la scienza e i suoi fondamenti: l’induzione e la probabilità. Nel caso della prima, la scoperta della centralità dell’induzione è proprio uno dei principali risultati della riflessione filosofica di David Hume, il filosofo moderno cui si deve quella teoria della causalità che continua a rappresentare un punto di riferimento – in un senso o nell’altro – per la filosofia della scienza contemporanea. Quanto alla probabilità, la sua rilevanza fondazionale si afferma in modo sempre più chiaro proprio a partire dai problemi teorici posti dall’induzione: dalle prime speculazioni sui giochi d’azzardo a opera di matematici francesi del XVII secolo come Pascal e Fermat fino alla massiccia presenza dei fenomeni casuali e aleatori nella scienza contemporanea, la probabilità si scopre ricca di dimensioni e di implicazioni filosofiche. Alla luce dei complessi rapporti tra causalità, induzione e probabilità, cercheremo nelle pagine seguenti di delineare un quadro riassuntivo delle principali questioni epistemologiche sollevate da queste nozioni. Come avremo occasione di verificare, la consistenza dei ragionamenti causali, induttivi e probabilistici rappresenta una sfida di grande attualità nell’epistemologia contemporanea e le loro implicazioni si incrociano in modo non occasionale con grandi questioni di filosofia della scienza – quelle che abbiamo già discusso (come il problema della spiegazione scientifica, oggetto del capitolo 3, e quello delle leggi scientifiche, oggetto del capitolo precedente) e quelle che affronteremo in capitoli successivi (il problema del realismo nel capitolo 6 e il problema del significato dei modelli, analizzato nel capitolo 7). Dopo una sintetica introduzione all’evoluzione moderna dei concetti causali (sezione 5.2, Causalità), presenteremo la discussione humiana dei rapporti tra causalità e induzione, una discussione che continua a essere un punto di riferimento per la filosofia della scienza contemporanea
128
Causalità, induzione, probabilità
(sezione 5.3, Hume: dalla causalità all’induzione). Ci soffermeremo poi sul problema filosofico dell’induzione (sezione 5.4, Il problema filosofico dell’induzione): esso a sua volta giustifica il ricorso alla teoria della probabilità, al cui significato filosofico ed epistemologico sarà dunque dedicata l’ultima sezione. 5.2 Causalità «Paolo ha fatto una ricerca sulle cause della caduta dell’impero romano d’Occidente». «A causa della febbre, Marco dovette rimandare la prima dello spettacolo». «Il congelamento di una guarnizione fu la probabile causa dell’esplosione dello Shuttle». Non è difficile né raro imbattersi in espressioni come queste, utilizzate sia in libri ed articoli sia in situazioni di tutti i giorni. L’intuizione che è dietro tutti questi usi è evidente: se Paolo ha imparato che la caduta dell’impero romano d’Occidente fu un evento ricco di conseguenze importanti per l’Europa, la sua ricerca sulle cause di un simile evento lo porterà (si spera!) a una sua comprensione e a una sua spiegazione più profonde (si ricordi la discussione sulle relazioni tra causalità e spiegazione discusse nella sezione 3.4, Due idee sulla spiegazione scientifica: causalità e spiegazione). Altrettanto immediato è tuttavia rendersi conto che ci sono molti modi di usare una medesima intuizione: se dietro quest’ultima vi è il riferimento comune alla possibilità di spiegare e rendere ragione di certi fatti, un conto è dire che l’ascesa dei popoli ai confini dell’impero ne ha causato la caduta, un altro conto dire – come nel caso del secondo esempio – che è stata la febbre a causare il rinvio dello spettacolo. Mentre ci è familiare interpretare in senso causale un processo fisico e biologico, abbiamo bisogno di una catena argomentativa ben più lunga per dare senso all’idea che un fatto complesso come una situazione politica possa avere un valore causale, anche se in molti casi è innegabile che sussistano in questi ambiti delle relazioni genuinamente causali. Non a caso già Aristotele sosteneva, nel quarto secolo a.C., che esistono molte diverse forme di ragionamento causale, che tendono tutte ma in modo diverso a fornire un contributo esplicativo e che spesso si completano a vicenda, ed è proprio la dottrina aristotelica delle cause uno dei fattori fondamentali per lo sviluppo di un modello di scienza come conoscenza rigorosa dei “perché” delle cose e dei fenomeni. Come accade non di rado in filosofia, una nozione come quella di causa sembra presentare una doppia natura: da un lato, essa appare talmente immediata e implicita in molte situazioni di senso comune da non richiedere particolari teorie; dall’altro, basta addentrarsi in un’analisi concettuale per verificare la sua notevole problematicità. Tale complessità si innesta sull’evoluzione della scienza a partire dalla rivoluzione scientifica, producendo un’elaborazione dei concetti di causa, di principio causale o di inferenza causale che svolgono un ruolo essenziale nel consolidamento delle principali teorie scientifiche degli ultimi quattro secoli. Se una presentazione dettagliata dell’evoluzione del concetto di causa nel moderno pensiero scientifico e filosofico è un’impresa proibitiva, cercheremo tuttavia nelle pagine seguenti di delineare le fasi essenziali della storia dell’idea di causalità: in estrema sintesi, il suo sviluppo può essere
Causalità, induzione, probabilità
caratterizzato come una progressiva dissociazione di significati a partire dalla dottrina causale aristotelica, una dottrina che connette tra loro un agglomerato di nozioni – dalla causalità al determinismo, dalla spiegazione alla legge – che l’epistemologia odierna è abituata a distinguere. Raramente come nell’analisi del concetto di causa lungo la storia del pensiero filosofico e scientifico, si sono usate espressioni pressoché identiche per denotare una grande varietà di nozioni diverse. Già nella filosofia aristotelica, qualcosa può essere “causa” di una cosa, di un evento, di una proprietà di una cosa o di uno stato di cose, può essere “causa” come definizione e “causa” come capacità produttiva, può essere “causa” essendo anche temporalmente simultanea o addirittura successiva all’“effetto”. Nel caso di Aristotele, questo pluralismo di significati è coerente con un’interpretazione più generale della causa (aitìa), concepita sia come un fattore causale oggettivo sia come una modalità di spiegazione. È piuttosto il pensiero stoico che tende in modo esplicito a limitare il significato del concetto di causa all’aspetto attivo e produttivo. Questo modo di descrivere la causa si consolida con l’epoca moderna e l’avvento della rivoluzione scientifica, raggiungendo poi il suo massimo successo con l’affermarsi del meccanicismo scientifico e filosofico. Un luogo comune della storiografia filosofica ha per lungo tempo individuato nella “liquidazione” delle cause una delle caratteristiche fondamentali di larga parte del pensiero scientifico e filosofico moderno: fino a tempi recenti era piuttosto comune, tanto nella letteratura specialistica quanto nella pubblicistica più divulgativa o nei libri di testo, incontrare la tesi secondo cui la scienza moderna si afferma spiegando il come dei fenomeni ma lasciando il loro perché alle speculazioni dei metafisici (equiparando il “perché” di un fenomeno alla sua “causa ultima”). In realtà non si può affermare che il pensiero filosofico e scientifico dell’epoca moderna abbia bandito la nozione di causa dal proprio orizzonte, né che abbia contestato in sé l’idea che la nozione di causa avesse una precisa rilevanza conoscitiva. Buona parte della filosofia e della scienza del Seicento si poneva infatti in una consapevole contrapposizione con la tradizione precedente ed è stata giustamente sottolineata la frequenza con la quale gli autori seicenteschi qualificano la novità della propria opera [Rossi, 1997, 58-60]. Ma a tale novità si associa coerentemente proprio l’ideale della scoperta della vera causa: è inoltre a partire proprio dalla rivoluzione scientifica seicentesca che si sviluppa il rapporto tra causalità e leggi, che con la matematizzazione del mondo naturale iniziano ad assumere quella centralità che oggi siamo abituati a riconoscere loro. Un argomento analogo può essere sviluppato anche per quanto riguarda l’idea di causa finale, che appare essere più spesso reinterpretata che non respinta integralmente dalla filosofia e dalla scienza moderne. Filosofi come Bacone, Cartesio e Spinoza si espressero effettivamente in senso negativo sul valore esplicativo della causa finale, respingendo cioè gli argomenti che miravano a spiegare certi processi naturali ricorrendo all’idea di una tendenza all’attualizzazione di forme intrinseche agli enti coinvolti nei processi. Tuttavia si può dire che un’idea di finalità fu trasferita dall’interno all’esterno delle cose, in un quadro filosofico-naturale generale che continuava ad assicurare un suo valore alla
129
130
Causalità, induzione, probabilità
provvidenzialità delle leggi del cosmo. Una volta trasformata in questo senso, l’idea di causa finale conservò dunque un ruolo rilevante nella moderna metafisica della materia e del moto, e la sua sopravvivenza non è che l’ennesimo esempio di quanto complessa e variegata si presenti l’evoluzione in età moderna dell’aristotelismo e del suo ideale di scienza. Ma come si caratterizza la causa nel pensiero scientifico-filosofico moderno? L’idea che si consolida è quella secondo cui la relazione tra una causa e il suo effetto è una relazione di necessitazione (cfr. la sezione 4.5, La natura non accidentale delle leggi): se tra due eventi sussiste davvero una relazione causale, ciò equivale a pensare che la presenza della causa determini con necessità l’occorrere dell’effetto: con le ovvie differenze di stile filosofico e di terminologia, questa concezione accomuna il pensiero causale di personaggi centrali dell’età moderna come Galileo, Hobbes o Kant. Ci sono stati tuttavia filosofi che hanno negato la possibilità di giustificare la necessità della relazione causale: l’idea alternativa che questi filosofi propongono è quella di interpretare la relazione causale nei termini meno impegnativi di successione regolare. Senza soffermarsi su suoi precursori medievali e moderni (Guglielmo di Ockham, Nicola d’Autrecourt, Malebranche), la filosofia empirista di David Hume rappresenta la versione più matura di una teoria della causalità come successione regolare: in questa teoria, la relazione causale come successione regolare rimanda ai fondamenti psicologici dell’inferenza induttiva mediante la quale si perviene a stabilire l’esistenza della relazione stessa, vale a dire la disposizione dell’abitudine e la connessa generazione di credenza nella consistenza e stabilità di determinati nessi causali (esamineremo la relazione tra causalità e induzione nella prossima sezione). Secondo molti filosofi, l’idea stessa di successione regolare presuppone l’idea che esista una legge che distingua le successioni regolari da quelle accidentali. Dal punto di vista regolarista, quando si istituisce una relazione di causalità tra un particolare evento a (“causa”) e un particolare evento b (“effetto”), si considera la relazione particolare tra a e b come un esempio di una legge causale, vale a dire una connessione nomologica tra eventi “di tipo A” ed eventi “di tipo B” che prescrive che eventi di tipo B succedano regolarmente a eventi di tipo A. Le connessioni causali non possono infatti essere analizzate, nell’approccio regolarista, nei termini di una relazione di necessitazione che sussiste tra eventi particolari (cfr la sezione 4.5) dal momento che, per i regolaristi e per lo stesso Hume, nessun esame dei particolari eventi a e b per se stessi può aiutarci in alcun modo a comprendere il carattere causale della relazione che li connette (cfr. la sezione successiva). Inoltre, secondo la teoria regolarista, all’esistenza di una legge causale implicata da un’asserzione della forma «se a allora b» è strettamente associata la verità di un condizionale controfattuale, cioè (come abbiamo visto nella sezione 4.5.2) di un enunciato della forma «se a si verificasse, allora b si verificherebbe» (dove a e b sono intesi come eventi ipotetici e non attuali e dove l’occorrenza di a è intesa come condizione sufficiente per l’occorrenza di b) o della forma «se a non si fosse verificato, allora b non si sarebbe verificato» (dove a e b sono intesi come eventi attuali e dove l’occorrenza di a è intesa come condizione necessaria per l’occorrenza di b). Alla teoria regolarista si è opposta tuttavia la tesi secondo la quale possiamo avere conoscenza di relazioni causali senza avere conoscenza di regolarità causali e tantomeno di leggi causali. Questa tesi (sostenuta in
Causalità, induzione, probabilità
forme diverse da filosofi moderni e contemporanei come Locke, Ducasse e Anscombe) è l’assunzione fondamentale di una teoria che è stata definita teoria singolarista della causa: secondo questa teoria, singoli eventi possono essere causalmente correlati senza che tale relazione sia necessariamente una manifestazione particolare di una vera e propria legge o regolarità causale. I filosofi singolaristi hanno inoltre sottolineato il controverso statuto semantico dei condizionali controfattuali invocati dai regolaristi (di cui abbiamo parlato in precedenza), ai quali competerebbe così l’onere aggiuntivo di dimostrarne la fondatezza e l’indispensabilità. Regolarismo e singolarismo, pur distanti sui loro assunti di fondo, condividono il riferimento a una relazione causale nella quale la causa produce in modo deterministico l’effetto, si tratti di una determinazione singolare oppure conforme a una legge. Tuttavia il pensiero epistemologico del Novecento, attento all’evoluzione contemporanea delle scienze, ha ritenuto di mettere in discussione una tradizionale opzione metafisica, secondo cui la causalità era considerata sostanzialmente sovrapponibile al determinismo, inteso come la dottrina secondo cui lo stato del mondo a un certo istante individua un unico futuro possibile. Se questa sovrapposizione viene messa in discussione (ulteriori dettagli nella sezione sulla probabilità), si pongono le basi per formulare una teoria probabilistica della causalità: sullo sfondo di una rappresentazione del mondo fisico che contempli l’esistenza di processi fisici intrinsecamente aleatori (la cui natura probabilistica non può cioè essere ridotta all’incapacità pratica di conoscere la totalità dei parametri che governano quei processi), la relazione causale probabilistica è stata inizialmente interpretata come una relazione causale nella quale l’occorrenza della causa non determina in modo necessario l’occorrenza dell’effetto ma aumenta semplicemente la sua probabilità di occorrenza. Inizialmente si è tentato di realizzare formalmente mediante probabilità condizionali l’intuizione su cui questa interpretazione si basava, richiedendo che la probabilità dell’effetto data la causa fosse maggiore della probabilità a priori del solo effetto. Ma questo tentativo si è scontrato con difficoltà tecniche, prima tra tutte la possibilità di costruire dei controesempi nei quali un certo evento è indubitabilmente causa di un altro evento, anche se la probabilità a priori di questo è maggiore della sua probabilità data la sua causa effettiva. Il filosofo americano della causalità Wesley C. Salmon, allievo di Reichenbach, ha così proposto di sviluppare un’analisi probabilistica della causalità che non dipendesse su un punto così essenziale dalla nozione di probabilità condizionale ma che, nello stesso tempo, non rinunciasse a una concezione di causalità probabilistica nella quale la causa determina un aumento di probabilità nell’occorrenza dell’effetto44.
5.3 Hume: dalla causalità all’induzione La classica teoria della causalità, formulata da David Hume alla metà del XVIII secolo e destinata a enorme fortuna nei secoli successivi fino a oggi, può essere presentata 44
Per approfondimenti e bibliografia sulla causalità probabilistica, cfr. Laudisa 2010b, sez. 4.5.
131
132
Causalità, induzione, probabilità
a partire da un argomento del filosofo che abbiamo già introdotto a proposito del rapporto tra teorie e fatti (cfr. la sezione 2.4, Teoria e osservazione) e che risulta essenziale per delimitare il campo di applicazione dei concetti causali. Questo argomento consiste in una classificazione dei possibili contenuti di ogni conoscenza degna di questo nome: quelli logico-formali – regolati dal solo principio di non contraddizione e la cui validità è del tutto indipendente dal mondo dell’esperienza – e quelli empirici, che obbediscono non soltanto alle leggi della logica ma anche ai vincoli posti dal mondo della natura e dei fatti. Secondo la concezione humiana che ispira questa classificazione, una semplice proposizione come «Il successore del numero 5 è il numero 5+1» non deve il suo valore di verità a particolari proprietà del mondo empirico, ma soltanto alla struttura logica e concettuale dell’aritmetica (sono le humiane relazioni tra idee). Viceversa, il valore di verità di proposizioni come «l’atomo di idrogeno contiene un solo elettrone» o «la crisi economica fu tra le cause dell’avvento del nazismo in Germania» dipende in modo essenziale da come è fatto il mondo: dalla sua struttura fisico-chimica nel primo caso, dall’evoluzione dell’economia e della politica europea del XX secolo nel secondo caso (sono le humiane materie di fatto). Come abbiamo sottolineato nel capitolo 2 (La nozione di teoria scientifica e la sua evoluzione), si tratta di una classificazione sui possibili modi in cui un dato contenuto di conoscenza si rapporta con l’esperienza, una classificazione che punta a caratterizzare in modo completo la sfera della conoscenza umana nel suo complesso, dal momento che le relazioni di idee incorporano la certezza della conoscenza, mentre le materie di fatto ne rappresentano la crescita. La conseguenza più importante di questa classificazione per la discussione humiana su causalità e induzione è però che la logica e la matematica (cioè le discipline che raccolgono le proposizioni basate sulle relazioni tra idee) non possono né rendere conto dell’ampliamento della nostra conoscenza empirica né trasferire la loro necessità al mondo dei fatti. Quest’ultima conseguenza è però fondamentale per l’analisi della causalità, dal momento che i ragionamenti causali sarebbero adottati proprio perché permetterebbero sia di ampliare il dominio di conoscenza sia di conferire ad esso una forma di necessità empirica. Scrive infatti Hume: Tutti i ragionamenti relativi a materie di fatto sembrano fondati sulla relazione di causa ed effetto. Soltanto per mezzo di questa relazione possiamo andare al di là dell’evidenza della memoria e dei sensi. [...] Tutti i ragionamenti riguardanti fatti sono della stessa natura; in essi si suppone sempre che ci sia una connessione tra il fatto presente e quello che da esso viene inferito. Se non ci fosse nulla che li legasse insieme, l’inferenza sarebbe del tutto precaria [Hume 1987, vol. 2, 32].
Come Hume sottolinea in svariati passi, la pura analisi concettuale del significato di una relazione causale non è di per sé in grado di stabilire che quella relazione causale sussiste effettivamente tra certi fenomeni: un conto è indicare dei requisiti che il concetto di causa dovrebbe soddisfare, tutt’altro conto è scoprire che nella realtà effettiva esistono fenomeni o eventi che soddisfano di fatto quei requisiti. La posizione di Hume si contrappone direttamente alla teoria, diffusa tra non pochi filosofi, secondo la quale è la nozione stessa di “esistenza” di un oggetto a essere intrinsecamente
Causalità, induzione, probabilità
causale: in questa teoria, l’idea di un oggetto esistente è inseparabile dall’idea di ciò che lo ha “portato a esistere”, con la conseguenza che il principio di causalità appare una necessità della ragione non appena quest’ultima ammetta l’esistenza di oggetti esterni a essa. In accordo con la sua citata teoria delle origini della conoscenza, Hume sostiene invece l’impossibilità di fondare il principio di causalità appellandosi alla razionalità “intrinseca” del principio stesso. Se tale principio fosse infatti di natura logica – argomenta Hume – la sua negazione comporterebbe necessariamente una contraddizione. Tuttavia, la possibilità che un evento si verifichi senza una causa può risultare al massimo controintuitiva ma non immediatamente contraddittoria e questo è sufficiente per dimostrare che non possiamo affidarci alla pura logica se intendiamo giustificare i fondamenti della relazione di causalità. Non esiste nella causa nulla che la ragione veda e che ci faccia inferire l’effetto. Tale inferenza, se fosse possibile, equivarrebbe a una dimostrazione, in quanto sarebbe fondata soltanto sulla comparazione delle idee. Ma nessuna inferenza dalla causa all’effetto equivale a una dimostrazione. Di ciò ecco una prova evidente. La mente può sempre concepire che un qualsiasi effetto tenga dietro ad una qualunque causa e che un evento qualunque segua a un altro: ora tutto ciò che noi concepiamo è possibile, quanto meno in un senso metafisico; ma dovunque interviene una dimostrazione, il contrario è impossibile ed implica contraddizione. Perciò non vi è dimostrazione per una qualsiasi congiunzione di causa ed effetto. [Hume 1987, vol. 4, 10]
La relazione causale, pur non possedendo intrinsecamente alcuna necessità puramente logica, si configura nella filosofia di Hume come lo strumento fondamentale della conoscenza naturale e fattuale. L’uso della relazione di causa ed effetto è l’unica operazione mentale che ci permetta di ampliare le nostre conoscenze: essa ci pone infatti nella condizione di superare la semplice “presenza” di fronte alla mente del singolo dato sensibile e di uscire dall’immediatezza di questo, collegandolo ad altri oggetti non necessariamente presenti e costruendo così connessioni dotate di valore conoscitivo [Hume 1987, vol. 1, 86-7]. Il fatto che l’uso della relazione di causa ed effetto appaia addirittura come costitutivo della natura umana non implica tuttavia che sia possibile – secondo Hume – dimostrare la necessità di tale uso, né ovviamente da un punto di vista logico (sulla base di quanto sostenuto sulla natura non intrinsecamente logica della relazione causale) né dal punto di vista empirico. Prima di avviare l’analisi dei fondamenti del ragionamento causale, tuttavia, Hume intende sgombrare il campo da un’opzione logicamente possibile (già suggerita da Locke) che Hume considera concettualmente insostenibile: si tratta della tesi secondo cui la causalità dipende dall’esistenza di proprietà disposizionali degli oggetti coinvolti nella relazione causale. Secondo questa tesi, le relazioni causali si fondano su capacità “potenziali” – proprie dei singoli oggetti – ad entrare in relazioni di “produzione” o “determinazione” reciproche (cfr. per esempio Locke 2003, vol. 1, 359). Hume sottolinea invece con grande forza il carattere relazionale della causalità, attaccando la tesi secondo cui l’origine empirica della nozione di causa può essere
133
134
Causalità, induzione, probabilità
ritrovata a partire dall’analisi di presunte proprietà causali intrinseche a singoli oggetti: dal punto di vista humiano, l’attribuzione di natura causale a una certa relazione tra un oggetto A e un oggetto B non può dipendere da qualche proprietà disposizionale di A o di B per il semplice fatto che non siamo in grado di individuare una proprietà – in A o in B – che esprima la sua “produttività” causale in tutti e soli i casi nei quali siamo disposti a riconoscere che A e B sono causalmente collegati: «Diamo, dunque, uno sguardo a due di quegli oggetti che chiamiamo causa ed effetto, e rivolgiamoli da tutti i lati, al fine di trovare quell’impressione che produce un’idea di importanza così prodigiosa. Vedo subito che non devo cercarla in nessuna delle particolari qualità degli oggetti, poiché qualunque di queste io scelga, trovo oggetti che non la possiedono, e tuttavia sono chiamate cause ed effetti» [Hume 1987, vol. 1, 87]. Procedendo alla costruzione del suo argomento in accordo con le sue premesse empiriste, Hume si interroga allora sull’origine dell’idea di causalità con l’obiettivo di isolare un ristretto numero di caratteristiche generali che appaiono ricorrenti in concreti esempi empirici di eventi causalmente correlati. La contiguità tra causa ed effetto e la priorità temporale della causa rispetto all’effetto sono due di queste relazioni, ma da sole non sono sufficienti: la relazione costitutiva risulta la connessione necessaria tra causa ed effetto, vale a dire un legame stabile che va al di là di una coincidenza casuale [Hume 1987, vol. 1, 90]. Il problema è tuttavia che, a questo punto, un’analisi condotta in senso empirista richiede nuovamente di ritrovare l’origine appunto empirica della necessità di questa connessione tra cause ed effetti, e nessuna osservazione di singoli esempi di relazioni causali potrà consentirci di “vedere” tale necessità. L’argomento humiano sembra condurre a un vicolo cieco. Da un lato, l’indagine sulla causalità ci porta a concentrare l’attenzione su qualche forma di collegamento stabile e regolare tra eventi come segno della presenza di un’autentica relazione causale; dall’altro, una teoria genuinamente empirista della conoscenza non può giustificare la presunta “necessità” di tale collegamento sulla base di fatti reperibili direttamente nell’esperienza. Hume riformula dunque il problema in forma interrogativa, individuando due sottoproblemi: il primo chiede perché il principio «tutto ciò che esiste deve avere una causa» ci appare un principio necessario, mentre il secondo chiede quale sia il fondamento di quell’inferenza che, a partire da una serie di fenomeni, ci porta a ipotizzare relazioni causali per quei fenomeni, e perché tendiamo ad attribuire necessità anche a questo tipo di inferenza. Data cioè una certa connessione tra eventi che abbiamo buone ragioni per considerare autenticamente causale, la prima domanda pone il problema di quale sia la base per ritenere che quella connessione sia necessaria. Nella seconda domanda, ci si interroga invece sulla possibilità di trovare un fondamento per quel tipo di inferenza che stabilisce la sussistenza della relazione causale. Se dunque la prima domanda assume per ipotesi l’esistenza di relazioni causali e chiede conto del perché tendiamo ad attribuire carattere di necessità a tali relazioni, la seconda domanda pone l’attenzione su come siamo arrivati a ritenere di avere buone ragioni per asserire che una certa relazione tra eventi è effettivamente causale: se cioè la prima domanda evoca il problema della necessità del principio di causalità, la seconda domanda riguarda invece il principio di
Causalità, induzione, probabilità
induzione, in base al quale decidiamo di estendere anche al futuro la validità di leggi o regolarità che abbiamo riscontrato all’opera nel passato. Ma poiché nella prospettiva humiana è proprio mediante l’induzione che riteniamo di scoprire relazioni causali, ne consegue che la seconda domanda ha una sorta di priorità logica sulla prima: è dunque alla seconda domanda che Hume ritiene di dover rispondere in primo luogo, ritenendo che questo comporti anche una risposta alla prima. La nuova relazione che Hume indaga nella direzione dell’inferenza induttiva è quella di congiunzione costante, cioè la permanenza nel tempo di quell’associazione tra causa ed effetto basata su contiguità e successione: «La contiguità e la successione non sono sufficienti a farci affermare che di due oggetti uno è la causa e l’altro è l’effetto, salvo che tale contiguità e successione non siano confermate in molti casi» [Hume 1987, vol. 1, 101]. Ma l’analisi condotta nei confronti delle precedenti relazioni deve essere nuovamente applicata. Se la congiunzione costante fonda il passaggio dalla causa all’effetto, avremo compreso la natura di questa quando avremo scoperto il presupposto di quella, vale a dire l’assunzione che la natura evolva nel futuro secondo le stesse modalità manifestate fino ad ora: «I casi dei quali non abbiamo avuto nessun’esperienza debbono somigliare a quelli dei quali l’abbiamo avuta, e il corso della natura continua uniformemente sempre lo stesso» [Hume 1987, vol. 1, 102]. A questo punto, nell’argomentazione di Hume, se potessimo dimostrare la necessità logica dell’assunzione di uniformità naturale, sulla base della ipotizzata priorità logica dell’inferenza induttiva rispetto alla causalità, potremmo sostenere la natura del principio di causalità come «condizione di possibilità» dell’esperienza. Ma questo è proprio ciò che Hume sostiene essere impossibile. Analogamente alla formulazione di un generale principio di causalità, l’assunzione dell’uniformità del corso della natura non è infatti una verità logica – non è contradditorio concepire che il corso della natura possa mutare – né è possibile dimostrarne la necessità ricorrendo all’esperienza, dal momento che per far questo dovremmo utilizzare l’assunzione stessa, generando un circolo vizioso [Hume 1987, vol. 1, 104]. Il fondamento della nostra assunzione non è allora strettamente razionale: Quando, dunque, la mente passa dall’idea o impressione d’un oggetto all’idea o credenza d’un altro, non è determinata dalla ragione, ma da certi princìpi che associano tra loro le idee di questi oggetti e le uniscono nell’immaginazione [Hume 1987, vol. 1, 105]. In tutti i ragionamenti derivanti dall’esperienza c’è un passo compiuto dalla mente che non è sorretto da alcun argomento o processo dell’intelletto. [Hume 1987, vol. 2, 47]
Questo passo è invece sorretto dall’abitudine, una caratteristica della natura umana che Hume interpreta come una predisposizione – di fronte al ricorrere di certi eventi secondo una certa successione – ad attendersi la ripetizione di quegli eventi in quella successione. Diffidente come sempre nei confronti di spiegazioni essenzialiste in termini di ‘cause ultime’, Hume si riferisce all’abitudine come a un tratto della natura umana non ulteriormente analizzabile in termini di strutture psicologiche più profonde. Come sottolinea esplicitamente nella Ricerca sull’intelletto umano: «Adoperando questa parola, non pretendiamo d’aver dato la ragione ultima di tale inclinazione. Noi non facciamo che indicare la presenza di un principio della natura umana, che è universalmente riconosciuto e che è molto noto nei suoi effetti» [Hume 1987, vol. 2, 49].
135
136
Causalità, induzione, probabilità
5.4 Il problema filosofico dell’induzione Un passaggio chiave nell’analisi humiana della causalità consiste nel rifiuto della natura puramente logica dei ragionamenti causali, per i quali – dal punto di vista di Hume – non sono sufficienti le sole relazioni tra idee. Come abbiamo visto, questo significa che l’esistenza di una relazione causale tra due (tipi di) eventi non può essere una pura conseguenza logica dell’esistenza dell’evento “di tipo-causa”. Abbiamo bisogno, in altri termini, di vedere come è fatto il mondo per scoprire se il verificarsi dell’evento di tipo-causa determina o meno il verificarsi dell’evento di tipo-effetto e questa circostanza implica, a sua volta, che è perfettamente possibile e non contraddittorio che l’evento che ipotizziamo essere l’evento di tipo-causa si verifichi senza che si verifichi anche l’evento di tipo-effetto. L’assenza di necessità in questo rapporto tra causa ed effetto si riflette naturalmente anche sull’induzione, dal momento che – come ha mostrato proprio l’analisi di Hume – è l’induzione il problema che si nasconde dentro il problema della natura della causalità. Il principio chiave in questo caso è il principio di uniformità della natura, mediante il quale assumiamo che la validità delle leggi espressa finora sia l’effetto di una struttura naturale stabile, destinata dunque a preservare quelle leggi anche in futuro. Ora, è non soltanto possibile ma anche utile esprimere questo principio in forma condizionale: ciò significa che se per comodità indichiamo con L l’insieme delle principali leggi naturali che tengono insieme il cosmo che abitiamo da qualche millennio, il principio viene a esprimere la seguente struttura condizionale IND
se < L vale da – f a tpresente > allora
dove “– f” rappresenta simbolicamente il passato e “+ f” rappresenta simbolicamente il futuro. La forma condizionale di questo argomento solleva allora immediatamente il problema di quale sia la relazione logica tra l’antecedente e il conseguente: la validità di certe leggi fino a tpresente consente di derivare con necessità la loro validità anche nel futuro? E se la risposta fosse negativa, la validità di certe leggi fino a tpresente ci fornisce comunque una giustificazione plausibile per estenderne la validità anche al futuro? Se sì, sulla base di quali ragioni? In base all’analisi generale che la logica svolge sulla struttura degli argomenti, è evidente che il principio IND non configura un argomento deduttivo, dal momento che l’antecedente non implica logicamente il conseguente: anche se può risultare psicologicamente controintuitivo, l’eventualità che leggi valide fino al presente cessino di valere sotto opportune condizioni è in linea di principio perfettamente possibile e dunque, in termini logici, esistono mondi possibili nei quali è vero l’antecedente di IND ma non il suo conseguente. Ciò significa che nel principio IND la validità dell’antecedente può al massimo fornire una giustificazione per la validità del conseguente: possiamo cioè considerare la validità di una serie di leggi naturali come una buona ragione per pensare che tale validità si preservi sotto opportune condizioni anche nel futuro. Si tratta – come già Hume faceva notare due secoli fa – di un’assunzione estremamente naturale, nonché tacitamente presupposta
Causalità, induzione, probabilità
in molte situazioni, non soltanto scientifiche, ma questo non elimina il problema di comprendere in un senso filosofico più robusto cosa significa avere una ‘buona ragione’ per il principio di induzione45. Una opzione possibile è quella di interpretare la relazione tra antecedente e conseguente di IND in termini probabilistici. In questa opzione la validità dell’antecedente, incapace di implicare logicamente la validità del conseguente, sarebbe tuttavia in grado di renderla “probabile” (in fondo, l’apparenza controintuitiva di un mondo naturale nel quale cessano di valere una serie di leggi ritenute “fondamentali” riflette questa idea al livello della psicologia). Questa opzione, largamente indagata dai filosofi della scienza, comporta tuttavia la necessità di confrontarsi con un problema ancora più generale, rivelatosi anch’esso di grande interesse e urgenza per la filosofia della scienza, vale a dire il problema di cosa esattamente si debba intendere con il termine “probabilità”. Dal momento che su questo problema non esiste un consenso diffuso, colui che assume l’interpretazione probabilistica degli argomenti induttivi accetta di fatto di spostare l’attenzione dal problema dalla natura degli argomenti induttivi al problema della natura della probabilità, nella speranza che una possibile soluzione a quest’ultimo costituisca una buona soluzione anche per il primo. Il campo delle interpretazioni filosofiche della probabilità, tuttavia, è un campo molto discusso e controverso al quale dedicheremo una sintetica presentazione nella sezione successiva. Un’opzione alternativa si rivolge non a un tentativo di giustificazione logica e concettuale della struttura dell’argomento induttivo, ma piuttosto a una sua giustificazione pragmatica (anche in questo caso, nello spirito delle teorie humiane sulla natura della conoscenza non certa). Secondo questa prospettiva, l’uso di argomenti induttivi è un elemento costitutivo del ragionamento scientifico e, in quanto tale, va accettato come un fatto fondativo della scienza stessa. La costruzione di argomenti che formulano congetture di per sé non derivabili logicamente dalle premesse è esattamente ciò di cui la teorizzazione scientifica è fatta, dal momento che in questo tipo di procedure consiste l’invenzione di ipotesi da parte della razionalità scientifica. Se si assume dunque che l’uso di argomenti induttivi rappresenti una delle vere e proprie regole del gioco nell’indagine scientifica del mondo, diventa plausibile accettare il principio di induzione senza richiederne una giustificazione nella quale il principio è logicamente derivato da qualche condizione ancora più fondamentale46. Questa prospettiva appare interessante, ma non priva di problemi. Come ha mostrato 45
Molti filosofi, a partire dallo stesso Hume, hanno sottolineato che non potremmo nemmeno disporre di un argomento induttivo per giustificare IND, poiché un simile argomento presupporrebbe esattamente il principio che si sta cercando di giustificare e dunque l’intero ragionamento sarebbe circolare. Molti, ma non tutti: in Black [1954] l’autore tenta di difendere una soluzione induttiva al problema dell’induzione (un tentativo peraltro criticato già in Salmon 1957). 46 Reichenbach chiama “logica probabilistica” una teoria capace di giustificare il principio di induzione facendo riferimento all’uso di strumenti probabilistici nelle scienze [Reichenbach 1969, 450].
137
138
Causalità, induzione, probabilità
il filosofo della probabilità Brian Skyrms, la giustificazione pragmatica costituisce una sorta di metagiustificazione, o giustificazione di secondo livello, per l’induzione e tale giustificazione di secondo livello rinvia all’assunzione di una sorta di principio di meta-induzione che sembra richiedere a sua volta una giustificazione [Skyrms 1974, 66-7]. Filosofi come Reichenbach ammettono che il problema dell’induzione è un problema effettivo e riconoscono che il tentativo di formulare una giustificazione è non soltanto legittimo ma anche rilevante. Troviamo tuttavia anche filosofi – come Peter F. Strawson – che contestano la ricerca di una giustificazione dell’induzione come autentico problema conoscitivo. Secondo Strawson, lo scetticismo sul fondamento dei procedimenti induttivi in termini di giustificabilità razionale si scontra con il fatto che la nostra stessa intuizione e uso del concetto di razionalità comprende l’idea di procedimento induttivo. Secondo questa soluzione (definita analitica e proposta da Strawson nel suo Introduction to Logical Theory del 1952), non può esistere un autentico problema di razionalità nell’uso dell’induzione, perché l’uso stesso di procedimenti induttivi contribuisce a definire la razionalità: l’enunciato «l’induzione è razionale» rappresenterebbe in questa prospettiva una verità analitica, vale a dire un enunciato vero in virtù del suo solo significato [Strawson 1952, 256-63]. La proposta di Strawson richiama un atteggiamento presente in una parte rilevante delle discussioni filosofiche sui fondamenti della conoscenza nella prima parte del XX secolo, un atteggiamento che tende a concepire la soluzione di un dato problema filosofico come la sua effettiva dis-soluzione. Questa tendenza, che può risultare attraente da molti punti di vista, si scontra tuttavia nell’applicazione di Strawson con una circostanza non facilmente aggirabile: la decisione di includere l’uso di procedimenti induttivi nella definizione di razionalità è convenzionale. Per quanto intuitiva e plausibile, tale decisione è infatti del tutto contingente. Supponiamo per esempio che un’ipotetica comunità di soggetti razionali decida di includere nella sua definizione di razionalità un principio in forte conflitto con la nostra intuizione, per esempio il principio in base al quale un esame mattutino dei fondi di caffé contribuisce alla previsione dei fatti della giornata e quindi permette una condotta personale più aderente al raggiungimento dei propri obiettivi. A un filosofo che si presentasse con la richiesta di una giustificazione dei fondamenti di un simile principio la comunità potrebbe in linea di principio rispondere in modo analogo a quanto propone Strawson, ma in questo caso la sensazione che lo scetticismo del filosofo sia ben posto sarebbe ben più forte. La conseguenza finale sembra essere allora la mancata soluzione in ogni caso del problema: l’esigenza di qualche argomento giustificativo si sposta cioè dal livello della maggiore o minore fondatezza dell’uso del principio di induzione al livello della maggiore o minore fondatezza di questa o quella definizione di razionalità, e non sembra esserci alcuna soluzione puramente analitica a questo problema. Dagli esempi introdotti finora, emerge un dilemma esplicativo. Da un lato, il principio di induzione non può essere giustificato da un argomento deduttivo, capace di rendere la validità delle leggi di natura nel futuro una conseguenza logica dell’assunzione di validità delle stesse leggi nel passato. Dall’altro, tanto l’argomento di Skyrms sulla
Causalità, induzione, probabilità
meta-induzione quanto quello sulla convenzionalità della definizione di razionalità mostrano che l’enfasi sull’aspetto pragmatico e di senso comune dell’induzione non produce comunque argomenti che, sia pure contingenti, siano dotati di un grado di plausibilità superiore al fatto puro e semplice di accettare l’induzione perché non disponiamo di alternative razionali credibili. Di fronte a un dilemma come questo, il filosofo Laurence BonJour propone l’idea che una regolarità naturale oggettiva (del tipo richiesto dall’inferenza induttiva) possa essere giustificata a priori quando la si consideri come la migliore spiegazione dell’evidenza empirica fornita comunemente dagli argomenti induttivi. La stabilità oggettiva del mondo naturale, capace di giustificare la proiezione nel futuro di regolarità riconosciute come valide nel passato, costituirebbe la “migliore” giustificazione dell’inferenza induttiva nel senso che qualsiasi altra spiegazione apparirebbe come meno plausibile, come una spiegazione cioè che richiede condizioni più atipiche e “irragionevoli”. Potremmo, con un esempio rozzo ma indicativo, pensare di giustificare l’inferenza induttiva ricorrendo all’ipotesi di una struttura di folletti: ogni volta che siamo nella necessità di utilizzare un’inferenza induttiva in una certa area di indagine scientifica, un certo numero di folletti si affannano a organizzare quella porzione di mondo naturale interessata dall’inferenza, in modo tale che anche in quel caso l’applicazione dell’inferenza stessa risulta giustificata. Questa ipotesi giustificherebbe l’uso dell’inferenza induttiva in ogni singolo caso: tuttavia essa richiederebbe che la realtà avesse una struttura ben strana e “irragionevole” e non costituirebbe certo in questo senso la “migliore” spiegazione per il nostro uso dell’inferenza induttiva. Posizioni come quelle di BonJour sfuggono alle controindicazioni delle posizioni pragmatiche, ma non mancano di avere un prezzo impegnativo da pagare. Oltre alla necessità di tenere conto delle difficoltà cui va comunque incontro l’idea di un’inferenza alla miglior spiegazione (cfr. sezione 6.6, Il realismo scientifico: ottimismo abduttivo e pessimismo induttivo), la posizione di BonJour richiede di assumere una tesi metafisica molto robusta, nella quale il mondo naturale è pensato come dotato di una propria regolarità oggettiva e di regolarità causali costanti, una tesi che – per quanto intuitivamente plausibile e presupposta dal senso comune – non ha mancato di essere sottoposta a critiche radicali da parte di filosofi antirealisti (cfr. sezione 6.3, L’anti-realismo e il primato epistemico dell’osservazione). 5.5 Il problema filosofico della probabilità 5.5.1 La teoria matematica della probabilità Nella sezione precedente ci siamo soffermati sulla struttura logica degli argomenti induttivi, evidenziando come la relazione tra le premesse di un generico argomento induttivo e le sue conclusioni non si presenti come una necessitazione ma semplicemente come una giustificazione. Mentre nel caso degli argomenti deduttivi è semplice interpretare questa relazione di necessitazione (essa non è altro che la relazione di conseguenza logica o derivabilità), nel caso degli argomenti induttivi questa relazione di “giustificazione” ha bisogno di uno sforzo interpretativo maggiore.
139
140
Causalità, induzione, probabilità
In prima battuta, non possiamo infatti semplicemente generalizzare la nozione di conseguenza logica (o di derivabilità), che per usare termini semplici è invece un esempio di relazione “tutto-o-niente”: o certe premesse implicano logicamente una conclusione o non la implicano. Nel caso degli argomenti induttivi abbiamo viceversa bisogno di una particolare interpretazione della relazione di “giustificazione”, un’interpretazione cioè che renda conto del fatto che giustificare un’affermazione può essere una questione di grado: in altre parole, certe premesse possono giustificare una conclusione in un grado molto elevato (quando siamo quasi certi della validità del nostro argomento induttivo) o invece in un grado limitato (quando siamo invece quasi certi che il nostro argomento induttivo non funzioni). Nel tentativo di affrontare un problema come questo, l’epistemologia contemporanea è ricorsa all’idea di probabilità: intuitivamente, un argomento induttivo solido è quello nel quale la “probabilità” che la conclusione discenda dalle premesse è molto elevata, mentre in un argomento induttivo debole tale probabilità è viceversa decisamente bassa. A prima vista, si tratta di una prospettiva molto naturale. Dal momento che la probabilità non è altro che un’assegnazione di valori numerici compresi tra 0 e 1, nella quale la vicinanza a 1 rappresenta una “quasi certezza” e la vicinanza a 0 rappresenta la “quasi certezza che non”, questo strumento teorico appare adatto a trattare l’idea di giustificazione, che come abbiamo accennato è un’idea intrinsecamente graduale e dunque ben rappresentabile dalla gradualità di tutti i valori numerici presenti nell’intervallo tra 0 e 1 (estremi compresi, naturalmente). Per quanto intuitivamente “naturale”, una simile prospettiva si scontra però con il fatto che la probabilità si trova divisa in una sorta di dualismo fondazionale, una curiosa situazione teorica che non ha molte analogie nel campo dei fondamenti delle scienze contemporanee. La probabilità ha infatti una formulazione matematica univoca, rigorosa e condivisa, alla quale si associa invece una pluralità di interpretazioni filosofiche, largamente divergenti e fondate su assunzioni concettuali tra loro incompatibili. Sebbene curiosa, questa situazione di coesistenza tra un livello matematico univoco e un livello filosofico al quale esistono diversi punti di vista – tra loro incompatibili – sulla natura della probabilità non è comunque patologica dal punto di vista dei fondamenti scientifici. Il motivo è semplice: tutte le possibili interpretazioni filosofiche della probabilità esistenti soddisfano di fatto le proprietà della formulazione matematica, che funziona anzi come teoria “di controllo” nei confronti di una qualsiasi ipotetica interpretazione filosofica che andasse ad aggiungersi a quelle già proposte. Se cioè un filosofo si presentasse con una nuova interpretazione della probabilità, sostanzialmente diversa da tutte quelle già presenti, e intendesse convincerci che la sua interpretazione è la migliore possibile, la prima cosa da fare sarebbe chiedere al nostro filosofo se la sua interpretazione soddisfa le proprietà matematiche del calcolo delle probabilità. Se la risposta fosse positiva, allora potremmo anche fare lo sforzo di prendere questa nuova interpretazione in seria considerazione ma se, viceversa, la risposta non potesse essere positiva possiamo risparmiarci la fatica: nessuna interpretazione filosofica della natura della probabilità può permettersi di violare le leggi matematiche della probabilità e continuare nel contempo a chiamare “probabilità” il proprio oggetto di studio con
Causalità, induzione, probabilità
pieno diritto. Vediamo allora brevemente in cosa consiste la definizione di (misura di) probabilità secondo la teoria matematica della probabilità, per poi passare alla presentazione delle principali interpretazioni filosofiche47. La formulazione matematica della nozione di probabilità, quantitativa e rigorosa, è stata stabilita negli anni ’30 del XX secolo e rappresenta il riferimento obbligato per qualsiasi uso scientifico preciso della nozione di probabilità. In base a questa formulazione, una misura di probabilità (classica) è una funzione p tale che i. p: B(S) o [0, 1], vale a dire p è definita su una struttura algebrica B (precisamente, un’algebra di Boole) di sottoinsiemi di un insieme campione S e assume valori nell’intervallo chiuso [0, 1] tali che, per ogni elemento X dell’algebra B, 1.1 p(X) t 0 1.2 p(S) 1; ii. p soddisfa la proprietà di additività finita: se X e Y sono elementi della struttura B tali che la loro intersezione è nulla (X Y ), allora p(X Y) p(X) + p(Y).48 Le condizioni (i) e (ii) rappresentano gli assiomi della teoria matematica della probabilità (detti assiomi di Kolmogorov, dal nome del matematico russo Andrej N. Kolmogorov che nel 1933 fornì una sistemazione matematicamente rigorosa del calcolo delle probabilità). Un breve commento esplicativo a (i) e (ii). Intuitivamente, la struttura B è un insieme di eventi possibili. A un qualsiasi elemento di B, cioè a un qualsiasi evento possibile della struttura, la funzione p assegna una probabilità di occorrenza, che varia tra 0 [non occorrenza certa] e 1 [occorrenza certa]; la struttura B contiene poi il cosiddetto “evento certo” (condizione 1.2), vale a dire un evento che riceve per definizione un valore di probabilità pari a 1 (da qui la qualifica di “certo”). Se per esempio lo spazio di eventi possibili è quello dei lanci di un dado (con relative facce come esito dei lanci), l’evento certo è rappresentato dal fatto che almeno una faccia uscirà in seguito a un lancio, quale che sia il numero indicato sulla faccia. Poiché, sotto l’ipotesi che gli eventi siano lanci, almeno una faccia si mostrerà sempre, è naturale assumere che l’evento «esce almeno una faccia del dado» sarà sempre realizzato e che quindi riceva 1 come valore di probabilità. Inoltre la funzione p è tale che, se due eventi non possono verificarsi entrambi (circostanza espressa formalmente dal fatto di avere
47 48
Un’eccellente introduzione ai problemi epistemologici della probabilità è Gillies [2000].
La proprietà di additività si può estendere alla proprietà cosiddetta di V-additività (o additività numerabile) nel caso in cui l’algebra di Boole su cui è definita la misura sia una V-algebra di Boole, contenga cioè un numero infinito di elementi sui quali sia possibile definire un’operazione di unione () infinitaria.
141
142
Causalità, induzione, probabilità
intersezione nulla), allora la probabilità della loro unione è la somma numerica delle loro probabilità. Poniamo X = “esce il 2” e Y = “esce il 6”: poiché un singolo lancio non può ovviamente far uscire sia X sia Y, segue che X e Y sono tra loro incompatibili. Dunque, se p è una misura di probabilità allora p(“esce il 2” oppure “esce il 6”) p(“esce il 2”) + p(“esce il 6”). Su queste proprietà matematiche essenziali della nozione formale di probabilità non esiste alcuna controversia. Totalmente differente è invece il caso delle interpretazioni filosofiche della natura della probabilità: se cioè è chiaro e condiviso quale debba essere il comportamento matematico della probabilità, esiste un’ampia e articolata discussione su cosa dovremmo ritenere che sia la probabilità come oggetto di indagine filosofica. Quando, in altri termini, ci confrontiamo con un’espressione come >p(“esce il 2”) 1/6], con che tipo di oggetto abbiamo a che fare esattamente? La circostanza che a un evento come “esce il 2” sia associato un valore di probabilità è legata – per così dire – a un fatto del mondo o invece esclusivamente alle nostre facoltà di conoscenza (in particolare al fatto che tali facoltà sono limitate)? Se la probabilità è in qualche modo un fatto o una proprietà del mondo, di che fatti e proprietà si tratta esattamente? E se invece la probabilità fosse connessa alle limitazioni della nostra conoscenza (probabilità come “surrogato” della certezza della conoscenza), ciò significa che ci sono ampie porzioni di realtà che saranno strutturalmente precluse alla scienza? Come abbiamo già anticipato, esiste una pluralità di interpretazioni della probabilità. Introdurremo dapprima l’interpretazione cosiddetta classica, associata al nome del matematico e fisico Pierre Simon de Laplace (1749-1827), per poi passare alle principali interpretazioni contemporanee, che si sviluppano proprio a partire dai problemi generati dall’interpretazione classica: quella frequentista, quella logicista e quella soggettivista. 5.5.2 L’interpretazione classica L’interpretazione definita “classica” della probabilità fu elaborata da Laplace, che in opere come la Théorie analytique des probabilités [1812] sistematizzò i contributi di due secoli di indagini matematiche sulla probabilità. Profondo conoscitore della fisica matematica che faceva da sfondo alla meccanica newtoniana, Laplace colloca alla base della sua immagine del mondo il determinismo (una condizione che a rigore caratterizza più le teorie che non la natura stessa). In generale, una teoria fisica deterministica prescrive una precisa evoluzione degli stati di una data classe di sistemi fisici in funzione del tempo. In particolare, una teoria di questo tipo descrive lo stato di un sistema fisico mediante l’assegnazione, a un dato istante t considerato «iniziale», di valori determinati a certe grandezze fissate, dette variabili di stato, e sulla base delle equazioni dinamiche che governano tali variabili è in grado di fornire l’evoluzione del sistema in esame in ogni possibile istante: nel caso tipico della meccanica newtoniana,
Causalità, induzione, probabilità
dato uno stato iniziale del sistema all’istante t, specificato da valori determinati di posizione e velocità, la soluzione dell’adeguata equazione del moto esiste ed è unica per ogni istante t´ diverso da t. Nel caso newtoniano, è proprio questa proprietà di esistenza e unicità delle soluzioni dell’equazione del moto che rende deterministica la teoria: in altri termini, la caratterizzazione di uno stato del sistema in esame come dotato di certi valori per le sue variabili dinamiche a un certo istante consente di determinare univocamente lo stato del sistema in un altro istante. Nella visione laplaciana, il determinismo caratterizza non soltanto le teorie come quella newtoniana ma la stessa realtà naturale, e la probabilità ha uno statuto puramente epistemico, cioè vincolato dalle condizioni limitate della nostra conoscenza in quanto soggetti umani. In altri termini, secondo Laplace, il ricorso agli strumenti della teoria della probabilità è reso necessario dal fatto che non siamo in grado di governare conoscitivamente tutte le forze e i processi in atto nella natura. La teoria della probabilità soccorre cioè laddove non siamo in grado di controllare tutte le cause degli eventi naturali, che di per sé non sono affatto indeterminati ma invece rigidamente vincolati dalle leggi deterministiche che li governano. Come evocato in un celebre passo del Saggio filosofico sulla probabilità (che era di fatto l’introduzione ‘discorsiva’ al corposo testo già citato, vale a dire la Théorie analytique des probabilités), soltanto un’intelligenza più che umana in grado di dominare intellettualmente tutte le forze operanti nell’universo fisico potrebbe fare a meno della probabilità, proprio perché grazie alla sua conoscenza completa delle cause dei fenomeni “niente sarebbe incerto ai suoi occhi”. Nell’ambito di questa prospettiva epistemica, Laplace propone una definizione di probabilità che, sia pure intuitiva sotto certe condizioni, si è rivelata in realtà problematica sotto vari aspetti. Secondo l’interpretazione laplaciana classica, la probabilità di un evento E è fornita dal seguente rapporto: numero dei casi “favorevoli” a E ----------------------------------------------------numero dei casi (ugualmente) possibili Nel caso canonico dei dadi, la probabilità di un evento come [“esce il 6”] al termine del lancio di un dado risulta per esempio pari a 1/6: il numero totale di facce del dado è pari a 6, mentre il numero di casi favorevoli è 1, dal momento che soltanto l’uscita del 6 è “favorevole” rispetto all’evento [“esce il 6”]. Nel caso invece in cui si ricerchi la probabilità di un evento come [“esce un numero pari”] al termine del lancio di un dado, avremo che la probabilità di quell’evento è pari a 3/6 1/2: fermo restando il 6 come numero della facce del dado, il numero di casi favorevoli all’evento è pari a 3, dal momento che costituiscono casi “favorevoli” rispetto all’evento le uscite del 2, del 4 e del 6. L’idea laplaciana della probabilità come derivante dall’ignoranza di tutti i parametri in gioco svolge un ruolo importante in questa definizione e in particolare nella richiesta che, nel calcolo dei casi “ugualmente possibili”, questi casi siano uniformemente considerati
143
144
Causalità, induzione, probabilità
equivalenti se non si possiedono elementi di conoscenza che portino a privilegiare un caso rispetto ad altri. In mancanza dunque di conoscenze aggiuntive, la definizione laplaciana richiede che i casi possibili siano ugualmente possibili (questa assunzione è stata definita variamente come condizione di equipossibilità o come principio di ragione insufficiente). Nel caso ancora una volta del lancio dei dadi, l’assunzione di equipossibilità equivale semplicemente alla richiesta che il dado non sia “truccato”, non abbia cioè differenze interne nella distribuzione del peso capaci di indirizzare l’atterraggio del dado più spesso su una certa faccia rispetto alle altre. Per quanto intuitiva, la definizione laplaciana soffre di due limitazioni molto serie. La prima riguarda la consistenza stessa della definizione: cosa intendiamo infatti esattamente quando definiamo i casi ugualmente possibili? L’intuizione ci suggerisce che “ugualmente possibili” debba essere inteso come sinonimo di “ugualmente probabili”, dal momento che quell’uguaglianza può a rigore essere intesa soltanto come uguaglianza numerica e la probabilità assegna proprio numeri. Ma l’intero ragionamento rischia di essere circolare, poiché stiamo usando il concetto di probabilità proprio nel momento in cui stiamo cercando di definirlo! Ma se non possiamo interpretare “equipossibile” come sinonimo di “equiprobabile” (se non disponendo di qualche definizione alternativa di probabilità), come altro dovremmo interpretarlo? La seconda limitazione riguarda invece il grado di applicabilità della teoria laplaciana. Anche mettendo tra parentesi il problema della consistenza della definizione, la teoria laplaciana sembra in grado di coprire soltanto quelle situazioni nelle quali è possibile individuare in modo effettivo un numero finito di casi equipossibili (quel numero destinato a finire al denominatore). In mancanza di questa possibilità la teoria classica è condannata al silenzio, quando esistono invece molte situazioni che ci appaiono potenzialmente adatte a un’analisi probabilistica ma per quali non è strutturalmente possibile esibire i casi “equipossibili”. Quando studiamo per esempio la probabilità che un lavoratore esposto a un materiale tossico X contragga un certo disturbo, ci troviamo non di rado di fronte all’incapacità di stabilire in modo inequivocabile un nesso causale diretto tra quel materiale e quel disturbo; se siamo comunque convinti che tale nesso ci sia e debba essere evidenziato, ricorriamo allo studio della frequenza con cui i lavoratori esposti a X hanno contratto il disturbo, sapendo comunque che ci sarà un certo numero di lavoratori che, pur essendo stati esposti, non hanno mostrato alcuna patologia. Ricordando che nello studio di una tale frequenza abbiamo comunque l’obiettivo di definire una probabilità di contrarre il disturbo, non c’è alcun modo di definire in un contesto simile i ‘casi possibili’ né tantomeno di stabilire se sono equipossibili o no. Un simile difetto di applicabilità ha motivato dunque un certo numero di studiosi a concentrarsi sulle frequenze come oggetto privilegiato di studio di una teoria della probabilità, dando vita all’interpretazione frequentista di cui ci occupiamo nella prossima sezione. 5.5.3 L’interpretazione frequentista L’interpretazione frequentista, sviluppata nel XX secolo principalmente da Richard von Mises (1883-1953) e Hans Reichenbach (1891-1953), intende attribuire alla probabilità uno statuto non soltanto epistemico ma anche empirico. Se cioè la
Causalità, induzione, probabilità
probabilità ha a che fare con l’analisi delle frequenze con cui una certa proprietà si manifesta in un campione di casi di riferimento, tale frequenza dipende in qualche modo dalla struttura dell’esperienza alla quale l’analisi probabilistica viene applicata. In questa prospettiva è la realtà empirica a giustificare – sia pure secondo modalità complesse – il fatto che una certa proprietà si manifesti con una determinata frequenza: la probabilità diventa in altri termini un aspetto dei fenomeni stessi. Dal punto di vista frequentista, i fenomeni che possono essere oggetto di analisi probabilistica sono i fenomeni ripetibili, che – presentandosi in successione – tendono a manifestare certe proprietà in una misura quantitativa resa dalla loro frequenza. La formulazione di von Mises prevede appunto come campioni di riferimento determinate classi di fenomeni ripetibili, definiti collettivi, per i quali si richiedono due condizioni fondamentali. (1) Stabilità delle frequenze. I rapporti di frequenza con cui si manifestano certe proprietà in un collettivo tendono a stabilizzarsi con l’aumento del numero di osservazioni. In altri termini, quanto maggiore è il numero di osservazioni, tanto minore diventa l’oscillazione delle frequenze intorno a certi valori numerici (quelli che appunto esprimono le frequenze delle proprietà osservate). (2) Casualità dei collettivi. I collettivi devono soddisfare una condizione forte di casualità: ciò significa che le frequenze espresse da una certa analisi probabilistica non devono dipendere da come si sceglie di selezionare la successione di fenomeni ripetibili del collettivo. Cosa significano esattamente queste due condizioni? Consideriamo la (1) e richiamiamo la semplice situazione del lancio di una moneta. Si tratta di una situazione che può tipicamente essere trattata anche dalla teoria classica: la probabilità che esca testa (o croce) è chiaramente pari a 1/2 perché gli eventi possibili sono due e il caso favorevole all’evento “occorrenza di testa” (o “occorrenza di croce”) è uno solo. Alla luce tuttavia della problematicità della teoria classica, grazie a (1) la teoria frequentista garantisce la conservazione di quelle probabilità derivabili entro la teoria classica, mantenendo la possibilità di trattare probabilisticamente anche situazioni – come quella ricordata al termine della sezione precedente (insorgenza di patologie in dipendenza da esposizione a materiali tossici) – che risultano intrattabili dalle risorse teoriche dell’interpretazione classica. La (1) garantisce infatti che, se il numero di lanci è “sufficientemente” alto, il valore di probabilità di testa si approssimerà a 1/2, e che un ulteriore aumento nel numero dei lanci non farà che diminuire ulteriormente la distanza tra i valori osservati e il valore “ideale” 1/2. Cosa significa intuitivamente? In linea di principio, niente esclude che – poniamo – nei primi 100 lanci i risultati si distribuiscano in modo inaspettato, per esempio 80 volte esce croce e soltanto 20 volte esce testa. Limitatamente a questa serie di lanci, la frequenza dell’evento “occorrenza di testa” sembrerebbe cioè essere pari a 1/5. Ciò che l’assunzione (1) si incarica di spiegare è che quanto più aumenta il numero dei lanci tanto più diminuisce la distanza tra la proporzione delle uscite testa (cioè il rapporto numerico tra le effettive uscite testa e il
145
146
Causalità, induzione, probabilità
numero totale dei lanci fino a quel momento) e il rapporto numerico ideale 1/2. È in questo preciso senso che, ricordando l’espressione linguistica stessa dell’assunzione, le frequenze si “stabilizzano”, e questo è anche ciò che si osserva di fatto, se si ha la pazienza di effettuare un numero “sufficientemente” elevato di lanci, di registrarne il risultato e di calcolarne infine la frequenza: quando per esempio quei 100 lanci diventano 1000, la distanza tra 1/5 e 1/2 inizia a diminuire e questo processo non fa che accentuarsi con l’aumento dei lanci. Ammettendo di rinunciare completamente alle assunzioni della teoria classica, rinunciando cioè a ricorrere, per spiegare queste frequenze, a dubbie ipotesi di “equipossibilità”, come spiegano i frequentisti questa circostanza? Facendo appello all’ipotesi per cui il mondo empirico (o quantomeno quella parte del mondo empirico che può essere analizzato dalla scienza con metodi probabilistici) possiede intrinsecamente una sorta di vera e propria struttura casuale, che un’adeguata indagine probabilistica non fa che mettere in evidenza e riportare alla luce. È ancora questa struttura casuale che svolge il suo ruolo quando si tratta di giustificare in qualche modo l’assunzione (2), quella relativa alla casualità dei collettivi. Mentre l’assunzione (1) prescrive una condizione per così dire “in positivo” della struttura probabilistica del mondo naturale, l’assunzione (2) prescrive un vincolo “in negativo”. La richiesta di casualità dei collettivi esprime infatti l’idea che la struttura autenticamente casuale del mondo empirico non possa essere modificata ad arbitrio, e in particolare non possa essere modificata dalla scelta di un certo processo di preparazione del collettivo rispetto a un altro. Se adottiamo l’assunzione (2), assumiamo cioè che non sia possibile alterare la struttura delle frequenze semplicemente attraverso le possibili scelte di collettivi rispetto ai quali calcolare quelle frequenze. In un esempio utilizzato da von Mises, consideriamo una successione di n numeri che risultano da n lanci di una roulette: tipicamente, ogni numero di una roulette avrà una frequenza di uscita che – in accordo con l’assunzione (1) – si approssima al rapporto tra 1 e il numero di casi favorevoli al tipo di puntata che viene fatta di volta in volta (singoli numeri, coppie, quartine, ecc.). In base all’assunzione (2), la successione è un collettivo corretto per un’analisi probabilistica soltanto se è impossibile scegliere una sottosuccessione mediante qualche criterio tale che la frequenza di un certo numero per una certa puntata ha un valore rispetto alla successione e una valore diverso rispetto alla sottosuccessione. Se viceversa scoprissimo che è possibile influenzare le frequenze individuando una certa sottosuccessione, allora – utilizzando l’esempio della roulette – potremmo utilizzare questa scoperta per depredare le case da gioco puntando sulla sottosuccessione “giusta”: ma allora – questa è la prospettiva dei frequentisti – la successione originaria non sarebbe portatrice di autentica casualità. Pur aumentando il dominio di applicabilità della probabilità rispetto alla teoria classica, l’interpretazione frequentista non manca di aspetti critici. In primo luogo, la definizione stessa di probabilità secondo il frequentismo, richiedendo la nozione di collettivo e quindi la definibilità di un insieme di eventi simili su cui calcolare le frequenze, esclude la trattazione probabilistica di eventi singoli. Se è vero che l’analisi probabilistica si esprime spesso nei confronti di larghe classi di eventi e quindi su larga scala (gli esempi non mancano in molte aree, dalla fisica delle particelle all’uso di modelli quantitativi
Causalità, induzione, probabilità
nelle scienze sociali), è anche vero che proprio in scienze di rilievo come l’astrofisica o la biologia evolutiva gli scienziati si trovano davanti a eventi singolari, dotati di profonde conseguenze, sui quali appare altamente plausibile voler condurre un’analisi probabilistica: esistono condizioni iniziali che rendano più o meno “probabili” il Big Bang o un certo fenomeno di speciazione? Di fronte a domande come queste, le risorse teoriche del frequentismo non consentono per definizione di azzardare alcuna risposta. Un ulteriore problema di applicabilità della teoria deriva inoltre dal fatto che la definizione frequentista di probabilità richiede, a rigore, di definire collettivi infiniti: nella definizione stessa interviene infatti la nozione matematica di tendenza al limite, una nozione che proviene dal campo dell’analisi infinitesimale e che richiede la nozione di infinito matematico. 49 5.5.4 L’interpretazione logicista L’interpretazione logicista della probabilità, prefigurata negli studi di logici e matematici come Leibniz e Boole nel XVIII e nel XIX secolo, è stata più compiutamente sviluppata da John Maynard Keynes (1883-1946), celebre economista, e successivamente da Rudolf Carnap (1891-1970), logico, filosofo della scienza e influente promotore del Circolo di Vienna. Il logicismo riporta l’attenzione sull’aspetto epistemico della probabilità, considerata una nozione che riguarda un certo tipo di relazioni logiche tra enunciati. Secondo i logicisti, un qualsiasi enunciato probabilistico [«La probabilità dell’evento F è pari a x»] presuppone un’idea condizionale: quando cioè si attribuisce probabilità x all’evento F, non lo si fa “nel vuoto” ma si assume implicitamente che x rappresenti la probabilità di F sulla base dell’evidenza disponibile a favore del verificarsi di F. In questo senso, secondo i logicisti, ogni enunciato probabilistico esprime una probabilità condizionale: l’espressione «la probabilità di F» è dunque sempre la forma breve di un’espressione come «la probabilità di F data l’evidenza E disponibile per F», un’espressione che possiamo indicare per brevità con p(F | E)50.
! 49 Tecnicamente, il problema non è soltanto quello che la definizione richiede di trattare la frequenza come il limite di una successione infinita. Bisogna anche considerare il fatto che potremmo costruire successioni che in teoria sarebbero per noi di grande interesse probabilistico ma per le quali non esiste alcun limite: in questo caso, non potremmo nemmeno parlare di probabilità! 50
L’espressione p(F | E) si legge “probabilità di F, data E”, dove E rappresenta naturalmente l’insieme dell’evidenza disponibile.
147
148
Causalità, induzione, probabilità
A sua volta la probabilità condizionale, sempre secondo l’interpretazione logicista, esprime un particolare tipo di relazione logica tra l’enunciato che esprime il verificarsi di F e l’enunciato che esprime l’evidenza E disponibile per F. Conveniamo di denotare rispettivamente con e tali enunciati. Traducendo in termini enunciativi l’espressione citata sopra per la probabilità condizionale, l’espressione p(|) esprime quella particolare relazione logica tra gli enunciati e data dal grado con cui l’evidenza E giustifica il verificarsi dell’evento F. Con e possiamo allora idealmente costruire un argomento induttivo nel quale rappresenta la premessa e la conclusione; nel contesto di questo argomento, la quantità p(|) – che è, lo ricordiamo, un numero compreso tra 0 e 1, essendo la p una probabilità – rappresenta allora, secondo la prospettiva logicista, la misura nella quale giustifica effettivamente . $ $%&$% ! " #
$
Potremo avere allora in linea di principio i casi estremi p(|) 1 e p(|) 0.
$ $%&$% ! " # ' )
$
$ $%&$% ! * + " # ' )
* , $,
Causalità, induzione, probabilità
Nei casi intermedi, infine, l’evidenza risulta capace di giustificare parzialmente , dove il numero p(|) compreso tra 0 e 1 (ma diverso sia da 0 sia da 1) rappresenta esattamente l’espressione quantitativa di questa misura parziale. Nelle parole di Carnap: Io concepisco la probabilità logica come una relazione logica in qualche modo analoga all’implicazione logica; infatti ritengo che la probabilità possa essere considerata come un’implicazione parziale. Se l’evidenza è così forte che l’ipotesi segue logicamente da essa – ossia ne è logicamente implicata – abbiamo uno dei casi limite in cui la probabilità è 1. Analogamente, se la negazione di un’ipotesi è logicamente implicata dalla particolare evidenza, allora la probabilità logica dell’ipotesi è 0. Fra questi due valori esiste tutto un continuo di casi intorno ai quali la logica deduttiva non è in grado di dirci nulla, salvo che né l’ipotesi né la sua negazione possono essere dedotte dall’evidenza. Su questo continuo deve intervenire la logica induttiva, la quale tuttavia, come la logica deduttiva, riguarda solo gli enunciati considerati, non i fatti di natura. Mediante un’analisi logica di una data ipotesi h e di una data evidenza e, noi concludiamo che h non è implicata logicamente ma che, per così dire, è parzialmente implicata da e in un dato grado. (Carnap 1971, p. 50, corsivo aggiunto)
La parte evidenziata in corsivo non soltanto esprime esplicitamente la natura epistemica dell’interpretazione logicista – la probabilità riguarda essenzialmente gli enunciati sui fatti, non i fatti stessi – ma permetterebbe anche di fondare l’uso induttivo della probabilità: soltanto l’interpretazione epistemica della probabilità nel senso della relazione logica di implicazione parziale tra enunciati può evitare una grave forma di circolarità nell’uso viceversa empirico della probabilità (Skyrms 1974, pp. 219-20). Come già ricordato, espressioni come p(|) rappresentano il grado nel quale l’evidenza E giustifica F. Se ora interpretassimo p(|) x come un enunciato sui fatti, dovremmo trovare un’evidenza sufficiente a giustificare questo enunciato fattuale: dovremmo, in altri termini, trovare un’ulteriore evidenza E c relativa a p(|) e valutare l’espressione p[ p(|)
x | E c]
cioè la probabilità dell’enunciato p(|) x data la nuova evidenza E c. Supponiamo che tale probabilità sia pari a y. Ma a questo punto anche l’enunciato p[ p(|)
x | E c]
y
sarebbe un enunciato fattuale, bisognoso di una nuova evidenza E cc per generare l’espressione p^p[ p(|)
x | E c]| E cc`,
cioè la probabilità dell’enunciato p[ p(|) E cc, e così via in un regresso all’infinito.
x | E c)]
y data la nuova evidenza
149
150
Causalità, induzione, probabilità
La tesi sulla natura logica delle relazioni implicite negli enunciati probabilistici ha dunque il vantaggio di evitare questa forma di regresso, ma deve confrontarsi con il problema fondamentale di quale sia l’esatta natura di queste relazioni logiche. Nella particolare concezione di Keynes, tali relazioni esprimono le forme di una credenza razionale e sono dotate di una loro oggettività: in questo senso, tuttavia, l’interpretazione logicista sembra doversi affidare a una forma di platonismo sulle relazioni logiche di implicazione parziale tra enunciati analoga a quella relativa alle entità e alle strutture matematiche in genere. Inoltre la mente sarebbe in grado di cogliere in modo intuitivo la sussistenza di queste relazioni perché, analogamente anche qui alle consuete formulazioni del platonismo matematico in genere, l’esistenza in senso oggettivo di tali relazioni è accessibile al pensiero. Sempre in riferimento a Keynes, è a causa del carattere intuitivo del nostro accesso alle relazioni logiche implicite nei giudizi probabilistici che non tutti i giudizi probabilistici possono ricevere una formulazione quantitativa, una tesi fortemente attaccata dai critici dell’interpretazione logicista.51
5.5.5 L’interpretazione soggettivista L’interpretazione soggettivistica della probabilità, i cui iniziatori sono stati il logico e filosofo Frank Plumpton Ramsey (1903-1930) e il matematico Bruno De Finetti (1906-1985), può essere introdotta proprio partendo da una nozione chiave dell’interpretazione logicista, vale a dire quella di credenza razionale. Nella prospettiva dei logicisti si tratta di una nozione in qualche modo astratta, associata alla citata capacità di intuizione delle relazioni logiche di implicazione parziale sussistenti tra enunciati: queste relazioni infatti, sempre secondo i logicisti, sono oggettive ed è anzi proprio la loro supposta oggettività uno dei fondamenti dell’interpretazione (vedi l’argomento appena citato sul regresso all’infinito). Ne consegue che qualsiasi agente razionale chiamato a valutare degli enunciati probabilistici condividerà con tutti gli altri agenti razionali l’intuizione di tali relazioni, che – per così dire – se ne stanno lì ferme nello spazio astratto delle possibilità in attesa che qualcuno le “colga” con il pensiero. La necessità di un’assunzione così forte è un aspetto indubbiamente problematico per l’interpretazione logicista, sulla quale proprio Ramsey si sofferma in una pagina del suo articolo Truth and probability [Verità e probabilità], un testo del 1926 che rappresenta una delle fonti fondamentali dell’interpretazione soggettivista: Ma torniamo a una critica più fondamentale delle concezioni di Keynes, cioè la naturale obiezione che non sembrano esistere realmente cose come le relazioni probabilistiche che egli descrive. Egli suppone che, almeno in certi casi, esse possano essere percepite ma, parlando per me, credo fermamente che ciò non sia vero. Io non le percepisco e, se devo convincermi che esse esistono, questo deve accadere mediante un argomento; 51
Cfr. in proposito Carnap [1971], pp. 46-7, Gillies [2000], pp. 25-49.
Causalità, induzione, probabilità
inoltre sospetto che nemmeno gli altri le percepiscano, dal momento che si trovano così poco in accordo su quale di queste relazioni colleghi una qualsiasi coppia di proposizioni. [Ramsey 1926, 161]
Se la nozione di credenza razionale non può fondarsi su un’assunzione così forte come la tesi che qualsiasi agente razionale sarà in grado di cogliere almeno le fondamentali relazioni logiche di implicazione parziale, definite nell’immenso mare delle proposizioni logicamente possibili, diventa plausibile indebolire tale nozione nei termini di una credenza razionale soggettiva, dove il termine “soggettiva” va inteso in senso non metaforico. Nell’interpretazione soggettivista la probabilità perde il suo legame con un’idea astratta e universale di razionalità, per diventare letteralmente il grado di credenza di un particolare individuo nel verificarsi di un certo evento. In questo senso, l’adozione di un’interpretazione soggettivista implica che la notazione p(E), intesa intuitivamente come “la probabilità che l’evento E si verifichi”, dovrebbe essere a rigore sostituita da una notazione come p[x](E), dove la casella [x] dovrebbe idealmente essere riempita, di volta, dal riferimento al particolare soggetto individuale che formula il giudizio di probabilità. Non potrà dunque essere nemmeno concepita l’idea che esista la probabilità di E, ma avremo un insieme del tipo ^p[Mario](E), p[Giovanni](E), .....` cioè l’insieme formato dai vari gradi di credenza di Mario, Giovanni, .... nel verificarsi dell’evento E. Nell’interpretazione soggettivista i fondamenti della nozione di probabilità escono dall’area della logica per entrare in quella della costituzione psicologica dei soggetti che formulano valutazioni probabilistiche. La profonda trasformazione della nozione di credenza razionale da logica in soggettivopsicologica non impedisce tuttavia di assegnare a questa nuova formulazione una definizione quantitativa: dopo tutto, l’interpretazione soggettivista è pur sempre l’interpretazione di una probabilità, vale a dire di una nozione che – come abbiamo messo in evidenza all’inizio della sezione 5.5 – deve comunque conformarsi alle condizioni formali codificate nella definizione di misura di probabilità come funzione matematica. Per raggiungere questo obiettivo, l’interpretazione soggettivista riformula il problema nel linguaggio dei giochi e delle scommesse e definisce il grado di credenza di un individuo nel verificarsi di un evento nei termini della maggiore o minore propensione di quell’individuo a scommettere sul verificarsi di quell’evento. Si introduce allora il cosiddetto quoziente di scommessa, cioè il rapporto tra la quantità che l’individuo è disposto a scommettere e la quantità che incasserebbe in caso di vincita: quanto più questo rapporto si approssima a 1, tanto maggiore è la fiducia dell’individuo nel verificarsi dell’evento sul quale si scommette. Dati allora un sistema di scommesse e la definizione di quoziente appena introdotta, i soggettivisti definiscono coerente tale sistema quando è esclusa la possibilità che l’individuo accetti di subire una perdita certa al termine del sistema. La condizione di coerenza stabilisce una condizione di consistenza minimale per un generico sistema di scommesse – nessuno vi si imbarcherebbe se fosse certo di uscirne con dei debiti! – e nel farlo
151
152
Causalità, induzione, probabilità
stabilisce anche una connessione tra l’approccio soggettivista dell’interpretazione e la nozione di razionalità: la definizione di coerenza permette infatti di considerare pienamente legittima la situazione in cui individui diversi assegnino probabilità anche molto diversificate a uno stesso evento, senza che per questo alcuni tra questi individui debbano essere considerati “meno razionali” di altri. È sufficiente infatti che nessuno degli individui coinvolti accetti di scommettere avendo la certezza di uscire dal sistema in perdita, anche se ciascuno degli individui avrà il suo insieme soggettivo di informazioni, congetture, ipotesi per assegnare a quell’evento una certa probabilità . Si pone tuttavia a questo punto un problema di rilievo: è davvero possibile costruire una probabilità soggettivista scientificamente solida su basi che appaiono così esili come le fallibili congetture di un singolo individuo e della sua struttura psicologica? Possiamo davvero partire dalle valutazioni probabilistiche di un soggetto individuale, esposto a vincoli e limiti conoscitivi di ogni genere, e arrivare a una rigorosa teoria in accordo con la struttura formale individuata dagli assiomi di Kolmogorov? Uno dei principali risultati dell’approccio soggettivista alla probabilità consiste esattamente nella risposta affermativa a domande come queste: si tratta del cosiddetto Teorema di Ramsey-De Finetti, che stabilisce che un sistema di scommesse è coerente se e solo se soddisfa gli assiomi di Kolmogorov. Si tratta di uno dei risultati più importanti ottenuti nel campo dei fondamenti della probabilità, perché dimostra che le basi puramente formali del calcolo delle probabilità possono essere giustificate essenzialmente con il solo aiuto della condizione di coerenza, una condizione che – come abbiamo notato – appare come un semplice e plausibile requisito di razionalità. Naturalmente l’interpretazione soggettivista si espone anche a rilievi critici di natura filosofica ed epistemologica più generale, connessi nel loro insieme alla possibile insoddisfazione nei confronti del rifiuto di una probabilità in qualche modo “oggettiva”. Proprio la scienza del XX secolo sembra aver fornito prove rilevanti del fatto che parti importanti del mondo naturale appaiono come dominate da un’aleatorietà “intrinseca”, e che la probabilità sembra avere a che fare non soltanto con le modalità di valutazione dei soggetti ma anche con le strutture stesse della natura: di fronte a questa circostanza, non è agevole accettare quella forma di agnosticismo sulle proprietà e le strutture probabilistiche della realtà naturale che costituisce in fondo l’effettivo esito filosofico dell’interpretazione soggettivista della probabilità.
Il realismo e l’anti-realismo scientifico
6.1 L’immagine scientifica del mondo Numerose sono le dispute scientifiche ancora aperte e i quesiti che non hanno ancora ricevuto risposte condivise tra gli scienziati. Tuttavia non possiamo negare il fatto che la ricerca scientifica, nei vari settori in cui si articola, abbia prodotto reti di teorie “mature” sulle quali nessuno si sognerebbe oggi di gettare l’ombra del dubbio. Non sono ancora chiari i dettagli dei nostri meccanismi visivi o cognitivi e grandissima parte del cervello costituisce territorio ancora inesplorato, ma nessun neuroscienziato avrebbe alcun dubbio nell’affermare che nel cervello esistano particolari cellule chiamate neuroni, la cui attività elettrica è dovuta a un intricato ma relativamente noto meccanismo chimico che coinvolge il passaggio di cariche elettriche attraverso la loro membrana. Che la maggior parte degli atomi di idrogeno abbiano un solo elettrone, e che la maggior parte degli atomi di sodio abbiano undici protoni e undici elettroni, fa ormai parte di quelle assunzioni teoriche sulla costituzione della materia che nessuno oggi contesterebbe. La ragione di tale atteggiamento sta, ovviamente, nel fatto che queste reti di teorie “funzionano” molto bene: nel fatto, cioè, che esse hanno collezionato un’innumerevole quantità di successi nella spiegazione, nella previsione e nel controllo di vari aspetti del reale. Pensiamo alla misura in cui persino le nostre attività quotidiane sono basate sull’accettazione implicita delle principali teorie scientifiche di cui oggi disponiamo. Non ci serviremmo di farmaci se non assumessimo, più o meno consapevolmente, l’affidabilità del cuore teorico della chimica. Non ci sogneremmo di montare su un aeroplano se non ci fidassimo dell’aerodinamica e delle miriadi di teorie fisiche che stanno alla base del buon funzionamento del mezzo, e nemmeno ci fideremmo del buon funzionamento della nostra automobile, del nostro frigorifero, del forno a microonde, né di qualsiasi altro dispositivo che utilizziamo nella nostra vita quotidiana. Praticamente ogni nostra azione è basata sull’accettazione implicita o esplicita di una estesa rete di teorie scientifiche che, in virtù della sconfinata lista di successi predittivi, manipolativi ed esplicativi resi da esse possibili, qualifichiamo come teorie “mature”. Ogni teoria scientifica esprime o fornisce gli strumenti per esprimere asserzioni sul mondo. In base alle neuroscienze moderne il cervello animale contiene miriadi di neuroni; la membrana di ogni neurone è attraversata da piccoli pori, detti canali ionici; questi canali ionici permettono il passaggio selettivo di atomi carichi positivamente o negativamente; e così via. Le neuroscienze odierne ci raccontano come sono fatte certe porzioni del reale, anche di quelle che non possiamo vedere né toccare. Oppure pensiamo alla chimica. Se buttiamo un po’ di sale grosso in un bicchiere d’acqua,
154
Il realismo e l’anti-realismo scientifico
mescolando un po’ con un cucchiaio il sale si scioglierà. A occhio nudo non siamo in grado di vedere molto più di questo. Ma qualsiasi manuale di chimica aggiornato ci racconta cosa sta succedendo e perché. Anzitutto ci permette di capire come sono fatti i cristalli di sale. Per motivi ben noti, legati al numero degli elettroni presenti nei loro orbitali, quando un atomo di cloro si trova sufficientemente vicino a un atomo di sodio accade che i due membri della coppia assumano carica elettrica diversa: l’atomo di sodio si carica positivamente (diventando quello che viene chiamato uno ione sodio) e l’atomo di cloro si carica negativamente (diventando uno ione cloruro). In virtù delle loro cariche opposte, ioni di cloro e di sodio tendono a legarsi formando una struttura cristallina molto compatta: il cristallo di sale, appunto. Quando un cristallo di sale è immerso in acqua, le cariche elettriche positive e negative distribuite su ogni molecola d’acqua (formatisi per motivi legati al tipo di legame che si instaura tra idrogeno e ossigeno nella molecola H2O) tendono ad attrarre i singoli ioni sodio e cloruro, erodendo la struttura cristallina e producendo quindi l’effetto osservabile dello scioglimento del sale in acqua. Le teorie scientifiche esprimono quelle che potremmo chiamare descrizioni del mondo a varie scale di grandezza, dal regno di ciò che possiamo direttamente constatare con i nostri sensi a ciò che, invece, è ben oltre le nostre possibilità osservative. Naturalmente è lecito chiedersi se le descrizioni del mondo fornite dalle teorie scientifiche odierne – limitiamoci al nucleo di teorie scientifiche “mature” nel senso in cui abbiamo utilizzato questo termine qualche riga fa – siano vere o false in senso letterale: se la realtà sia fatta proprio come le nostre migliori teorie affermano che sia. Il problema di valutare la verità o la falsità letterale delle descrizioni scientifiche del mondo basate sulle teorie odierne non è banale, se riferito a ciò che tali teorie ci dicono a proposito degli aspetti non direttamente osservabili della realtà. La chimica odierna “parla” di enti osservabili, come i cristalli di sale e le soluzioni acquose, ma esprime anche descrizioni del mondo sulle quali i nostri sensi non hanno presa diretta. Per esempio, appartiene al nucleo teorico “maturo” della chimica l’enunciato «l’atomo di sodio, nel suo isotopo più comune, ha 11 elettroni e 11 protoni». Questo enunciato è vero o falso in senso letterale? (Chiedersi se questo enunciato sia vero o falso in senso letterale significa chiedersi anzitutto se esistano effettivamente atomi di sodio, elettroni e protoni, proprio come leggiamo in tale enunciato, e in secondo luogo se la maggior parte degli atomi di sodio abbiano effettivamente 11 elettroni e 11 protoni. Utilizziamo l’espressione “in senso letterale” per intendere che vogliamo valutare la verità o falsità di enunciati di quel tipo proprio come si presentano alla lettera, e non quindi come enunciati in qualche senso metaforici.) Ora, che esista una bottiglia sul nostro tavolo è questione che possiamo facilmente affrontare con i nostri sensi. Ma non possiamo vedere atomi, elettroni e protoni; dunque non possiamo giudicare la verità o la falsità di enunciati come «l’atomo di sodio, nel suo isotopo più comune, ha 11 elettroni e 11 protoni» attraverso l’osservazione diretta, nello stesso senso intuitivamente chiaro in cui possiamo vedere se sul tavolo c’è o meno una bottiglia. Non abbiamo basi osservative dirette per convincerci del fatto che, per la maggior parte, gli atomi di sodio hanno effettivamente
Il realismo e l’anti-realismo scientifico
11 elettroni e 11 protoni. La chimica odierna afferma che le cose stanno proprio così; ma dovremmo fidarci? Dovremmo credere che le nostre migliori teorie scientifiche abbiano effettivamente “colto nel segno”, descrivendoci accuratamente la realtà anche nei suoi aspetti non osservabili? Ecco la domanda attorno alla quale si sviluppa il dibattito tra le posizioni che classificheremo come realismo scientifico e anti-realismo scientifico: Vi sono buone ragioni per ritenere che le teorie scientifiche “mature” forniscano descrizioni letteralmente vere del mondo nei suoi aspetti non osservabili?
Coloro che sottoscrivono il realismo scientifico sostengono di sì. Secondo loro abbiamo buone ragioni per fidarci di ciò che le teorie scientifiche “mature”, prese alla lettera e non metaforicamente, ci raccontano a proposito del mondo, sia nei suoi aspetti osservabili che in quelli non osservabili. Altri – gli anti-realisti scientifici – ritengono che la risposta giusta sia “no”: non vi sono buone basi per ritenere che il mondo sia proprio come le teorie “mature”, letteralmente intese, ci dicono che sia nei suoi aspetti non osservabili. Gli scienziati dicano ciò che vogliono a proposito di ciò che non possiamo vedere o toccare; ma non abbiamo buone ragioni, secondo gli anti-realisti, per ritenere che ciò che essi dicono al proposito sia letteralmente vero, che dunque vi siano atomi, elettroni, protoni, canali ionici, e così via. Attenzione: gli anti-realisti non si spingono a negare l’esistenza di atomi, elettroni, protoni; non si spingono a negare che, per la maggior parte, gli atomi di sodio abbiano 11 elettroni e 11 protoni. Affermano invece che non abbiamo buone basi per decidere, dunque né per affermare né per negare le affermazioni scientifiche a proposito della realtà non osservabile. Sono dunque agnostici su questo problema52. I realisti scientifici, invece, sono degli ottimisti. Ritengono che le nostre migliori teorie siano riuscite a penetrare nei recessi più enigmatici della natura e a raccontarci com’è fatto il mondo anche laddove i nostri occhi non possono arrivare. Si tratta di una posizione un po’ presuntuosa? Alcuni l’hanno sostenuto e, come vedremo, hanno ritenuto che tale presunzione ci debba indurre a rifiutare il realismo scientifico. Allo stesso tempo dobbiamo ammettere che il realismo scientifico è una posizione molto vicina al senso comune. Molti di noi – soprattutto quelli che non hanno mai affrontato le problematiche filosofiche discusse in questo capitolo – non si limitano a dare per scontato che gli atomi esistano, ma si spingono a ritenere che vi siano buone ragioni per crederlo. Come potrebbero non esistere gli atomi e la chimica odierna, che ha proprio nell’esistenza degli atomi le proprie fondamenta, “funzionare” così bene? Gli anti-realisti scientifici, d’altra parte, sono meno ottimisti e più cauti. Possiamo giustificare solo ciò che osserviamo; poiché non possiamo vedere gli elettroni a occhio 52
Come per altre posizioni filosofiche, l’anti-realismo scientifico si presenta in molte varianti. Il nostro scopo non è quello di presentare un quadro esaustivo (per cui si rimanda il lettore a Psillos 1999), ma quello di fornire alcune basi per impostare il problema e cogliere le varie implicazioni delle principali posizioni in competizione. La posizione anti-realista che prendiamo qui in esame è vicina sotto alcuni aspetti a quella di van Fraassen [1980].
155
156
Il realismo e l’anti-realismo scientifico
nudo, non abbiamo allora basi per capire se sia vero o falso che «l’atomo di sodio, nel suo isotopo più comune, ha 11 elettroni e 11 protoni». Secondo molti di loro dovremmo sospendere il giudizio su tale questione. La cautela è sempre ben accetta nelle nostre attività quotidiane, ma dobbiamo riconoscere che in questo caso essa porta a un risultato piuttosto deludente. In fondo, secondo gli anti-realisti scientifici, non abbiamo ragioni per ritenere che il mondo sia fatto proprio come le teorie scientifiche sostengono che sia. Non abbiamo ragioni per ritenere che la scienza, parlando di atomi, elettroni e protoni, affermi qualcosa di letteralmente vero sul mondo (stiamo utilizzando l’avverbio “letteralmente” molto spesso; è molto importante utilizzarlo, più avanti capiremo perché). Non abbiamo buone ragioni per ritenere che la scienza odierna sia arrivata là dove l’occhio non può arrivare, estendendo i nostri sensi sino a svelare la natura del reale inaccessibile allo sguardo. In effetti è un risultato un po’ deludente, ma tant’è: se il ragionamento che porta gli anti-realisti scientifici a questa conclusione è corretto, dovremo adattarci. Vedremo punti di forza e falle di questa posizione. Per ora limitiamoci a menzionare il fatto che la posizione anti-realista sulla scienza solleva qualche problema di non facile soluzione. Se le teorie scientifiche non ci raccontano cose vere sul mondo non osservabile, allora cosa affermano quando esprimono frasi come «l’atomo di sodio, nel suo isotopo più comune, ha 11 elettroni e 11 protoni»? Stanno affermando qualcosa o no? Stanno parlando in senso metaforico? Come dicevamo poc’anzi, il senso comune spinge con forza la maggior parte di noi a ritenere che, se le scienze “mature” affermano l’esistenza di atomi, allora gli atomi esistano veramente. Che la riflessione filosofica sfidi spesso il senso comune, chiedendoci di giustificare le convinzioni che ne derivano, non è una novità. Entriamo quindi in questo vivo territorio di indagine filosofica. 6.2 Breve intermezzo su convinzione, verità e giustificazione Prima di discutere i principali argomenti a sostegno del realismo scientifico e dell’antirealismo scientifico è opportuno aprire una breve parentesi dedicata a termini che useremo spesso: “convinzione”, “verità” e “giustificazione”. Cominciamo dalla prima. Utilizzeremo la parola “convinzione” per riferirci a credenze di qualsiasi tipo, e indipendentemente dal grado di fiducia che il soggetto ripone su di esse. Talvolta, nel linguaggio ordinario, utilizziamo espressioni come «sono convinto che X» anziché «credo che X» quando vogliamo affermare che riteniamo vero che X con un elevato livello di certezza. Non faremo questa distinzione linguistica nelle pagine che seguono. Credere che vi sia una bottiglia sul tavolo sarà equivalente, per noi, a essere convinti che vi sia una bottiglia sul tavolo. Le convinzioni possono essere espresse attraverso enunciati, cioè attraverso espressioni linguistiche che possono essere vere o false. Se credo che vi sia una bottiglia sul tavolo, allora credo che l’enunciato «C’è una bottiglia sul tavolo» sia vero; se credo
Il realismo e l’anti-realismo scientifico
che non vi sia una bottiglia sul tavolo allora credo che quell’enunciato sia falso. Non sorprendentemente, i filosofi hanno teorizzato a lungo a proposito delle condizioni sotto le quali un enunciato possa essere qualificato come “vero”. In questo capitolo adotteremo la seguente posizione a proposito della verità di un enunciato: l’asserzione «c’è una bottiglia sul tavolo» è vera se e solo se c’è una bottiglia sul tavolo, indipendentemente dalle mie convinzioni al proposito. In altre parole, quell’enunciato è vero se il mondo è fatto proprio come è descritto da quell’enunciato. Questa posizione presuppone l’adesione a una tesi filosofica molto generale, detta realismo metafisico, in base alla quale vi sono cose che esistono indipendentemente dalla nostra mente, ovvero indipendentemente dal fatto che noi le conosciamo, che crediamo o meno nella loro esistenza, e così via. L’alternativa (chiamata idealismo metafisico) è quella di assumere che l’esistenza del mondo dipenda dalla nostra mente: questa sedia esiste soltanto in quanto la percepisco, in quanto ritengo che esista, e così via. Le tesi che discuteremo in questo capitolo – il realismo scientifico e l’anti-realismo scientifico – sono entrambe comprese nel vasto ombrello del realismo metafisico. La diatriba tra realismo scientifico e anti-realismo scientifico non è relativa all’esistenza di un mondo indipendente dalla nostra mente, bensì alle nostre ragioni per credere che il mondo sia fatto proprio come affermano le nostre migliori teorie scientifiche. Da ora in poi sottoscriveremo il realismo metafisico, e le espressioni “realismo” e “anti-realismo” denoteranno rispettivamente “realismo scientifico” e “anti-realismo scientifico”. Veniamo alla parola “giustificazione”. Talvolta giustifichiamo le nostre convinzioni, mostrando che esse sono il risultato di un ragionamento di qualche tipo sostenuto, magari, da evidenze osservative. Possiamo giustificare la nostra convinzione relativa al fatto che ci sia una bottiglia sul tavolo – dunque relativa alla verità dell’enunciato «c’è una bottiglia sul tavolo» – affermando che l’abbiamo vista. Possiamo giustificare la nostra convinzione relativa al fatto che l’area del quadrato costruito sull’ipotenusa di un triangolo rettangolo sia pari alla somma delle aree dei quadrati costruiti sui cateti esibendo una dimostrazione matematica. Possiamo giustificare la nostra convinzione sull’opportunità di riciclare i rifiuti sulla base del fatto che riteniamo giusto tutelare il nostro pianeta, e così via. Credere che l’enunciato A sia vero non equivale a giustificare la nostra convinzione al proposito. Ovviamente, poi, riconosciamo spesso la differenza tra giustificazioni adeguate e giustificazioni non adeguate. Esibire la dimostrazione del teorema di Pitagora significa giustificare in modo certamente adeguato la convinzione secondo cui l’enunciato di quel teorema è vero; giustificare la convinzione secondo cui i fantasmi esistono sulla base del fatto che ne siamo stati informati dalla nostra nonna significa sì esibire una giustificazione, ma certamente una giustificazione piuttosto debole. Ricapitoliamo. Sia A un qualunque enunciato: esso può essere vero o falso indipendentemente dal fatto che noi crediamo che A sia vero, e indipendentemente dalla nostra capacità di giustificare la nostra convinzione al proposito. Attenzione a tenere ben distinta la questione della verità o falsità di un enunciato dalla questione
157
158
Il realismo e l’anti-realismo scientifico
relativa alle nostre convinzioni a proposito di esso (e alla nostra capacità di giustificarle). Non sappiamo con esattezza quante stelle appartengano alla nostra galassia, ma sotto l’ipotesi del realismo metafisico c’è sicuramente un numero n tale che l’enunciato «Ci sono n stelle nella nostra galassia» è vero. Forse non conosceremo mai questo numero, ma ciò non toglie che vi sia un enunciato vero di quella forma, con il numero appropriato al posto di n. È importante sottolineare che le nostre convinzioni a proposito del mondo possono cambiare nel tempo, così come la nostra capacità di giustificarle: convinzioni e giustificazioni sono, in un senso piuttosto chiaro, relativi alla nostra cultura, al nostro livello di istruzione, alle nostre preferenze, e così via. Ma non è affatto relativo alla nostra cultura o alle nostre preferenze, nella concezione di verità che qui sottoscriviamo, il fatto che un enunciato sia vero o falso: un enunciato A è vero se e solo se il mondo è fatto come descritto da A, indipendentemente dalle nostre convinzioni. Se assumessimo una posizione relativistica sulla verità, ritenendo che A possa essere allo stesso tempo vera per qualcuno e falsa per qualcun altro, ci troveremmo di fronte al serio problema di capire come sia possibile sbagliare. Supponiamo che A sia «Ci sono 130274011003 stelle nella nostra galassia», di ritenere che A sia vero, ma di non essere tanto presuntuosi da escludere la possibilità di sbagliare. Ma sbagliare rispetto a cosa? Se assumo una posizione relativistica sulla verità, affermando che vero è ciò che ritengo vero (sulla base delle mie osservazioni, della mia cultura, del mio livello di istruzione, …), allora tutto quello che ritengo vero – ora o in futuro – sarà vero: non posso sbagliare, perché la verità, secondo una posizione relativistica rispetto alla verità, è definita in relazione alle mie convinzioni. Sbagliare rispetto alla verità di A significa o ritenere A vero se A è falso, oppure ritenere A falso se A è vero. Ha senso affermare che qualcuno sbaglia a proposito di A (così come di qualsiasi altro enunciato) solamente se assumiamo che la verità o la falsità di A dipendano unicamente da come è fatto il mondo, e non da ciò che noi (una particolare cultura, un particolare gruppo di persone) pensiamo di esso53. Queste precisazioni ci torneranno utili per comprendere a fondo la diatriba tra realismo e anti-realismo scientifico. Chiudiamo dunque la parentesi e torniamo al tema principale del capitolo.
6.3 L’anti-realismo e il primato epistemico dell’osservazione È importante sottolineare il fatto che la discussione filosofica in cui sono impegnati i sostenitori e i detrattori del realismo scientifico, al di là delle molte varianti interne alle varie posizioni in gioco, non verte sul problema di decidere, poniamo, se la chimica contemporanea o altre reti di teorie scientifiche ci forniscano immagini letteralmente vere del mondo oppure no. Il problema filosofico riguarda piuttosto la giustificazione della nostra adesione a una certa immagine del mondo piuttosto che a un’altra. In particolare – questo è il problema filosofico – vi sono buone ragioni per ritenere che 53
Su verità, giustificazione e vari tipi di relativismo consigliamo la lettura di Marconi [2007].
Il realismo e l’anti-realismo scientifico
la realtà sia conforme, nei suoi aspetti non osservabili, a quanto asseriscono le nostre migliori teorie scientifiche? I realisti, pur nelle loro differenze interne, credono di sì: gli innumerevoli successi delle nostre migliori teorie nel prevedere, spiegare e controllare la realtà ci forniscono, secondo loro, ottime basi per ritenere che quelle teorie abbiano colto nel segno. Altri ritengono invece che il successo di una teoria costituisca una base giustificativa troppo debole; in mancanza di altre solide basi giustificative non resta che assumere una posizione agnostica. Secondo questo punto di vista non vi sono basi adeguate per giustificare la convinzione, data per scontata da qualunque scienziato odierno, secondo cui la maggior parte degli atomi di sodio hanno 11 elettroni e 11 protoni. In realtà, secondo gli anti-realisti, non vi sono basi adeguate nemmeno per giustificare la convinzione che gli atomi esistano, convinzione che risale almeno agli inizi del XIX secolo. Su quali basi si reggono le posizioni anti-realiste? Alla loro radice stanno alcuni presupposti intuitivamente appetibili ma che, come la maggior parte delle tesi filosofiche che abbiamo finora incontrato, non sono certo al di sopra di ogni sospetto. Uno di essi è quello che potremmo chiamare il “principio della superiorità epistemica dell’osservazione”. Il principio della superiorità epistemica dell’osservazione Siamo tutti d’accordo sul fatto che l’osservazione fornisca basi molto solide per decidere in merito alla verità o falsità di certe asserzioni sul mondo. Per decidere se ci sia o meno una bottiglia sul tavolo della cucina, dunque per decidere se l’enunciato «c’è una bottiglia sul tavolo della cucina» sia vero o falso, è un’ottima idea quella di andare a vedere se c’è effettivamente una bottiglia sul tavolo della cucina. Tuttavia è un principio molto più forte quello di asserire che l’osservazione fornisce basi privilegiate per prendere posizione sull’esistente. Se spingiamo questo principio ai suoi estremi, esso equivale alla tesi secondo cui la sola base adeguata per giustificare le nostre convinzioni su ciò che esiste e su ciò che non esiste sia l’osservazione diretta. Oppure, in termini equivalenti, se non è possibile applicare il criterio dell’osservazione diretta per decidere sulla verità o falsità di una convinzione o di un enunciato che la esprime, allora quell’enunciato o quella convinzione non sono giustificabili adeguatamente. Questo presupposto è implicato (pur non riducendosi a esso) da una posizione filosofica molto vasta e sfaccettata chiamata empirismo (cfr sezione 2.4, Teoria e osservazione) che, nelle sue varie forme, assegna all’osservazione un ruolo primario sia nella formazione delle nostre convinzioni che nella loro giustificazione. È abbastanza facile capire perché il presupposto della superiorità epistemica dell’osservazione ci porta molto vicino all’anti-realismo. Ricordiamo che il dibattito tra realismo e anti-realismo riguarda la giustificazione delle nostre convinzioni su quanto le scienze “mature” affermano a proposito delle regioni non osservabili della realtà. Poiché esse vertono sul dominio del non osservabile, non è possibile applicare il criterio dell’osservazione diretta per decidere sulla loro verità o falsità. Il principio
159
160
Il realismo e l’anti-realismo scientifico
della superiorità epistemica dell’osservazione ci induce a guardare con sospetto alla possibilità di giustificare tali convinzioni. Esamineremo più avanti i problemi di cui (com’era da aspettarsi) soffre questo principio: per non perdere il filo della nostra trattazione proviamo a esplorarne le implicazioni. Da questo principio alle tesi anti-realiste il passo è breve, ma non immediato. Bisogna infatti escludere la possibilità che la verità di ciò che una teoria scientifica T afferma a proposito del mondo osservabile determini, o fornisca buone basi per giustificare, la verità di ciò che tale teoria afferma a proposito del mondo non osservabile. In tal caso potremmo dire che l’evidenza osservativa che giustifica la verità delle affermazioni osservative di T giustifica anche, per quanto “indirettamente”, le affermazioni non osservative di T. Questa possibilità è esclusa dalla tesi della “sottodeterminazione delle teorie scientifiche rispetto ai dati osservativi” o, più brevemente, “sottodeterminazione teorica”. La sottodeterminazione teorica In base alla tesi della sottodeterminazione teorica, per ogni teoria scientifica è in linea di principio possibile formulare una classe di teorie empiricamente equivalenti, che sono tuttavia incompatibili rispetto alle affermazioni non osservative. Vediamo più da vicino di che si tratta. Anzitutto, sostenere che due teorie sono empiricamente equivalenti significa sostenere che esse esprimono, o implicano, le medesime asserzioni a proposito della realtà osservabile. Quindi, se due teorie - chiamiamole T’ e T’’ – sono empiricamente equivalenti, allora non è possibile prendere una posizione in merito a esse su basi esclusivamente osservative. Se poi tali teorie sono incompatibili rispetto a quanto esse affermano a proposito della realtà non osservabile allora i dati osservativi, indistintamente favorevoli a entrambe le teorie, non possono giustificare nemmeno indirettamente quanto l’una o l’altra teoria affermano a proposito della realtà non osservabile. In base alla tesi della sottodeterminazione delle teorie rispetto ai dati osservativi, nella sua forma più radicale, per ogni teoria scientifica è in linea di principio possibile formulare un’ampia classe di teorie rivali empiricamente equivalenti ma incompatibili nei loro aspetti non osservativi. Naturalmente questa tesi, unicamente a quella della superiorità epistemica dell’osservazione, fornisce un importante sostegno all’anti-realismo. Se per ogni teoria scientifica T è possibile formulare un insieme di teorie rivali empiricamente equivalenti ma incompatibili sul piano delle asserzioni non osservative, allora l’osservazione diretta (essendo quelle teorie equivalenti sul piano empirico) non può fornire buone ragioni per scegliere una teoria piuttosto che un’altra. Ora, tali teorie esprimono affermazioni tra loro differenti a proposito della realtà non osservabile. Quindi, l’osservazione diretta non può fornire buone ragioni per accettare una descrizione del mondo non osservabile piuttosto che un’altra. Poco male, potremmo rispondere: se l’osservazione diretta non ci è utile, troveremo qualche altra base giustificativa per scegliere una delle due ipotesi. Ma se accettiamo il primato epistemico dell’osservazione, secondo cui l’osservazione diretta è la sola base in grado di giustificare adeguatamente le nostre convinzioni, allora l’equivalenza empirica di quelle teorie ci porta a un punto di stallo: se l’osservazione non può aiutarci
Il realismo e l’anti-realismo scientifico
a discriminare tra quelle teorie possiamo concludere che non vi sono criteri adeguati per preferire l’una o l’altra, dunque per accettare una o l’altra descrizione del mondo non osservabile. Eccoci dunque di fronte all’agnosticismo che caratterizza l’anti-realismo scientifico. In base alla tesi della sottodeterminazione teorica l’osservazione non può giustificare nemmeno “indirettamente” le nostre preferenze relative a una piuttosto che a un’altra immagine scientifica del mondo non osservabile. Naturalmente anche la tesi della sottodeterminazione teorica deve essere giustificata. È proprio vero che, per ogni teoria T, è possibile formulare un’ampia classe di teorie empiricamente equivalenti ma incompatibili sul piano osservativo? Esiste effettivamente un semplice “trucco” per generare teorie incompatibili ma empiricamente equivalenti a partire da una qualunque teoria T. Prendiamo in considerazione una qualsiasi affermazione non osservativa A, per esempio «I fantasmi possono volare», e la sua negazione non-A: «I fantasmi non possono volare». Adesso chiamiamo TA la teoria che risulta dall’unione di T con A, e Tnon-A la teoria che risulta dall’unione di T e non-A: - TA = T unito a «I fantasmi possono volare» - Tnon-A = T unito a «I fantasmi non possono volare» Le due teorie TA e Tnon-A sono incompatibili, perché in contraddizione rispetto al fatto che i fantasmi possano volare o meno. Però l’aggiunta di A e non-A non ha cambiato le carte in tavola rispetto alle affermazioni osservative, dato che entrambi gli enunciati sono non osservativi. TA e Tnon-A sono dunque empiricamente equivalenti (esprimono le stesse asserzioni osservative) ma incompatibili sul piano delle affermazioni non osservative. Essendo T, A e non-A teorie ed enunciati generici, sembra che possiamo applicare questo semplice “trucco” in ogni caso, in modo da identificare, per ogni teoria scientifica, una classe di teorie incompatibili sul piano non osservativo ma empiricamente equivalenti a essa. Ora, in base alla superiorità epistemica dell’osservazione, non vi sono ragioni per preferire l’una o l’altra delle teorie TA e Tnon-A (proprio perché equivalenti rispetto agli enunciati osservativi). Quindi non vi sono buone ragioni per preferire l’una o l’altra delle immagini che tali teorie ci forniscono a proposito del mondo non osservabile. Questa considerazione ha un’ovvia ricaduta per quanto riguarda il dibattito tra realismo e anti-realismo. Visto che l’argomento della sottodeterminazione vale per qualsiasi teoria T – anche per le nostre teorie scientifiche “mature” – esso a prima vista fornisce una robusta spalla alle istanze anti-realiste: non vi sono buone ragioni per ritenere che le teorie scientifiche “mature” forniscono descrizioni letteralmente vere del mondo nei suoi aspetti non osservabili54. 54 Un testo di fondamentale importanza nella discussione sui fondamenti del metodo scientifico è Duhem [1978], in cui il problema della sottodeterminazione teorica viene collegato a varie questioni legate al controllo empirico delle teorie scientifiche. Si veda anche van Fraassen [1980] e il paragrafo 8.5 di Boniolo e Vidali [1999].
161
162
Il realismo e l’anti-realismo scientifico
6.4 Problemi dell’anti-realismo Abbiamo dunque sbarrato la strada a qualsiasi forma di realismo scientifico? Il presupposto della superiorità epistemica dell’osservazione, la distinzione tra enti osservabili e non osservabili e l’argomento della sottodeterminazione teorica sono a prima vista plausibili, ma non immuni da problemi di una certa serietà. La sottodeterminazione Prendiamo le mosse da quest’ultimo. Il “trucco” per generare classi di teorie empiricamente equivalenti a una qualsiasi teoria T è convincente, anche in virtù della sua semplicità. Però non è affatto ovvio che esso costituisca un solido sostegno all’anti-realismo scientifico: vediamo perché. Il trucco, lo abbiamo visto, è quello di selezionare enunciati non osservabili arbitrari e unirli all’insieme degli enunciati espressi da una teoria T. Le due teorie TA e Tnon-A hanno dunque moltissimo in comune: differiscono soltanto per quanto riguarda la presenza, rispettivamente, di A e non-A. Certo, questa differenza implica che i dati osservativi (che sostengono in misura equivalente TA e Tnon-A) non possono fornire buone basi per scegliere tra le due teorie in blocco. Ma si potrebbe obiettare che i dati osservativi possono condurre a giustificare “indirettamente” ciò che TA e Tnon-A hanno in comune, ovvero le asserzioni osservative e non osservative della teoria di partenza T! In base a questa obiezione, la tesi della sottodeterminazione teorica (secondo cui per ogni teoria scientifica è possibile generare una classe di teorie empiricamente equivalenti ma differenti o addirittura incompatibili rispetto alle asserzioni osservative) non costituisce una base così forte per ritenere che l’unica posizione plausibile sia l’agnosticismo sulla verità delle teorie scientifiche. Si può dare il caso che più teorie siano empiricamente equivalenti, differenti sotto qualche aspetto, ma ciò nonostante in accordo su altri aspetti magari relativi a enti non osservabili. Un’eventuale base osservativa darebbe credito a tutte quelle teorie in misura equivalente; quindi darebbe credito seppur “indirettamente” al nucleo di asserzioni teoriche che quelle teorie condividono. Se quel nucleo di asserzioni teoriche include asserzioni non osservative, possiamo dunque dire che la base osservativa sostiene, anche se “indirettamente”, alcune asserzioni a proposito di enti non osservabili. È quindi necessario precisare ulteriormente la tesi della sottodeterminazione teorica, magari escludendo circostanze di questo tipo, affinché essa possa essere inclusa a pieno diritto nell’arsenale dell’anti-realista scientifico. È anche opportuno sottolineare il fatto che la tesi della sottodeterminazione si scontra con la difficoltà di individuare, nella storia della scienza, casi concreti di teorie empiricamente equivalenti ma incompatibili sul piano delle asserzioni non osservative. È piuttosto facile selezionare casi di teorie alternative proposte per spiegare lo stesso fenomeno, magari differenti sotto qualche aspetto ma convergenti per quanto riguarda alcune asserzioni osservative. Ma la tesi della sottodeterminazione teorica chiama in causa teorie incompatibili che convergono su tutte le asserzioni osservative (per questo sono indistinguibili attraverso
Il realismo e l’anti-realismo scientifico
l’osservazione). Quindi, per identificare casi concreti di sottodeterminazione teorica nel corso della storia della scienza dobbiamo essere in grado, per ogni teoria che selezioniamo, di identificare con precisione l’insieme di tutte le asserzioni osservative che essa esprime – altrimenti non è chiaro in che modo valutare l’equivalenza empirica con altre teorie. Questo compito può essere svolto con successo soltanto in relazione a teorie espresse con sufficiente chiarezza e precisione, e abbastanza “ricche” di strumenti per derivare previsioni empiricamente controllabili. Si tratta di un requisito molto impegnativo, per quanto ben lungi dall’essere irrealizzabile. Il fatto che non sia affatto semplice identificare buoni esempi di sottodeterminazione teorica nella storia della scienza non può che indebolire la portata dell’argomento in relazione alle istanze anti-realiste55. La superiorità epistemica dell’osservazione “Credo solo se vedo” – ovvero: sostengo una certa convinzione solo se ne posso controllare la verità con i miei occhi – è un principio di cautela che è conveniente adottare nelle nostre attività quotidiane; sarebbe quantomeno bizzarro credere che vi sia un unicorno in camera nostra senza averne delle prove osservative. Tuttavia, vi sono buone ragioni per guardare con sospetto all’applicazione indiscriminata di questo principio nella pratica scientifica. Queste ragioni emergono da una riflessione sulla natura dell’osservazione e sulla dipendenza dei risultati di un processo osservativo da una rete di ipotesi e assunzioni teoriche di sfondo. Abbiamo già affrontato questo tema nel capitolo sulle rivoluzioni scientifiche (cfr sezione 2.6, Oltre l’empirismo logico); un breve richiamo ad alcuni elementi di quel dibattito ci sarà utile per discutere la plausibilità del principio della superiorità epistemica dell’osservazione. Il principio della superiorità epistemica dell’osservazione assegna grande importanza all’osservazione diretta della realtà e al sostegno che essa fornisce alle nostre convinzioni. È opportuno sottolineare come nella pratica scientifica, al contrario di quanto accade nella nostra vita quotidiana, non capiti così spesso di affidarsi al nudo occhio: molto frequente è il ricorso a tecniche e strumenti di misura, che potenziano in vari modi i nostri sensi. Per esempio, basta aprire un buon manuale di neuroscienze per trovare fotografie di neuroni eseguite al microscopio ottico. Il fatto che i neuroni siano visibili all’occhio umano, seppur con l’intermediazione di qualche lente, ci suggerisce che l’esistenza di neuroni è sostenuta da evidenze osservative. Attenzione però: è sostenuta sì da evidenze osservative, ma non solo. Anzitutto, l’osservazione ottica dei neuroni è possibile solo dopo che il tessuto è stato adeguatamente preparato: è necessario iniettare nel tessuto delle sostanze chimiche coloranti che enfatizzano la forma del neurone rispetto allo sfondo del resto del tessuto. Quindi, se un’immagine fotografata o direttamente acquisita da un microscopio ottico ci convince dell’esistenza del neurone che stiamo osservando è perché accettiamo
55
Si veda Laudan e Leplin [1991] e il capitolo 8 di Psillos [1999].
163
164
Il realismo e l’anti-realismo scientifico
implicitamente che le sostanze chimiche iniettate abbiano svolto propriamente il loro compito, evidenziando il neurone senza introdurre alcunché di spurio. In breve, ci fidiamo dell’immagine microscopica perché accettiamo un insieme di asserzioni e teorie chimiche di sfondo. Confidando nel fatto che il microscopio funziona propriamente, restituendoci un’immagine fedele e senza distorsioni dell’oggetto osservato, accettiamo anche una vasta porzione di teorie fisiche che riguardano il comportamento della luce e le sue interazioni con la materia. Insomma, in questo e in tutti i casi in cui l’osservazione è condotta attraverso uno strumento di misura, la mera osservazione non basta per giustificare le nostre convinzioni a proposito di asserzioni osservative. Dobbiamo fare ineludibile riferimento sia al risultato delle procedure osservative sia a un insieme di ipotesi teoriche e assunzioni ausiliarie, che possono far riferimento a enti non osservabili (come nel caso dell’osservazione dei neuroni al microscopio, che presuppone un insieme di asserzioni formulate nel linguaggio della chimica e dell’ottica). Ci fidiamo del risultato delle procedure osservative perché ci fidiamo non solo dei nostri occhi, ma anche della validità di quelle teorie e asserzioni di sfondo, che ci assicurano a proposito del buon funzionamento dello strumento e dell’appropriatezza delle condizioni sotto le quali è stata condotta l’osservazione. Una formula spesso utilizzata per discutere questo punto, come abbiamo visto nel capitolo dedicato all’evoluzione della nozione di teoria scientifica, è la seguente: l’osservazione è “carica di teoria” (cfr sezione 2.6.1, Paradigmi e rivoluzioni nella scienza). Naturalmente, queste considerazioni indeboliscono fortemente il primato epistemico dell’osservazione. Se l’osservazione è carica di teoria, anche la giustificazione delle asserzioni osservative richiede il riferimento ineliminabile a una rete di asserzioni non osservative; ma anche queste ultime devono essere giustificate, e ciò non fa altro che portarci di nuovo al problema da cui abbiamo preso le mosse (come giustificare le asserzioni teoriche non osservative?). Anche la giustificazione delle asserzioni osservative richiede, in ultima analisi, un’adeguata giustificazione di asserzioni non osservative, e l’osservazione perde il suo primato. Naturalmente non dobbiamo lasciarci spingere dal carattere fortemente teorico dell’osservazione sull’orlo di un rassegnato scetticismo. Se è vero che anche le procedure osservative riposano su basi non osservative, possiamo legittimamente dubitare del fatto che esse forniscano basi giustificative privilegiate; l’osservazione non costituisce un punto di riferimento “assoluto” per valutare la verità o la falsità delle nostre convinzioni teoriche. Ma far decadere il primato dell’osservazione non significa certo affermare che non abbiamo buone basi per giustificare alcune nostre convinzioni. Assieme ai sostenitori del realismo scientifico, potremmo ammettere il fatto che il successo empirico della teoria costituisca una buona base per accettare la verità letterale delle asserzioni (osservative e non osservative) che quella teoria esprime sul mondo. Torneremo su questo punto nella sezione 5.6 (Il realismo scientifico: ottimismo abduttivo e pessimismo induttivo). Ora vale la pena di discutere un altro presupposto fondamentale delle tesi che abbiamo fin qui discusso: la plausibilità della distinzione tra enti osservabili ed enti non osservabili.
Il realismo e l’anti-realismo scientifico
La distinzione tra enti osservabili ed enti non osservabili Fin dove si estende il dominio dell’osservabile? Esiste una regola per distinguere ciò che è osservabile da ciò che non è osservabile? In mancanza di una regola sufficientemente chiara che aiuti a demarcare l’insieme degli enti osservabili da quello degli enti non osservabili, come applicare il “principio della superiorità epistemica dell’osservabile”? Anche questo problema è stato ampiamente dibattuto. Alcuni filosofi56 hanno messo in luce il fatto che la distinzione tra ciò che consideriamo osservabile e ciò che consideriamo non osservabile è estremamente sfumata, tanto da impedire la formulazione di una precisa regola di demarcazione. Se guardiamo una stella a occhio nudo stiamo senz’altro osservando. D’altra parte non è così ovvio che si possa parlare di “osservazione” se un astronomo punta un radiotelescopio verso una stella: tra gli occhi dell’astronomo e l’oggetto che si desidera osservare sta un complicato dispositivo che compie varie elaborazioni delle onde radio provenienti dalla stella. In posizioni intermedie tra l’osservazione a occhio nudo e il radiotelescopio stanno molte forme di osservazione: osservare la stella attraverso una finestra, osservarla attraverso un cannocchiale, osservarla attraverso un telescopio a riflettore, e così via. Possiamo parlare di osservazione in tutti questi casi, con l’esclusione del radiotelescopio, oppure vogliamo riservare questo termine solo a certi elementi di questa lista? Vi è un punto di questo elenco oltre il quale riteniamo di non dover spendere più il termine “osservazione” in virtù della mediazione di uno strumento di misura che rende troppo “indiretto” il rapporto tra ciò che volevamo osservare e i nostri sensi? Difficile definire con precisione cosa significhi “osservare”; difficile quindi identificare una regola chiara per distinguere con precisione quali siano gli enti osservabili e quali siano gli enti non osservabili. Altri filosofi hanno tentato di salvare i presupposti dell’anti-realismo attraverso il seguente ragionamento. Ammettiamo pure che sia difficile, o impossibile, identificare una buona regola per discriminare i casi in cui gli scienziati osservano un oggetto e i casi in cui essi utilizzano strumenti di analisi che rendono troppo indiretto il rapporto tra quell’oggetto e il nudo occhio. In fondo, però, l’esistenza di una tale regola non è strettamente necessaria per sostenere una posizione anti-realista sulle teorie scientifiche. Basta semplicemente che sia possibile identificare chiari casi di enti osservabili e chiari casi di enti non osservabili; le preoccupazioni epistemiche degli anti-realisti saranno allora dirette proprio a quegli enti non osservabili. In effetti è ragionevole affermare che ci sono chiari esempi di enti osservabili (un tavolo) e chiari casi di enti non osservabili (gli elettroni). Quindi, sotto questo aspetto, è ancora aperta la strada all’anti-realismo scientifico57. Questa linea di ragionamento è intuitivamente plausibile (anche se ammette l’esistenza di “zone grigie” costituite da enti che non sono chiaramente osservabili né chiaramente 56
Si veda Maxwell [1962].
57
Questa tesi è difesa da van Fraassen [1980].
165
166
Il realismo e l’anti-realismo scientifico
non osservabili, sull’esistenza dei quali non è quindi chiaro se poter decidere attraverso l’osservazione). Per concludere questo breve esame di una questione filosofica ancora aperta è bene sottolineare lo stretto collegamento tra la distinzione osservabile/ non osservabile, da una parte, e il carattere teoretico dell’osservazione che abbiamo discusso nella sezione precedente dall’altra. Come abbiamo visto, se l’osservazione è “carica di teoria” si può dare il caso che il risultato di qualsiasi procedura osservativa (come guardare un neurone al microscopio ottico) presupponga varie asserzioni e ipotesi teoriche di sfondo a proposito di enti che sono chiaramente non osservativi (come quelli postulati dalla chimica di base). «Credo se vedo» somiglia sempre più a un mito da sfatare, perché vedere, dopotutto, non basta. 6.5 Vari tipi di anti-realismo Dopo aver messo in evidenza alcune difficoltà concettuali legate ai presupposti dell’anti-realismo, passiamo ad altre difficoltà che emergerebbero nel momento in cui decidessimo di sostenere una posizione anti-realista sulle teorie scientifiche, ritenendo dunque di non avere basi sufficientemente adeguate per credere che il mondo sia effettivamente fatto come le nostre migliori teorie scientifiche affermano che sia nei suoi aspetti non osservabili. «L’atomo di sodio, nel suo isotopo più comune, ha 11 protoni e 11 elettroni». Sappiamo che gli anti-realisti guardano con un certo sospetto ad affermazioni di questo tipo, sulla base del presupposto che solo l’osservazione diretta possa fornire buone basi per ritenere letteralmente vero o letteralmente falso un enunciato. Tuttavia nelle pagine precedenti abbiamo messo in evidenza quanto le discipline scientifiche, anche quelle apparentemente più ancorate alle pratiche osservative, siano fortemente radicate ad affermazioni a proposito di ciò che, almeno in prima battuta, qualificheremmo come non osservabile. Allora gli anti-realisti si trovano di fronte a un problema non banale e decisamente importante: se l’enunciato «l’atomo di sodio, nel suo isotopo più comune, ha 11 protoni e 11 elettroni», così come tutti gli enunciati scientifici che fanno riferimento a termini non osservativi, non può essere razionalmente ritenuto né letteralmente vero né letteralmente falso, quali alternative rimangono? Dovremmo ritenere che tali affermazioni scientifiche (ovvero, quelle a proposito di enti non osservabili) non sono né vere né false, dunque che esse non affermano alcunché sul mondo? Oppure dovremmo ritenere che esse sono da intendersi non letteralmente, dunque affermando qualcosa di sostanzialmente diverso da ciò che esse in prima battuta sembrano affermare? Strumentalismo Possiamo immaginare un’opzione piuttosto radicale: ritenere quell’enunciato né vero né falso. In base allo strumentalismo, gli enunciati non osservativi non asseriscono alcunché a proposito del mondo. Attenzione: lo strumentalista non afferma che l’enunciato non osservativo «l’atomo di sodio, nel suo isotopo più comune, ha 11
Il realismo e l’anti-realismo scientifico
protoni e 11 elettroni» sia falso: esso afferma che tale enunciato non è né vero né falso. Difficile abituarsi a questa posizione, data la nostra ragionevole tendenza a ritenere che gli enunciati correttamente formulati in una lingua che conosciamo, in fin dei conti, affermino qualcosa. «I gatti hanno cinque zampe» ci sembra pur sempre un’affermazione che può essere vera o falsa; diremo che essa è vera se e solo se tutti i gatti hanno cinque zampe, falsa altrimenti; possiamo immaginare come dovrebbe essere il mondo se essa fosse vera. Secondo un’interpretazione strumentalistica non ha senso chiedersi come dovrebbe essere il mondo se l’enunciato «l’atomo di sodio, nel suo isotopo più comune, ha 11 protoni e 11 elettroni» fosse vero, dal momento che tale enunciato non afferma alcunché a proposito del mondo. Ma allora, se tale enunciato non afferma alcunché sul mondo, perché gli scienziati (il cui interesse primario è evidentemente quello di teorizzare sul mondo) lo hanno formulato e, soprattutto, come spiegare il fatto che tale enunciato ha un ruolo così importante nell’ambito della chimica moderna, tanto da non poterne fare a meno per spiegare persino lo scioglimento del sale nell’acqua? Gli strumentalisti hanno una risposta pronta: esso non afferma alcunché, ma serve a qualcosa. Atomi di sodio, protoni ed elettroni sono per lo strumentalista unicamente utili finzioni. Facendo finta che esistano (ma sulla loro esistenza, secondo gli strumentalisti, non vi sono basi adeguate per decidere) è possibile prevedere e spiegare in modo semplice ed elegante una moltitudine di processi chimici. Inventiamoci dunque che ogni cristallo di sale da cucina sia costituito da un reticolo di atomi di sodio e atomi di cloro; che gli atomi di cloro abbiano 17 elettroni e quelli di sodio ne abbiano 11; inventiamoci un enunciato che colleghi il numero di elettroni con la propensione ad assumere quella che potremmo chiamare carica elettrica (positiva o negativa). E così via. Nulla di tutto ciò è vero, e nemmeno falso: stiamo soltanto inventando un meccanismo di regole che, una volta completato, ci permetterà di prevedere che tutte le volte che il granello di sale sarà immerso nell’acqua esso scomparirà, trasformando l’acqua in un liquido dal sapore salato. Questo gioco di entità fittizie costituisce, per lo strumentalista, una sorta di meccanismo mnemonico che ci permette di collegare tra loro (al fine di prevedere, spiegare e controllare) eventi che abitano il regno dell’osservabile58. In linea di principio lo strumentalista non avrebbe avuto nulla in contrario se avessimo collegato l’immersione di un cristallo di sale nell’acqua alla sua scomparsa attraverso un meccanismo totalmente diverso e altrettanto inventato. L’unica cosa che importa in una prospettiva strumentalistica è che il meccanismo fittizio, con tutti suoi enti di fantasia e le sue regole inventate, sia utile: sarà tanto più utile quanto maggiore sarà il numero dei fenomeni che tale meccanismo riesce a spiegare. L’ente inventato “sodio”, con tutte le sue caratteristiche immaginarie, permette di spiegare tanto il dissolvimento del sale in acqua quanto vari fenomeni biologici (tra cui il funzionamento dei neuroni). Quindi, in un’ottica puramente utilitaristica, ha perfettamente senso che la scienza continui a servirsi di tale invenzione. 58
Un importante punto di riferimento nella discussione sullo strumentalismo è l’opera di Mach [1982]. Ampie discussioni sul tema sono state condotte da Newton-Smith [1981] e Psillos [1999].
167
168
Il realismo e l’anti-realismo scientifico
Difficile, come dicevamo, abituarsi all’idea che gli scienziati proferiscano così tante parole e frasi senza corrispettivo nel mondo. Fortunatamente lo strumentalismo eliminativista non è l’unica posizione disponibile all’anti-realista che voglia assumere una qualche posizione nei confronti dei tanti enunciati non osservativi che la scienza contemporanea esprime. Ecco altre possibilità. Ridefinizioni e riduzioni Supponiamo che A sia un enunciato che contiene il riferimento a termini non osservativi, dunque in prima battuta non controllabile attraverso l’osservazione. Se esistesse un altro enunciato osservativo B che intrattiene un rapporto molto stretto con A, tale che la verità o falsità di B (controllabile attraverso l’osservazione) ci fornisca buone ragioni per concludere a proposito della verità o falsità di A, oppure in qualche senso stabilisse il significato di A, allora il presupposto della superiorità dell’osservazione non impedirebbe di “legittimare” A nonostante il suo carattere non osservativo. Una mossa del genere equivarrebbe a “sottrarre” l’enunciato A dalla classe degli enunciati ineludibilmente non osservativi, di fronte ai quali gli anti-realisti assumono posizioni agnostiche. Questa strategia è stata tentata in almeno due modi: tentando di definire enunciati non osservativi sulla base di enunciati osservativi, e tentando di trovare un modo per ridurre enunciati non osservativi a enunciati osservativi. Prendiamo come esempio il termine “corrente elettrica”. L’affermazione «Questo circuito elettrico è attraversato da una corrente elettrica pari a 0.1 ampere» fa riferimento all’espressione teorica “corrente elettrica”. Tale nozione è generalmente definita facendo riferimento al flusso di particelle di carica negativa lungo il conduttore: si fa quindi riferimento a entità non osservabili. Esiste un modo per definire, o ridurre, quell’enunciato sulla base di un altro enunciato osservativo? Potremmo provarci sfruttando l’esistenza di operazioni e strumenti di misura che possono condurre, appunto, a misurare la corrente elettrica che passa attraverso un conduttore. Lo strumento di misura adatto allo scopo è l’“amperometro”. Esistono amperometri analogici (a lancetta) o digitali (con display a LED o a cristalli liquidi). In entrambi i casi l’amperometro è provvisto di due barrette metalliche, che vengono chiamate “elettrodi”. Se vogliamo sapere l’entità della corrente elettrica che attraversa un circuito è necessario interrompere quel circuito, collegare ognuno dei due capi, prima uniti, a un elettrodo dell’amperometro (stabilendo un collegamento detto in serie), e leggere il valore sul display o sul quadrante di fronte al quale si muove la lancetta. Ecco allora come potremmo ridefinire e ridurre l’enunciato poco fa introdotto in un enunciato che coinvolge solamente il comportamento osservabile dell’amperometro. 1) Ridefinizione. Affermare che un circuito elettrico è attraversato da una corrente elettrica pari a x ampere significa affermare che la lancetta di un amperometro i cui elettrodi siano disposti in serie con il circuito elettrico si stabilizza sul valore x.
Il realismo e l’anti-realismo scientifico
2) Riduzione. Un circuito elettrico è attraversato da una corrente elettrica pari a x ampere se e solo se, collegando gli elettrodi di un amperometro in serie con il circuito elettrico, la lancetta dell’amperometro si stabilizza sul valore x. L’affermazione 1 costituisce una definizione: l’espressione che sta prima della parola “significa” viene definita nei termini indicati sulla destra. In base a questa definizione, ogni affermazione a proposito del valore in ampere della corrente elettrica che passa attraverso un circuito dovrà essere interpretata nel senso suggerito dall’espressione che segue “significa”, dopo l’opportuna assegnazione del valore alla x. Per esempio, torniamo all’enunciato «Questo circuito elettrico è attraversato da una corrente elettrica pari a 0.1 ampere»: in base alla definizione stipulata sopra il significato di questo enunciato è il contenuto dell’enunciato «la lancetta di un amperometro i cui elettrodi siano disposti in serie con il circuito elettrico si stabilizza sul valore 0.1». Per cogliere propriamente il senso di questa definizione facciamo finta che l’affermazione iniziale sia espressa in una lingua che non conosciamo, e che ciò che segue il “significa” costituisca una definizione analoga a quella che potremmo ricavare attraverso un vocabolario o un interprete. La seconda affermazione non esprime una definizione, ma collega due enunciati attraverso un «se e solo se», affermando cioè che la verità del primo enunciato è condizione necessaria e sufficiente perché anche il secondo enunciato sia vero. È importante cogliere appieno il significato dell’espressione «se e solo se». Come sappiamo, un’espressione della forma «A se e solo se B» (il secondo enunciato ha tale forma) è equivalente alla congiunzione dei due enunciati che seguono: «Se A allora B» e «Se B allora A». «Uno studente universitario passa un esame se e solo se il suo voto è superiore a 18» è equivalente alla congiunzione dei seguenti enunciati: «Se il suo voto è superiore a 18, lo studente passa l’esame» e «Se lo studente passa l’esame, il suo voto è superiore a 18». Nel nostro esempio, l’affermazione numero 2 è equivalente alla congiunzione delle due affermazioni che seguono: 2a) Se un circuito elettrico è attraversato da una corrente elettrica pari a x ampere allora, collegando gli elettrodi di un amperometro in serie con il circuito elettrico, la lancetta dell’amperometro si stabilizza sul valore x. 2b) Se collegando gli elettrodi di un amperometro in serie con il circuito elettrico la lancetta dell’amperometro si stabilizza sul valore x, allora quel circuito elettrico è attraversato da una corrente elettrica pari a x ampere. Facile capire perché gli enunciati 1 e 2 siano appetibili per chi voglia sostenere un punto di vista anti-realista rispetto alle teorie scientifiche. Se accettiamo l’enunciato numero 1, che stipula il modo in cui dovremmo interpretare gli enunciati che assegnano un valore alla corrente elettrica che attraversa un circuito elettrico, allora è possibile controllare la verità o la falsità di enunciati non osservativi come «Questo circuito elettrico è attraversato da una corrente elettrica pari a 0.1 Ampere» su basi osservative (basta seguire le operazioni di misura indicate nella definizione e leggere il valore sul quadrante dell’amperometro). Trattandosi di una definizione che, in sostanza, fissa un
169
170
Il realismo e l’anti-realismo scientifico
significato all’espressione “corrente elettrica” e afferma come dovremmo interpretare gli enunciati del tipo di quello che prendiamo a esempio, la base osservativa fornisce supporto empirico per giudicare la verità in senso letterale di quegli enunciati. A seguito della definizione quell’enunciato non afferma alcunché a proposito del flusso delle cariche elettriche nel conduttore, bensì afferma qualcosa a proposito del valore della lancetta dell’amperometro quando lo strumento è collegato in serie con il circuito elettrico; afferma quindi qualcosa a proposito del mondo osservabile. L’idea di ridefinire gli enunciati teorici su base operativa, facendo unicamente ricorso a termini osservabili, è chiamata in filosofia della scienza “operazionalismo”59. L’enunciato 2 ha una forma leggermente ma significativamente diversa. Non si tratta di una ridefinizione, ma dell’affermazione secondo la quale la verità dell’enunciato «collegando gli elettrodi di un amperometro in serie con un circuito elettrico, la lancetta dell’amperometro si stabilizza sul valore x» è condizione necessaria e sufficiente per la verità dell’enunciato «Quel circuito elettrico è attraversato da una corrente elettrica pari a x ampere». In sostanza, l’enunciato 2 ci permette di sostituire il riferimento all’espressione “corrente elettrica” con il riferimento al valore della lancetta dell’amperometro. Tutte le volte che incontriamo «Questo circuito elettrico è attraversato da una corrente elettrica pari a 0.1 ampere» possiamo sostituirlo con l’enunciato «collegando gli elettrodi di un amperometro in serie con un circuito elettrico, la lancetta dell’amperometro si stabilizza sul valore 0.1». Anziché ridefinire l’enunciato non osservativo, si afferma che la sua verità è riducibile alla verità del corrispondente enunciato osservativo. L’idea di ridurre la verità di enunciati teorici a quella di enunciati osservativi è nota, in filosofia della scienza, con il nome di “empirismo riduttivo”60. Dovrebbe essere chiaro, a questo punto, perché l’operazionalismo e l’empirismo riduttivo siano complici di una visione anti-realista delle teorie scientifiche. Se fosse possibile ridefinire o ridurre gli enunciati non osservativi in enunciati osservativi, sulla base di “mosse” come quelle indicate negli enunciati 1 e 2, allora sarebbe nei fatti possibile eliminare o ridurre fortemente il ricorso a un vocabolario non osservativo all’interno delle teorie scientifiche. La teorizzazione scientifica sarebbe, in definitiva, una teorizzazione sull’osservabile anche quando apparentemente si riferisce a enti non osservabili; le ridefinizioni e riduzioni che caratterizzano l’operazionalismo e l’empirismo riduttivo hanno dunque un ruolo chiave nell’ambito di un programma filosofico che guarda con sospetto agli enunciati non osservativi, prediligendo invece quelli che possono essere controllati sulla base dell’osservazione diretta. L’operazionalismo e l’empirismo riduttivo permettono effettivamente ciò per cui sono stati elaborati? Essi sollevano molti problemi, tra cui i seguenti. 59
L’operazionalismo è stato proposto da Bridgman (1965). Si veda anche Hempel (1965), capitolo 5. 60
Un testo di fondamentale importanza per la comprensione dell’empirismo riduttivo e dei suoi problemi è Carnap (1936). Si veda anche il più volte citato Psillos (1999).
Il realismo e l’anti-realismo scientifico
Proliferazione di nozioni teoriche Focalizziamoci sull’operazionalismo (per quanto il problema che stiamo per discutere si ponga anche in relazione all’empirismo riduttivo). Poche righe addietro abbiamo tentato di definire l’espressione non osservativa “corrente elettrica” attraverso il riferimento al valore della lancetta di un amperometro. Abbiamo notato tuttavia che esistono anche amperometri digitali, in cui il valore che risulta dalla misura non viene indicato da una lancetta ma compare su un display. Questo fatto banale ci porta di fronte a un problema spinoso. Supponiamo infatti di collegare gli elettrodi di un amperometro digitale in serie con un circuito elettrico e di leggere il valore “0.1 ampere” sul display. Possiamo dire che abbiamo misurato la corrente elettrica che attraversa quel conduttore? No, visto che abbiamo definito l’espressione non osservativa “corrente elettrica” con riferimento alla lancetta dell’amperometro analogico. Se è un insieme di operazioni di misura a definire un concetto non osservativo, allora differenti operazioni di misura definiranno differenti concetti non osservativi! Se prendiamo sul serio l’operazionalismo, ci troveremo di fronte a una moltitudine di definizioni che si differenziano tra loro per quanto riguarda il riferimento a differenti procedure e strumenti di misura. Naturalmente potremmo rispondere a questa obiezione emendando la nostra definizione di “corrente elettrica” in modo da tenere conto sia degli amperometri digitali sia degli amperometri analogici: «Affermare che un circuito elettrico è attraversato da una corrente elettrica pari a x ampere significa [segue la definizione relativa all’amperometro analogico] oppure [segue la definizione relativa all’amperometro digitale]». Ma questa mossa non avrebbe molto futuro: perché restringerci a un numero finito di strumenti di misura, e come decidere quali strumenti di misura sono adatti ai nostri scopi definitori? La ricerca scientifica procede anche attraverso l’elaborazione di nuovi strumenti, sempre diversi e più sofisticati, per misurare (così dicono gli scienziati) le medesime proprietà. Supponiamo che un giorno venga costruito un nuovo tipo di amperometro che non ha né lancetta né display, magari perché pronuncia il risultato della misura attraverso un sintetizzatore vocale. La definizione che abbiamo appena emendato non fa naturalmente riferimento a tale strumento (bensì ad amperometri a lancetta e digitali). Quindi il riferimento a tale amperometro non ci permetterà di dare significato all’espressione “corrente elettrica”, che abbiamo appunto definito in relazione ad amperometri di tipo diverso, ma potrà al massimo permetterci di definire un altro concetto teorico. Risultato: se definiamo concetti non osservativi attraverso il riferimento a un insieme di operazioni di misura, come prescrive l’operazionalismo, ci potremo trovare di fronte a una proliferazione di concetti non osservativi indipendentemente dalla “ricchezza” della definizione iniziale. Si potrebbe obiettare che il ragionamento che abbiamo appena sviluppato non è corretto. Cosa ci impedisce di emendare la nostra definizione di “corrente elettrica” ogni volta che viene costruito un nuovo tipo di amperometro? In questo modo, secondo tale obiezione, raggiungeremmo gli obiettivi dell’operazionalismo evitando il problema che abbiamo discusso: il concetto non osservativo di “corrente elettrica” sarebbe pur sempre definito in termini operazionali, e non vi sarebbe proliferazione
171
172
Il realismo e l’anti-realismo scientifico
di concetti teorici perché il riferimento a ogni amperometro sarebbe ogni volta esplicitamente inserito in un’unica definizione di tale concetto. Questa obiezione, a prima vista ragionevole, a un più attento esame non è molto convincente. Chiediamoci perché inseriremmo il riferimento al terzo amperometro nella definizione di “corrente elettrica” (o anche perché abbiamo inserito il riferimento al secondo amperometro, quello digitale). La risposta è chiara: perché assumiamo che tale strumento misuri la corrente elettrica al pari degli altri due. Ma se questo è il motivo allora presupponiamo che dopotutto vi sia, nel mondo, qualcosa che corrisponde all’espressione teorica “corrente elettrica” e che rappresenta l’elemento comune tra amperometri di diverso tipo. Ma ciò significherebbe assumere una posizione realista sull’esistenza di ciò a cui si riferisce quella espressione teorica! Insomma, l’obiezione appena sollevata con l’intento di salvare l’operazionalismo rischierebbe di raggiungere lo scopo opposto, ovvero quello di fornire una buona ragione per propendere verso il realismo scientifico: un “buon senso” di ispirazione realista tenterebbe quanto più possibile di accomunare ciò che invece, secondo l’operazionalismo, non avrebbe molto senso tenere assieme. Con un po’ di riflessione è facile convincersi che il problema della proliferazione teorica si presenterebbe anche se tentassimo di definire le condizioni di verità dell’enunciato che parla di “corrente elettrica” sulla base di enunciati che si riferiscono a strumenti di misura, in linea con l’empirismo riduttivo. Ma quello che abbiamo appena discusso non è l’unico problema di cui soffrono le due strategie antirealiste che stiamo esaminando. I condizionali controfattuali e le disposizioni Focalizziamoci adesso sull’empirismo riduttivo, anche se un analogo del problema che discuteremo si presenta anche in relazione all’operazionalismo. Ripensiamo all’enunciato 2: «Un circuito elettrico è attraversato da una corrente elettrica pari a x ampere se e solo se, collegando gli elettrodi di un amperometro in serie con il circuito elettrico, la lancetta dell’amperometro si stabilizza sul valore x». Apparentemente si tratta nientemeno che di una traduzione da un enunciato non osservativo a un enunciato osservativo, una traduzione che – così sembra – potrebbe permetterci di fare a meno del riferimento alla nozione non osservativa di “corrente elettrica” riformulando ogni nostro discorso al proposito come un discorso sul comportamento degli amperometri. C’è da sospettare che anche una traduzione di questo tipo soffra del problema di proliferazione concettuale che abbiamo discusso poche righe fa a proposito dell’operazionalismo. Adesso però vogliamo evidenziare un ulteriore problema: quello delle disposizioni. In base all’enunciato 2, un circuito elettrico è attraversato da una corrente elettrica pari a x ampere se e solo se, collegando gli elettrodi di un amperometro in serie con il circuito elettrico, la lancetta dell’amperometro si stabilizza sul valore x. Quindi l’affermazione «questo circuito elettrico è attraversato da una corrente elettrica pari a 0.1 ampere» può essere vera o falsa, al contrario di quanto avrebbe sostenuto uno strumentalista: per capire se essa è vera o falsa basta controllare la verità o la falsità dell’enunciato che sta dopo il «se e solo se». Condizione necessaria e sufficiente perché tale affermazione sia vera è che sia vero il seguente enunciato: «se collegassimo un amperometro in serie
Il realismo e l’anti-realismo scientifico
con quel circuito, la lancetta dello strumento si fermerebbe sul valore 0.1». Ovvero, se eseguissimo una certa operazione di misura allora il valore sarebbe quello indicato. A questo punto ricordiamo quanto abbiamo affermato nella sezione 6.2 su verità e giustificazione: ritenere vero un enunciato, in base a una teoria della verità basata sul realismo metafisico, significa ritenere che il mondo è fatto proprio come afferma quell’enunciato. Ora, come deve essere fatto il mondo perché sia vero che «se collegassimo un amperometro in serie con quel circuito, la lancetta dello strumento si fermerebbe sul valore 0.1»? Non abbiamo in mano un amperometro e, in ogni caso, riteniamo che quell’enunciato sia vero indipendentemente dal fatto che eseguiamo o meno la misura; quindi ci deve essere qualcosa, nel mondo, che rende vero quell’enunciato condizionale. Ma cos’è questo qualcosa? I filosofi della scienza hanno dibattuto molto su questo problema, chiamato spesso il problema di «stabilire le condizioni di verità di un enunciato disposizionale». 12
Disposizioni e controfattuali Questo problema è strettamente collegato al problema dei condizionali controfattuali che abbiamo discusso nel capitolo dedicato alle leggi. In effetti l’enunciato «se collegassimo un amperometro in serie con quel circuito, la lancetta dello strumento si fermerebbe sul valore 0.1» è un condizionale controfattuale. Ci siamo già soffermati sul problema di definire le condizioni di verità di un condizionale controfattuale, evidenziando il fatto che le proposte finora tentate per risolvere questo problema facevano riferimento alla nozione di legge e che, dunque, i condizionali controfattuali non costituivano buoni punti di partenza per elaborare analisi riduzioniste della nozione di legge. Quanto abbiamo detto allora vale, naturalmente, anche per i condizionali controfattuali coinvolti nella discussione che stiamo svolgendo in questo contesto. L’elemento che qui ci importa sottolineare non è però il fatto che le condizioni di verità di un condizionale controfattuale richiamino la nozione di legge, quanto il fatto che tali condizioni di verità difficilmente possano evitare di richiamare in un qualche modo enti non osservabili.
La parola “disposizione”, in gergo filosofico, indica una sorta di “tendenza” o “propensione”. Affermare che questo granello di sale ha la disposizione a sciogliersi (più colloquialmente, è solubile) significa affermare che, se venisse immerso nell’acqua, esso si scioglierebbe. Ma cosa rende vero che, se questo granello di sale venisse immerso nell’acqua, esso si scioglierebbe? La risposta più ovvia è che tale enunciato condizionale è vero in quanto il sale possiede una certa struttura cristallina che interagisce con le molecole d’acqua nei modi che abbiamo sommariamente descritto nelle pagine precedenti. Analogamente, come deve essere fatto il mondo perché in questo momento e al di là di qualsiasi operazione di misura sia vero l’enunciato «se collegassimo un amperometro in serie con quel circuito, la lancetta dello strumento si fermerebbe sul valore 0.1»? La risposta più ovvia è che, affermando tale enunciato disposizionale, abbiamo affermato che questo conduttore possiede una certa composizione chimica e che tale composizione chimica, assieme a varie leggi di natura che riguardano la conduzione elettrica, rende effettivamente vero che, se collegassimo un amperometro in serie, esso restituirebbe il valore di 0.1 ampere.
173
174
Il realismo e l’anti-realismo scientifico
Se non riusciamo a trovare altre buone risposte (su questo i filosofi hanno dibattuto per decenni, e il problema è ancora aperto61), tanto peggio per l’empirismo riduttivo. L’enunciato che segue il «se e solo se» nell’affermazione 2, quello al quale speravamo di poter ridurre l’enunciato che conteneva il riferimento alla nozione non osservabile di “corrente elettrica”, contiene anch’esso un riferimento indiretto a enti non osservabili! A questo punto il lettore si sarà fatto un’idea chiara di quanto sia concettualmente impegnativo difendere con coerenza la tesi della superiorità dell’osservazione. L’operazionalismo e l’empirismo riduttivo costituiscono posizioni affascinanti e, in prima battuta, consolatorie per chi desidera sbarazzarsi quanto più possibile dei termini teorici previsti da una disciplina scientifica in nome della superiorità epistemica dell’osservazione. Pensiamo a discipline come la psicologia: sarebbe una mossa almeno in linea di principio interessante quella di ridefinire o ridurre asserzioni che contengono il riferimento a termini come “stato mentale”, “paura”, “depressione” sulla base di altre asserzioni unicamente osservative – sarebbe senz’altro appetibile la possibilità almeno teorica di poter teorizzare intorno sulla mente facendo soltanto riferimento a ciò che possiamo vedere e toccare. Le difficoltà che abbiamo appena analizzato rendono l’operazionalismo e l’empirismo riduttivo posizioni estremamente problematiche. È allora arrivato il momento di vagliare posizioni filosofiche che vanno in direzioni del tutto diverse. 6.6 Il realismo scientifico: ottimismo abduttivo e pessimismo induttivo L’anti-realismo, nelle sue molte varianti, suggerisce di adottare una posizione agnostica nei confronti delle affermazioni scientifiche relative agli enti non osservabili, fidandoci soltanto di ciò che ricaviamo dall’osservazione. In base al principio della superiorità epistemica dell’osservazione, alla distinzione tra osservabile e non osservabile e alle considerazioni sulla sottodeterminazione teorica, non possiamo giustificare adeguatamente le asserzioni scientifiche non osservative; perciò – sostengono gli anti-realisti – l’unica posizione che possiamo giustificare adeguatamente è proprio l’agnosticismo. Ne siamo davvero sicuri? Nelle sezioni precedenti abbiamo messo in discussione le basi sulle quali si regge l’anti-realismo scientifico e messo in evidenza alcune difficoltà concettuali legate a specifiche posizioni anti-realiste (strumentalismo, operazionalismo, empirismo riduttivo). La debolezza delle posizioni anti-realiste è un potente incentivo a chiederci perché dovremmo rinunciare all’idea di senso comune secondo cui le scienze “mature” forniscono descrizioni letteralmente vere del mondo non osservabile. In sostegno al realismo scientifico non vi sono però solamente le difficoltà sollevate dalla tesi antagonista, ma anche la forza di un argomento chiamato “niente miracoli”. 61
Per un’analisi estesa del problema della nozione di “disposizione” si veda Mumford [1998].
Il realismo e l’anti-realismo scientifico
L’argomento “niente miracoli” L’argomento “niente miracoli” assume la forma di un’inferenza alla miglior spiegazione, o inferenza abduttiva. Le inferenze alla miglior spiegazione sono inferenze in stile Sherlock Holmes. Si prendono le mosse da un certo numero di enunciati che descrivono una situazione di fatto. Poi si identifica un insieme di possibili spiegazioni della situazione descritta da tali enunciati e si sceglie la migliore, più o meno come procede il detective alla ricerca della miglior spiegazione delle caratteristiche della scena del delitto. Proprio sulla base del fatto che quella è la spiegazione migliore, si conclude che quanto afferma quella spiegazione è vero. Un esempio. Supponiamo che improvvisamente si spenga il calcolatore portatile sul quale stiamo lavorando, assieme a tutte le luci e tutti gli apparecchi elettrici della nostra casa. Supponiamo anche di ricordarci che prima di sederci al tavolino avevamo acceso contemporaneamente molti elettrodomestici, tra cui la lavatrice e la lavastoviglie, e di sapere che nel nostro impianto elettrico è installato un interruttore magnetotermico che interrompe la corrente in caso di sovraccarico. Qual è la migliore spiegazione di questo evento? Una possibile spiegazione è quella secondo cui qualcuno ha volontariamente premuto l’interruttore generale del nostro appartamento, magari per farci un dispetto. Un’altra possibile spiegazione è quella secondo cui una navicella spaziale carica di alieni sta atterrando nel nostro giardino creando un’enorme perturbazione elettrica nello spazio circostante. Naturalmente ci sembrerebbe molto più plausibile spiegare lo spegnimento del calcolatore sulla base del fatto che, essendo accesi così tanti elettrodomestici, l’interruttore magnetotermico ha staccato la corrente. Se concludiamo che le asserzioni espresse da questa spiegazione sono veri sulla base del fatto che tale spiegazione è la migliore tra quelle disponibili, abbiamo compiuto un’inferenza alla miglior spiegazione. L’argomento “niente miracoli” è un esempio di inferenza alla miglior spiegazione. Come nel caso dello spegnimento del calcolatore, prendiamo le mosse da un dato di fatto da spiegare: la ricerca scientifica ha prodotto una rete di teorie scientifiche – pensiamo a quelle della chimica di base, tanto per fare un esempio – che “funzionano” ogni giorno collezionando un’impressionante serie di successi nella previsione, nella spiegazione e nel controllo della realtà. Aver postulato che esistono gli atomi di sodio, dotati delle caratteristiche che possiamo leggere sui manuali, permette di spiegare una gran quantità di fenomeni chimici e fisiologici, ma soprattutto di formulare uno straordinario numero di previsioni che poi si rivelano accurate, e di progettare dispositivi tecnologici di cui ci fidiamo ormai ciecamente (come molti medicinali). Aver postulato quel particolare insieme di enti non osservabili e di leggi che li riguardano permette alla chimica contemporanea di controllare, prevedere e spiegare fenomeni che era impossibile o estremamente difficile controllare, prevedere e spiegare prima che la chimica contemporanea assumesse la veste presente. Una piccola ma importante parentesi. Parlando di previsioni, è importante sottolineare che molte teorie scientifiche contemporanee si sono dimostrate in grado, nell’arco della più recente storia della scienza, non solo di fornire basi per prevedere (o render conto di) fenomeni già osservati, ma anche per prevedere fenomeni precedentemente
175
176
Il realismo e l’anti-realismo scientifico
mai osservati. Un esempio. Sulla base delle proprietà che la chimica contemporanea assegna agli atomi di sodio, cloro, idrogeno e ossigeno e delle leggi della chimica di base, è possibile prevedere che un cristallo di sale da cucina si dissolverà in un bicchiere di acqua dal rubinetto. Questa, sebbene sia una previsione a tutti gli effetti (almeno prima di gettare quel cristallo di sale nell’acqua), è tuttavia previsione di un fenomeno che abbiamo osservato innumerevoli volte. Ma supponiamo che nessuno abbia mai controllato cosa succede se gettiamo un po’ di idrossido di sodio in un recipiente contenente benzene puro. Sulla base delle leggi e delle asserzioni della chimica contemporanea, che assegnano certe proprietà agli atomi di sodio, ossigeno, carbonio e idrogeno di cui idrossido di sodio e benzene sono composti, possiamo prevedere cosa succederà (ovvero che non avverrà alcuna reazione): assumendo che la prova non sia ancora stata fatta, si tratta della previsione di un evento non ancora osservato. La chimica contemporanea, così come i nuclei teorici di molte altre discipline scientifiche, collezionano un grande numero di successi non solo nella previsione di eventi già osservati, ma anche nella previsione di eventi non ancora osservati. Si tratta, per così dire, di un dato di fatto. Torniamo al nucleo dell’argomento “niente miracoli”. Come possiamo spiegare il fatto che il nucleo teorico della chimica di base “funzioni” così bene? La migliore spiegazione, sostengono i difensori dell’argomento “niente miracoli”, è che le entità postulate dalla chimica contemporanea esistano effettivamente. Se il fatto di aver postulato l’esistenza di atomi di diversi tipi, dotati di certe proprietà e coinvolti in un dato insieme di leggi, permette di spiegare una gran quantità di fenomeni, di realizzare efficaci strumenti di controllo, e soprattutto formulare previsioni di eventi non ancora osservati che poi si rivelano azzeccate, è perché quelle entità esistono, hanno quelle caratteristiche e sono coinvolte in quell’insieme di leggi. Non vi è altra spiegazione – l’alternativa è quella di supporre che i successi della chimica siano dovuti a un miracolo, oppure a una sorta di coincidenza cosmica! Volendo escludere questa pur possibile spiegazione, non rimane altro che adottare un’impostazione realista nei confronti della chimica contemporanea: il suo successo costituisce una buona base per ritenere che le entità da essa postulate esistano nonostante il loro carattere non osservabile, e che le descrizioni della realtà che essa implica siano letteralmente vere.62 62 Una versione dell’argomento “niente miracoli” è stata proposta da Putnam [1978]. Si veda anche Psillos [1999]. È opportuno evidenziare il fatto che coloro che sostengono il realismo scientifico non prendono necessariamente identica posizione rispetto alla verità di tutte le teorie odierne “in blocco”. Si può essere realisti relativamente alla verità delle affermazioni delle teorie chimiche e, allo stesso tempo, essere anti-realisti rispetto, poniamo, alle affermazioni della psicologia; si può essere realisti rispetto a certe teorie chimiche ed anti-realisti rispetto ad altre. I realisti sulle teorie sostengono che la “maturità” e i successi predittivi di una teoria costituiscano basi solide per ritenere che le affermazioni non osservative espresse da tale teoria siano vere: nulla, in questa posizione, implica l’adesione a un realismo “a tappeto”, e il realismo scientifico nei confronti di certe teorie è perfettamente compatibile con l’anti-realismo rispetto ad altre teorie.
Il realismo e l’anti-realismo scientifico
Problemi relativi all’argomento “niente miracoli” La forza di questo ragionamento sta nella effettiva difficoltà di trovare spiegazioni alternative dell’impressionante numero di successi delle scienze contemporanee che non facciano riferimento, appunto, a coincidenze cosmiche. In effetti, se rifiutiamo l’idea che gli enti postulati dalle teorie scientifiche “mature” esistano, i loro successi sembrano nient’altro che frutto di una lunga sequenza di miracoli. L’argomento “niente miracoli” costituisce il principale argomento a sostegno del realismo scientifico. I suoi difensori, però, devono fronteggiare alcune obiezioni relative alla solidità dell’argomentazione stessa. Come abbiamo sottolineato, l’argomento “niente miracoli” assume la forma di un’inferenza alla miglior spiegazione. Le inferenze alla miglior spiegazione sono quelle la cui premessa include la descrizione di un fenomeno da spiegare (più eventuali premesse ausiliarie), e la cui conclusione esprime la miglior spiegazione di quel fenomeno. La solidità di un’inferenza alla miglior spiegazione dipende dunque dal presupposto che quella selezionata sia effettivamente la miglior spiegazione tra quelle disponibili. Ecco un primo problema: per decidere se quella selezionata è effettivamente la migliore spiegazione dobbiamo non solo aver chiaro cosa contraddistingue una buona spiegazione (nel capitolo 3 abbiamo visto quanto sia spinoso questo problema), ma anche cosa rende una spiegazione migliore di un’altra. Tutto fa credere che non si tratti di un’impresa semplice! Un secondo, gravoso problema riguarda il fatto che l’inferenza alla miglior spiegazione, che utilizziamo molto spesso nel nostro ragionamento quotidiano, non è corretta, e gli argomenti che ne assumono la forma non sono validi. Abbiamo incontrato gli aggettivi “corretto” e “valido”, impiegati in questo senso, nella sezione 3.5 (Il modello nomologico-deduttivo). Allora, si ricorderà, discutevamo la forma logica che secondo Hempel e Oppenheim devono assumere le buone spiegazioni: contrariamente alle inferenze alla miglior spiegazione, la descrizione del fenomeno da spiegare è espressa nella conclusione dell’inferenza, e le informazioni addotte per spiegare quel fenomeno sono espresse nella premessa. Nel modello nomologico-deduttivo la conclusione deve essere derivabile logicamente dalla premessa, rendendo l’intero argomento valido: se la premessa è vera anche la conclusione sarà necessariamente vera (oppure, in modo equivalente, non può darsi il caso in cui la premessa sia vera e la conclusione falsa). Gli argomenti che risultano dall’applicazione di inferenze alla miglior spiegazione non sono validi: può benissimo darsi il caso che la premessa sia vera e le conclusioni false. Pensiamo all’esempio dello spegnimento del calcolatore portatile e supponiamo che la premessa dell’argomentazione sia vera: il calcolatore portatile si è effettivamente spento. La conclusione, si ricorderà, è quella che unanimemente riterremmo la miglior spiegazione di questo evento: l’interruttore magnetotermico ha interrotto l’impianto elettrico dell’appartamento per eccesso di carico. Ma non possiamo sostenere che la verità della premessa comporta necessariamente la verità della conclusione, anche se la conclusione è la miglior spiegazione delle premesse. Magari non è affatto vero che l’impianto è stato interrotto dall’interruttore magnetotermico. Magari un ladro ha
177
178
Il realismo e l’anti-realismo scientifico
interrotto l’alimentazione per disinnescare l’impianto elettrico, oppure è vero che nel nostro giardino sono atterrati gli alieni! La verità delle premesse, in questo tipo di inferenze, non garantisce la verità della conclusione. Se nelle inferenze alla miglior spiegazione la conclusione non segue logicamente dalle premesse, allora le inferenze alla miglior spiegazione possono essere convincenti in certi casi, ma non infallibili. Se le premesse sono vere, non abbiamo basi razionali per esser certi del fatto che anche le conclusioni siano vere (come accade, per esempio, nelle inferenze che seguono la regola del modus ponens). Quindi le inferenze alla miglior spiegazione sono ragionamenti in cui la verità delle premesse non costituisce una base troppo solida per credere nella verità delle conclusioni. Caliamo questa discussione generale nell’esempio dell’argomento “niente miracoli”. Si tratta di un’inferenza alla migliore spiegazione: quindi la verità della premessa – il successo di una teoria “matura” – non ci fornisce una base troppo solida per ritenere che quella teoria esprima una descrizione letteralmente vera del mondo osservabile e non osservabile. Questa considerazione depone a sfavore della forza dell’argomento “niente miracoli”. Si potrebbe contro-obiettare che l’argomento “niente miracoli”, pur non essendo logicamente valido, è tuttavia molto plausibile. In mancanza di spiegazioni alternative (che invece nell’esempio dello spegnimento del calcolatore esistono eccome) possiamo dare molto credito alla conclusione dell’argomento. Inoltre, bisogna ammettere che l’inferenza alla miglior spiegazione si è rivelata molto affidabile nella ricerca scientifica: molte teorie scientifiche sono state selezionate perché costituivano la miglior spiegazione di certi fenomeni osservati, e quelle teorie si sono poi rivelate buone teorie scientifiche, poiché hanno collezionato un enorme numero di successi. È attraverso un gran numero di inferenze alla miglior spiegazione che gli scienziati hanno costruito, mattone dopo mattone, il corpus di teorie scientifiche che oggi costituisce la chimica contemporanea. Questo ci suggerisce che l’inferenza alla miglior spiegazione è una regola di ragionamento quantomeno affidabile. Attenzione però: se riteniamo che l’inferenza alla miglior spiegazione sia affidabile perché ha “prodotto” teorie scientifiche di successo, rischiamo di incagliarci in un pericoloso circolo vizioso. Vediamo perché. Il ragionamento che abbiamo appena svolto per giustificare l’affidabilità delle inferenze alla spiegazione migliore, come tutti i ragionamenti, ha una premessa e una conclusione. La conclusione è ciò che in questo caso vogliamo sostenere: che l’inferenza alla miglior spiegazione è affidabile. La premessa è ciò che utilizziamo per giustificare la conclusione: le teorie scientifiche contemporanee, prodotte attraverso inferenze alla miglior spiegazione, vantano un impressionante numero di successi. Ma qual è il rapporto tra questa premessa e quella conclusione? Se ci riflettiamo un po’ non sarà difficile convincerci che anche questa è un’inferenza alla miglior spiegazione! Si afferma infatti che la miglior spiegazione dell’affidabilità dell’inferenza alla migliore spiegazione sia il fatto che essa ha “prodotto” teorie scientifiche di successo. Questo ragionamento fa affidamento a un’inferenza alla migliore spiegazione per giustificare l’affidabilità dell’inferenza alla
Il realismo e l’anti-realismo scientifico
miglior spiegazione: il sospetto che si tratti di un circolo vizioso è indubbiamente molto alto63. Nonostante queste difficoltà, l’argomento “niente miracoli” è al giorno d’oggi il principale argomento a sostegno del realismo scientifico, ed è tuttora in corso un’ampia discussione filosofica tesa a “correggere” i suoi aspetti problematici (incluso il problema della circolarità che abbiamo appena sollevato). Sostenendo il realismo scientifico, “niente miracoli” sostiene una visione sostanzialmente ottimistica sulle virtù della scienza contemporanea. In base a questa posizione filosofica vi sono buone ragioni per ritenere che i nuclei teorici delle nostre migliori teorie scientifiche forniscano descrizioni letteralmente vere della realtà, sia osservabile che non osservabile. Quindi le teorie scientifiche “mature” di cui oggi disponiamo sono riuscite a decifrare molti segreti della natura! Questa posizione ottimistica può sembrare un po’ presuntuosa: vogliamo davvero credere che la scienza contemporanea “abbia colto nel segno” là dove millenni di riflessione sulla natura hanno fallito? All’ottimismo basato sul ragionamento abduttivo “niente miracoli” si contrappone la tesi del “pessimismo induttivo”, che almeno nelle intenzioni dovrebbe deprimere la presunzione di cui peccano i sostenitori del realismo scientifico. Il pessimismo induttivo Se l’argomento “niente miracoli” è un ragionamento abduttivo (un’inferenza alla miglior spiegazione), il pessimismo induttivo è un ragionamento, appunto, induttivo. Le caratteristiche degli argomenti induttivi sono state discusse nel capitolo 5 (Causalità, induzione, probabilità). Ecco l’argomento. La storia della scienza è colma di casi in cui teorie fino ad allora ritenute indubitabili sono state, invece, messe in crisi sulla base di nuove scoperte o esperimenti non tentati prima. Se fino a ora è andata così, perché dovremmo essere così presuntuosi da escludere la circostanza che anche le teorie contemporanee possano essere messe in crisi nel futuro? Quindi perché dovremmo essere tanto presuntuosi da sostenere il realismo scientifico, ritenendo che la realtà sia proprio come le teorie contemporanee “mature” affermano che sia? Il cuore di questo ragionamento è naturalmente un’induzione: il fatto che fino a ora le teorie ritenute “mature” nelle varie epoche della storia della scienza siano state sconfessate da scoperte o nuovi esperimenti ci induce a ritenere che anche le teorie “mature” odierne subiranno la stessa sorte. Queste sono le linee essenziali dell’argomento noto come “pessimismo induttivo” sulle teorie scientifiche64. Assieme alla tesi della sottodeterminazione teorica e agli
63 Questa critica all’argomento “niente miracoli” è stata elaborata, tra gli altri, da Fine [1991]. Alcuni filosofi ritengono di poter “sfuggire” a questa obiezione distinguendo vari tipi di circolarità, alcuni “viziosi” e altri no, e mostrando come questo ragionamento sia un caso di circolo non vizioso. Per maggiori dettagli su questa proposta si veda il capitolo 4 di Psillos [1999]. 64
Il principale riferimento è Laudan [1984]. Si veda anche Kitcher [1993] e Ladyman [2007].
179
180
Il realismo e l’anti-realismo scientifico
altri presupposti discussi nella sezione 6.3 (L’anti-realismo e il primato epistemico dell’osservazione), questo argomento è tra i più frequentemente invocati per screditare il realismo scientifico. L’argomento è a prima vista molto convincente, anche perché è fondato sul carattere inevitabilmente fallibile della conoscenza scientifica: tutti sono concordi sul fatto che non vi siano basi razionali per escludere che anche le nostre migliori teorie possano rivelarsi sbagliate sotto qualche aspetto (per quanto non possiamo parimenti escludere di essere effettivamente riusciti a formulare la teoria “giusta”). Dobbiamo accettare la possibilità, in linea di principio, che persino le nostre migliori teorie scientifiche, nonostante i loro innumerevoli successi, possano fallire su qualche punto e mettere in evidenza aspetti da modificare. Se accettiamo il carattere ineludibilmente fallibile della conoscenza scientifica, siamo allora costretti ad accettare anche la tesi del pessimismo induttivo e sbarazzarci di qualsiasi velleità realista? L’argomento del pessimismo induttivo è senza dubbio molto forte, ma non decreta la sconfitta del realismo scientifico. Molti filosofi hanno messo in evidenza come la cogenza dell’argomento cambi se formuliamo in modo più attento e plausibile le sue premesse, ovvero se guardiamo più da vicino a cosa ci insegna la storia della scienza. È indubbiamente vero che la storia della scienza è costellata di casi in cui teorie prima ritenute indubitabili si sono poi rivelate sbagliate. Ma questo non significa che vi siano così tanti casi in cui teorie prima ritenute indubitabili si sono poi rivelate totalmente sbagliate. Molto frequenti sono i casi in cui i fallimenti predittivi di una teoria hanno spinto a modificare quella teoria sotto qualche aspetto, mantenendone inalterati altri. Dai tempi di John Dalton sono cambiate molto le convinzioni dei chimici a proposito degli atomi, ma le teorie che si sono susseguite, pur diverse tra di loro, hanno mantenuto alcuni elementi condivisi a partire dalla supposizione che esistessero particelle chiamate “atomi”. Questa semplice considerazione permette di “disinnescare” l’argomento dell’induzione pessimistica, indebolendo la sua efficacia nello screditare il realismo scientifico. Ammettiamo pure che la storia della scienza sia colma di episodi in cui nuove teorie scientifiche hanno soppiantato quelle vecchie. Ma se tra le vecchie e le nuove teorie vi sono elementi di continuità, ovvero assunzioni teoriche che sono state sostanzialmente mantenute, allora possiamo tornare a essere moderatamente ottimisti. La conclusione dell’induzione non è infatti totalmente pessimistica: la storia della scienza – se accettiamo questo ragionamento – ci induce senz’altro a ritenere che le nostre migliori teorie saranno un giorno soppiantate da teorie migliori, ma anche a ritenere che le future teorie migliori saranno in accordo con quelle attuali rispetto a un certo insieme di assunzioni teoriche condivise. La porta al realismo scientifico rimane dunque aperta: vi è spazio per sostenere che è proprio rispetto a quell’insieme di assunzioni teoriche, condivise dalle teorie susseguitesi nel tempo, che la ricerca scientifica ha “colto nel segno”. La strategia realista per disinnescare l’argomento dell’induzione pessimistica è in linea
Il realismo e l’anti-realismo scientifico
di principio efficace, ma richiede un certo impegno ulteriore. Perché essa funzioni è necessario mostrare che i suoi presupposti sono plausibili: ovvero che la storia della scienza è effettivamente costellata di avvicendamenti teorici che hanno mantenuto qualche elemento di continuità. Il pessimismo induttivo e la sua contro-obiezione ottimistica sono dunque argomenti filosofici che affondano le loro radici in analisi di tipo storico sui destini delle teorie scientifiche che si sono susseguite fino a ora. Queste argomentazioni filosofiche avvicinano la questione del dibattito tra realismo e antirealismo scientifico alla questione relativa alle rivoluzioni scientifiche che abbiamo trattato nel primo capitolo di questo volume, sulla base del presupposto tutt’altro che scontato, com’è stato ampiamente discusso nella filosofia e nella storia della scienza, che le rivoluzioni scientifiche costituiscano momenti di assoluta discontinuità e rottura con le precedenti convinzioni teoriche. La diatriba filosofica tra l’ottimismo abduttivo e il pessimismo induttivo è ancora in corso.
181
Il ruolo dei modelli nella teorizzazione scientifica
7.1 Un termine, molti significati Il percorso che stiamo compiendo attraverso i principali problemi della filosofia della scienza non può non soffermarsi su uno dei termini più frequentemente e, come vedremo, più variamente utilizzati nella letteratura scientifica: il termine “modello”. Troviamo modelli praticamente in qualsiasi area di ricerca scientifica: tra gli innumerevoli esempi ci limitiamo a citare il modello dell’atomo di Bohr, il modello dell’interazione tra preda e predatore di Lotka-Volterra, il modello a doppia elica del DNA, il modello di macchina calcolatrice di Turing, e l’uso di ratti o primati come modelli per lo studio neuroscientifico del cervello umano. È il caso di notare, per inciso, che tale termine trova molte applicazioni non solo nelle scienze ma anche nelle discipline filosofiche che sono a vario titolo legate allo studio dei fondamenti del ragionamento scientifico. Il termine “modello” ha un significato ben preciso in logica, e nel capitolo 3 abbiamo ampiamente discusso quello che viene considerato un modello di spiegazione scientifica, il modello nomologico-deduttivo. Dato il suo frequente utilizzo in contesti di ricerca spesso piuttosto distanti tra loro è ovvio aspettarci che il termine “modello” possa assumere vari significati tra loro notevolmente diversi. Si è tentato più volte, nell’ambito della più o meno recente filosofia della scienza, di compilare una tassonomia dei vari usi e significati di questo termine. In questo capitolo ne esamineremo soltanto alcuni. Il nostro scopo non è quello di fornire una trattazione esaustiva65 né quello, per così dire, filologico e descrittivo di chiarire il significato di certe asserzioni scientifiche. Ci proponiamo piuttosto di fornire alcuni spunti per impostare una riflessione sui ruoli che la nozione di “modello” svolge sia nella ricerca scientifica sia nella riflessione filosofica sui fondamenti delle scienze. In primo luogo i modelli (in alcune delle accezioni di questa parola) giocano un ruolo centrale nella formulazione di spiegazioni scientifiche e nel loro controllo sperimentale: una riflessione sui modelli, basata su una previa distinzione tra i vari significati del termine, rientra quindi pienamente nel quadro di un’analisi sui fondamenti epistemologici e metodologici della ricerca scientifica. Vedremo che l’uso esplicativo e sperimentale dei modelli solleva alcune importanti problematiche concettuali talvolta seriamente sottovalutate dagli scienziati, e che solo recentemente hanno iniziato a catturare l’attenzione dei filosofi della scienza. In secondo luogo, per vari motivi che potremo solo accennare nelle pagine che seguono, alcune nozioni di
65
Per un quadro esaustivo e dettagliato dei molti significati del termine “modello” nelle scienze si può far riferimento a Frigg e Hartmann [2009], Thomson-Jones [2006], McMullin [1985].
184
Il ruolo dei modelli nella teorizzazione scientifica
“modello” svolgono ruoli centrali anche nella filosofia della scienza. In particolare, molti filosofi ritengono che il fatto di riconoscere l’importanza dei modelli nella teorizzazione scientifica abbia profonde implicazioni rispetto ad alcuni tra i più spinosi problemi epistemologici e di metodo scientifico, tra cui quelli relativi alla struttura delle teorie scientifiche, ai requisiti delle buone spiegazioni, alla plausibilità di certe nozioni di “legge”, alla prevedibilità nelle scienze della vita, e altro ancora. Vale dunque la pena di addentrarsi almeno un po’ in questo intricato territorio di riflessione filosofica, prendendo le mosse da una distinzione preliminare tra due tipi di modello spesso coinvolti nella ricerca scientifica. 7.2 Modelli teorici e modelli materiali L’analisi che segue sarà organizzata attorno alla distinzione tra “modelli teorici” e “modelli materiali”66. Tale distinzione riguarda sia la natura di ciò che le due espressioni denotano, sia il ruolo che i due tipi di modello giocano nell’ambito dell’indagine scientifica. Si parla di “modello (teorico o materiale) di qualcosa”, o “per lo studio di qualcosa”: ovvero di modello teorico del neurone, di modello materiale per lo studio del morbo di Parkinson negli esseri umani, di modello teorico dell’interazione tra prede e predatori, di modello materiale per lo studio delle capacità di orientazione spaziale nei ratti. Ecco un primo abbozzo della distinzione tra i due tipi di modelli che prenderemo in esame. - I modelli materiali sono oggetti concreti, che possiamo vedere e toccare: un piano inclinato in legno di noce, un ratto che si muove in un labirinto sperimentale, un calcolatore portatile. Il ruolo che tali oggetti svolgono nell’indagine scientifica è prevalentemente sperimentale. I ratti, per esempio, sono spesso utilizzati come modelli materiali per lo studio del morbo di Parkinson negli esseri umani: sulla base di alcune assunzioni metodologiche che esamineremo nella sezione 7.4 (I modelli materiali), i neuroscienziati spesso conducono esperimenti sui ratti e utilizzano i risultati sperimentali per trarre conclusioni teoriche sui meccanismi che stanno alla base del morbo di Parkinson nell’uomo. Un altro esempio: in molti casi, sistemi robotici o informatici sono stati utilizzati come modelli materiali per lo studio dei meccanismi sensoriali, motori o cognitivi negli animali. - I modelli teorici sono invece descrizioni di oggetti: la descrizione del meccanismo neurale che permette ai ratti di orientarsi nei labirinti, la descrizione di un programma per calcolatore (espressa, magari, attraverso un insieme di istruzioni nel linguaggio di programmazione Java), la descrizione di un piano inclinato sopra il quale rotola una sfera perfettamente liscia. I modelli teorici assegnano un insieme di proprietà all’oggetto descritto, alcune delle 66
Questa distinzione è stata tracciata in Rosenblueth e Wiener [1945].
Il ruolo dei modelli nella teorizzazione scientifica
quali possono render conto del cambiamento nel tempo di altre proprietà dello stesso oggetto (si veda la scheda 14): l’espressione “modello teorico di neurone”, per esempio, descrive un oggetto chiamato “neurone” assegnando a esso alcune caratteristiche per così dire statiche, per esempio morfologiche, chimiche ed elettriche, e fornendo informazioni sul cambiamento di tali proprietà nel tempo (per esempio sotto forma di generalizzazioni che specificano come e in che misura le proprietà elettriche del neurone cambiano in alcune circostanze). È importante sottolineare il fatto, su cui ci soffermeremo molto nei paragrafi successivi, che l’espressione “modello teorico” viene solitamente riservata a descrizioni che incorporano certe quote di astrazione e idealizzazione: un modello teorico del neurone, per esempio, ignora o in parte contraddice alcune delle informazioni che costituiscono il patrimonio delle conoscenze fornite dalla ricerca neuroscientifica a proposito dei neuroni che popolano il sistema nervoso animale. I modelli teorici, come vedremo, svolgono un ruolo centrale nelle spiegazioni scientifiche. 13
Modelli e analogia Talvolta i modelli materiali svolgono ruoli importanti anche nella teorizzazione scientifica: si prende spunto dal funzionamento di un certo oggetto, più o meno familiare, per ipotizzare teorie a proposito di un altro oggetto di studio. È il caso, per esempio, delle teorie sull’apprendimento nel sistema nervoso elaborate nei primi decenni del XX secolo in analogia con i dispositivi idraulici [Cordeschi 2002]. Per una discussione estesa del ruolo analogico dei modelli nella scienza si veda Hesse [1980].
Attenzione a non cadere in un errore categoriale rispetto alla natura dei modelli teorici: una cosa è la descrizione di qualcosa, un’altra cosa è l’oggetto concreto (per esempio, un foglio di carta) che esprime tale descrizione attraverso segni, disegni o parole. Possiamo descrivere un oggetto scrivendo o pronunciando frasi in italiano, scrivendo o pronunciando frasi in inglese, disegnando su un foglio di carta o su una lavagna: queste sono diverse espressioni per così dire concrete della stessa descrizione; è proprio ciò che tali espressioni concrete hanno in comune a costituire il modello teorico. 14
Modelli teorici Secondo Peter Achinstein (1965) «I modelli teorici descrivono tipi di oggetti o sistemi attribuendo loro quella che potremmo chiamare una struttura interna, una certa composizione o un meccanismo, in riferimento al quale essi permettono di spiegare varie proprietà possedute da tali oggetti o sistemi» (p. 103). Sul “contenuto” dei modelli teorici, e sulle informazioni che essi esprimono a proposito dell’oggetto modellato, si veda anche Van Fraassen (1980) e Suppe (1989).
Nelle sezioni successive approfondiremo la natura e il ruolo dei modelli teorici e materiali nella ricerca scientifica, impostando gli elementi essenziali di una discussione filosofica sulla giustificazione di tali ruoli. A che titolo i processi di astrazione e idealizzazione che portano alla formulazione di un modello teorico possono condurre alla spiegazione scientifica di eventi e regolarità osservate in una porzione del mondo
185
186
Il ruolo dei modelli nella teorizzazione scientifica
“concreto”? E sotto quali condizioni un esperimento condotto su un particolare oggetto o sistema concreto (come il cervello di un ratto) può contribuire allo studio di un altro sistema concreto (come il cervello umano)? La frequenza con cui i modelli teorici e materiali sono al centro della ricerca scientifica rende queste domande filosofiche particolarmente urgenti. Iniziamo dalla prima. 7.3 I modelli teorici e la spiegazione scientifica 7.3.1 Modelli teorici nelle neuroscienze: il riflesso patellare È interessante notare come anche le discipline scientifiche che siamo soliti ritenere dedite allo studio di “sistemi complessi”, come le neuroscienze, facciano massiccio ricorso – quando si tratta di formulare una spiegazione – a processi di astrazione e idealizzazione rispetto alla straordinaria varietà dei meccanismi cerebrali che decenni di ricerca neuroscientifica hanno contribuito a rivelare. Tali processi sono tanto pervasivi nelle pratiche esplicative neuroscientifiche (e più in generale scientifiche) da far credere che vi sia un qualche legame costitutivo tra comprensione, astrazione e idealizzazione, in direzione contraria al facile assunto secondo cui l’astrazione semplifica, impoverendo, qualsiasi tentativo di catturare la natura degli eventi che accadono attorno a noi e dentro di noi. Per muoverci meglio nell’ambito di questo problema è opportuno illustrarlo con un semplice esempio, tratto da un importante manuale di neuroscienze. Tutti abbiamo sperimentato il fenomeno detto riflesso patellare. Assestando un debole ma deciso colpo all’altezza del ginocchio, la gamba scalcia senza possibilità di controllo volontario. Questa regolarità è spiegata in un manuale di neuroscienze nel modo seguente. Dando un colpetto all’altezza della rotula con un apposito martelletto estendiamo il tendine del quadricipite femorale, un muscolo estensore della gamba. Il muscolo, in risposta a tale stimolo, si tende; questo evento viene segnalato al sistema nervoso centrale attraverso neuroni afferenti (sensoriali). Nel midollo spinale, i neuroni sensoriali agiscono direttamente sui neuroni del muscolo estensore che contraggono il quadricipite. Inoltre, i neuroni sensoriali agiscono indirettamente, attraverso interneuroni, inibendo i neuroni del muscolo flessore che avrebbero altrimenti contratto il muscolo antagonista, il bicipite femorale. La combinazione di questi eventi produce il riflesso patellare. [Kandel et al. 2000, 25]
Guardiamo questa spiegazione più da vicino. L’improvviso movimento scalciante della gamba è dovuto alla simultanea contrazione del quadricipite (il muscolo superiore della coscia) e rilassamento del bicipite femorale (il muscolo inferiore). Più in particolare, colpendo il ginocchio con il martelletto più o meno all’altezza della rotula si provoca un minuto e improvviso allungamento del tendine che connette il quadricipite alla tibia (l’osso della parte inferiore della gamba), più o meno come se colpissimo un elastico teso. Questa improvvisa estensione attiva dei particolari neuroni sensoriali, la
Il ruolo dei modelli nella teorizzazione scientifica
cui funzione è proprio quella di rilevare gli allungamenti e le contrazioni del muscolo quadricipite. Questi neuroni sensoriali propagano la loro attività fino al midollo spinale, dove a loro volta eccitano dei particolari neuroni motori: quelli deputati alla contrazione del quadricipite. Quindi l’estensione del tendine del quadricipite provoca la contrazione del quadricipite, elemento essenziale del “calcio”. Ma non è finita: la gamba non si muoverebbe se non si rilassasse contestualmente il bicipite femorale, che nei fatti è un antagonista del quadricipite: rimanendo rigidamente contratto, esso impedirebbe il movimento della gamba contrastando la contrazione del quadricipite. Perché il bicipite femorale si rilassa dopo il colpo con il martelletto? Perché gli stessi neuroni sensoriali che all’altezza del midollo spinale avevano eccitato i neuroni motori del quadricipite inibiscono anche i neuroni che controllano il bicipite femorale, determinandone dunque l’inattività. Quello fornito è un resoconto semplificato (in qualche senso che poi approfondiremo astratto e idealizzato) rispetto alla complessità dei fattori che possono perturbare il regolare funzionamento dei componenti di questo meccanismo, ovvero i neuroni sensoriali e motori che sulla base della loro attività e delle loro interazioni reciproche determinano il riflesso patellare. Nessuna menzione di particolari circostanze al contorno viene fatta nella descrizione del meccanismo fornita per spiegare la regolarità in esame: eppure, come vedremo e come abbiamo sottolineato nel capitolo dedicato alle leggi, i fattori di disturbo possono essere tanti. Per rendercene conto dobbiamo scendere un po’ nei dettagli del funzionamento dei neuroni. Il meccanismo descritto chiama in causa neuroni di due tipi, sensoriali e motori, che si attivano regolarmente (così si evince dal resoconto fornito) sotto certe condizioni eccitando o inibendo altre componenti del meccanismo stesso. Cosa sono i neuroni? Sono, naturalmente, le cellule responsabili delle nostre attività sensoriali, motorie e cognitive; ma qual è, più nel dettaglio, la loro struttura e il loro funzionamento? Indipendentemente dalla grandezza e dalla forma della cella, dalla composizione chimica dei neurotrasmettitori, oppure dal ruolo della cella nel controllo del comportamento, quasi tutti i neuroni possono essere descritti attraverso un modello di neurone che ha quattro componenti o regioni funzionali, che generano quattro tipi di segnale […]: la regione ricettiva di ingresso, la regione integrativa, il componente di conduzione a lungo raggio, e la regione secretoria di uscita. [Kandel et al. 2000, 27]
(Riuscite a cogliere il grado di astrazione incorporato in questo resoconto della struttura dei neuroni? Ci torneremo sopra tra poco) I segnali di cui si parla nel passo citato sono in sostanza segnali elettrici: in particolari condizioni varia quella che viene chiamata la differenza di potenziale di membrana, legata alla concentrazione di particelle positivamente e negativamente cariche dentro e fuori la membrana. In condizioni normali, tra la parte interna e la parte esterna della membrana vi è una differenza di potenziale circa 20 volte più bassa di quella che sussiste tra il polo positivo e il polo negativo di una normale batteria stilo. Particolari fattori scatenanti (nei neuroni sensoriali del nostro esempio, l’estensione del tendine del quadricipite;
187
188
Il ruolo dei modelli nella teorizzazione scientifica
nei neuroni motori, l’eccitazione a essi impartita dai neuroni sensoriali) possono produrre cambiamenti nella differenza di potenziale nella prima zona menzionata in questa descrizione, la regione ricettiva di ingresso. Questo cambiamento si ripercuote nella seconda zona, la regione integrativa. Quando la differenza di potenziale in questa seconda zona supera una certa soglia si produce una sequenza di cosiddetti potenziali d’azione, ovvero variazioni di potenziale di membrana estremamente rapide, brevi, e di ampiezza pressappoco identica. Il potenziale d’azione […] è tutto-o-nulla. In altre parole, stimoli al di sotto di una certa soglia non produrranno alcun segnale, mentre tutti gli stimoli al di sopra della soglia produrranno lo stesso segnale. [Kandel et al. 2000, 31]
La terza zona del neurone (il componente di conduzione a lungo raggio) consiste in una lunga propaggine della cellula, detta assone, le cui caratteristiche strutturali fanno sì che il potenziale d’azione venga propagato, senza diminuire di intensità, fino alla quarta zona (la regione secretoria di uscita del neurone, detto anche terminale presinaptico), che attraverso particolari meccanismi porterà a eccitare o inibire neuroni o muscoli successivi. La propagazione del segnale lungo l’assone è descritta come straordinariamente accurata. Se il potenziale di membrana del neurone […] raggiunge una soglia critica, si genererà un potenziale d’azione che verrà propagato senza errori fino al terminale presinaptico [Kandel et al. 2000, 32].
L’attività elettrica del terminale presinaptico determinerà il rilascio, dalla membrana del neurone, di sostanze chimiche dette neurotrasmettitori; tali sostanze chimiche potranno raggiungere il componente di ingresso di un altro neurone innescando dunque una reazione inibitoria o eccitatoria. In quest’ultimo caso, una sufficiente dose di neurotrasmettitori potrà stimolare anche nel secondo neurone una cascata di eventi simile a quella che abbiamo descritto. 7.3.2 Astrazione e idealizzazione La descrizione dei meccanismi che presiedono al riflesso patellare fornita dal manuale di neuroscienze è estremamente stringata. Anzitutto essa fa riferimento a quello che viene chiamato un “modello di neurone”, ovvero la descrizione di una struttura comune che deliberatamente astrae rispetto alla grande varietà morfologica, chimica e comportamentale dei neuroni che popolano il sistema nervoso animale («Indipendentemente dalla grandezza e dalla forma della cella, dalla composizione chimica dei neurotrasmettitori, oppure dal ruolo della cella nel controllo del comportamento …»). Si astrae inoltre rispetto ai numerosi fattori, alcuni dei quali noti ai neuroscienziati, che possono turbare il comportamento dei neuroni illustrato come regolare nel resoconto appena fornito. Consideriamo per esempio la propagazione del potenziale d’azione lungo l’assone, che stando a quanto si afferma nel passo citato poche righe sopra avviene senza errori. Questo resoconto ignora (almeno) un’importante condizione al contorno: ovvero che
Il ruolo dei modelli nella teorizzazione scientifica
l’assone del neurone sia propriamente isolato da quella che si chiama guaina mielinica, che svolge funzioni analoghe alla plastica che riveste i cavi elettrici; inoltre, affinché la sequenza di potenziali d’azione si propaghi efficacemente e “senza errori”, la guaina mielinica deve essere interrotta a intervalli regolari in punti chiamati “nodi di Ranvier”. Se queste condizioni al contorno non valgono (come accade in molte patologie, tra cui la sclerosi multipla, che degenerano la guaina mielinica) il potenziale d’azione non viene propagato lungo l’assone del neurone e non raggiunge il terminale presinaptico. Le conseguenze del mancato isolamento dell’assone sul riflesso patellare possono naturalmente essere notevoli: in particolare, il colpetto sul ginocchio potrebbe non produrre alcun calcio. La stimolazione del tendine del quadricipite, infatti, creerebbe sì uno stimolo locale nella componente di ingresso del neurone sensoriale, e tale segnale genererebbe una sequenza di potenziali d’azione, ma questi ultimi non verrebbero condotti propriamente lungo l’assone e non stimolerebbero, all’altezza del midollo spinale, i neuroni motori che eccitano il quadricipite e inibiscono il bicipite femorale. La descrizione di questo meccanismo è allora un modello teorico astratto del funzionamento dei neuroni e del meccanismo sottostante al riflesso patellare. È un modello teorico, in quanto descrizione di un certo oggetto (un meccanismo formato da alcune componenti) al quale vengono attribuite certe proprietà statiche e dinamiche. È astratto nel senso appena discusso: tale descrizione omette alcune importanti informazioni (tra cui, come abbiamo visto, molte circostanze al contorno) a proposito della struttura e del funzionamento del meccanismo neurale che presiede al riflesso patellare negli esseri umani. È il caso, a questo proposito, di fare una piccola precisazione per evitare fraintendimenti. Affermare che il modello di neurone che stiamo esaminando è astratto significa, in base all’uso che abbiamo scelto di fare della parola, affermare che esso non fa menzione di alcune caratteristiche che, secondo le attuali conoscenze neuroscientifiche, i neuroni del sistema nervoso umano possiedono. Il suo carattere astratto è dunque sostanzialmente relativo allo stato attuale delle nostre conoscenze neuroscientifiche, ovvero a quella che potremmo chiamare l’immagine neuroscientifica odierna del neurone, e non al fatto che tale modello ignora caratteristiche “dei neuroni in sé” – non potrebbe essere che così, dato che sono proprio le neuroscienze a dirci come sono fatti i neuroni. Dato il carattere fallibile anche delle nostre migliori teorie (neuro) scientifiche non possiamo escludere la possibilità che in futuro emergano, sulla base di nuove scoperte o implicazioni teoriche, caratteristiche dei neuroni che oggi ignoriamo. In breve, diciamo che il modello di neurone che abbiamo presentato è astratto rispetto all’insieme di tutte le informazioni che un esperto neuroscienziato potrebbe rivelarci a proposito dei neuroni umani. Il carattere astratto di tale modello teorico lo rende anche idealizzato. Utilizziamo questa parola per riferirci al fatto che esso esprime delle affermazioni che sappiamo essere false, se le condizioni della loro verità o falsità sono definite rispetto al comportamento dei
189
190
Il ruolo dei modelli nella teorizzazione scientifica
neuroni che effettivamente popolano il sistema nervoso degli animali67. Abbiamo già affrontato questo punto nel capitolo dedicato alla nozione di legge: anche in virtù del fatto che alcune importanti circostanze al contorno sono deliberatamente ignorate, il modello teorico esprime regolarità che, se interpretate letteralmente, non sono soddisfatte dai neuroni che abitano il nostro sistema nervoso. Non è vero, in altre parole, che «se il potenziale di membrana del neurone raggiunge una soglia critica, si genererà un potenziale d’azione che verrà propagato senza errori fino al terminale presinaptico», se per “neurone” intendiamo una delle cellule del nostro sistema nervoso: possono intervenire molti fattori perturbatori che non sono menzionati in tale generalizzazione. In virtù della quota di astrazione e idealizzazione incorporata nelle descrizioni neuroscientifiche che abbiamo riportato è naturale ritenere che tali descrizioni non “parlino” letteralmente dei neuroni “veri” ma descrivano, o meglio definiscano, le caratteristiche e il comportamento di quello che potremmo chiamare un “neurone ideale”, un oggetto fittizio, una sorta di costruzione della nostra mente. 7.3.3 Modelli teorici e spiegazione L’esempio che abbiamo proposto per illustrare il ricorso a modelli teorici astratti e idealizzati nello studio di certe porzioni del reale fa parte dei fondamenti delle neuroscienze, una disciplina dedita allo studio di uno dei sistemi certamente più complessi dell’universo conosciuto. Di fatto, tuttavia, i processi di astrazione e idealizzazione giocano un ruolo molto importante nelle spiegazioni scientifiche formulate in diversi ambiti di ricerca: in generale, come abbiamo discusso nel capitolo dedicato alla nozione di legge, gli scienziati fanno riferimento a generalizzazioni che omettono il riferimento a (talvolta lunghissimi) elenchi di possibili condizioni al contorno perturbatrici, e che dunque contengono un certo grado di idealizzazione. Nel capitolo dedicato alla nozione di legge abbiamo evidenziato il carattere ideale persino di principi fondanti della fisica contemporanea, tra cui quello di gravitazione universale, e non c’è da sorprendersi che discipline a vario titolo legate allo studio del comportamento dei sistemi viventi – biologia, psicologia, economia – trascurino nelle loro spiegazioni gran parte della “complessità” che esse stesse hanno contribuito a rivelare nei meccanismi che presiedono al comportamento individuale e sociale degli animali. Ma allora – è naturale chiedersi – a quale titolo è lecito chiamare in causa modelli teorici astratti e idealizzati per spiegare fenomeni reali68? Se i modelli teorici “parlano” di oggetti fittizi, costrutti della nostra mente ottenuti spogliando oggetti reali da molte loro caratteristiche, a che titolo tali modelli possono concorrere alla spiegazione di eventi e regolarità che riguardano oggetti non fittizi, come può essere il regolare prodursi 67 68
Si veda su questo in particolare il già citato McMullin [1985].
Riferimenti utili a questo proposito sono Laymon [1980], Wimsatt [1987], Giere [1999, 2004], Suppe [1989].
Il ruolo dei modelli nella teorizzazione scientifica
di un riflesso patellare in un particolare essere umano “in carne e ossa”? Riflettere sul rapporto tra idealizzazione e spiegazione significa interrogarsi sui fondamenti di uno degli elementi caratterizzanti della scienza moderna (si ricordi quanto è stato affermato nel capitolo 1 a proposito della centralità dei processi di astrazione e idealizzazione nella modellazione galileiana dei fenomeni fisici). L’entità delle domande appena sollevate può essere apprezzata considerandole anche in relazione al problema filosofico della spiegazione che abbiamo affrontato nel capitolo 3. È intuitivamente ragionevole sostenere che ogni spiegazione identifichi solo alcuni aspetti esplicativamente rilevanti dell’oggetto o del sistema a cui si riferisce: quando vogliamo spiegare certi aspetti o comportamenti di un certo individuo o sistema non chiamiamo in causa tutto ciò che sappiamo a proposito di esso, ma selezioniamo le informazioni che per qualche motivo riteniamo funzionali alla comprensione di quegli aspetti. Se per esempio vogliamo spiegare perché il nostro calcolatore portatile si è spento non sentiremo certo l’esigenza di parlare del suo colore o delle sue dimensioni: è ovvio affermare che ogni explanans è sotto qualche aspetto astratto (si ricordi che abbiamo deciso di utilizzare la parola “astrazione” per riferirci all’omissione deliberata di dettagli sull’oggetto di studio), e l’astrazione è dunque costitutiva delle buone spiegazioni tanto quanto è sotto certi aspetti ovvio selezionare, dell’oggetto di studio, soltanto le informazioni che sono esplicativamente rilevanti. Il problema filosofico sollevato dai nostri esempi è però più serio: l’astrazione, come abbiamo sottolineato, rende talvolta false certe affermazioni scientifiche, come le regolarità riguardanti la conduzione del potenziale d’azione lungo l’assone del neurone, assumendo che le condizioni di verità di quelle affermazioni scientifiche siano definite in relazione al comportamento dei neuroni “veri”. È proprio la falsità di tali regolarità che ci spinge naturalmente a considerare i modelli teorici astratti e idealizzati come descrizioni di oggetti fittizi. Dovremmo allora concludere che è possibile formulare buone spiegazioni appellandosi a explanantia falsi? Questo non è certo permesso nel modello nomologico-deduttivo di spiegazione scientifica: non solo perché un explanans falso viola il requisito R4, ma anche perché non è chiaro a che titolo esso possa soddisfare il requisito di prevedibilità che, sulla base dell’ideale di spiegazione incorporato nel modello ND, un buon explanans dovrebbe soddisfare. Pensiamo alla generalizzazione «se il potenziale di membrana del neurone raggiunge una soglia critica, si genererà un potenziale d’azione che verrà propagato senza errori fino al terminale presinaptico». In base a tale generalizzazione, ogni qualvolta si verificherà la condizione specificata (il potenziale di membrana del neurone raggiunge una soglia critica) si verificherà un certo evento (il potenziale d’azione viene propagato senza errore fino al terminale presinaptico). Se tale generalizzazione è troppo “stringata” per essere vera, dato che non cita alcuno dei possibili fattori perturbanti, allora non c’è da fidarsi molto delle previsioni che essa permette di trarre! Non saremmo disposti a mettere la mano sul fuoco sul fatto che l’evento descritto accadrà immancabilmente ogniqualvolta si verificheranno quelle particolari condizioni. Quindi, considerando il fatto che tale generalizzazione è inclusa nell’explanans del riflesso patellare, non saremmo disposti a mettere la mano
191
192
Il ruolo dei modelli nella teorizzazione scientifica
sul fuoco sul fatto che colpendo la rotula la gamba scalcerà. L’explanans contiene il modello teorico di un meccanismo ideale, libero da circostanze perturbatrici; e allora come possiamo servircene per formulare previsioni rispetto a contesti “reali” in cui tali circostanze perturbatrici sono effettivamente in agguato? 15
La ridondanza neurale Vale la pena di osservare che il riflesso patellare, così come in generale qualsiasi processo indagato dalle neuroscienze, è prodotto da un meccanismo altamente ridondante: in questo caso non è un solo neurone sensoriale né un solo neurone motorio a costituire il meccanismo che genera il riflesso, ma una grande quantità di circuiti paralleli ognuno avente la struttura che abbiamo descritto. Se dunque, per effetto di qualche circostanza perturbatrice, uno o più neuroni sensoriali o motori non “sparano”, la repentina reazione della gamba sarà probabilmente assicurata da altre copie “sane” del meccanismo che agiscono in parallelo. In ogni caso non possiamo escludere a priori che fattori di disturbo particolarmente gravi pregiudichino il funzionamento di tutti o della maggior parte dei neuroni di cui è composto quel meccanismo, inibendo dunque il riflesso patellare: del resto la presenza o assenza di tale riflesso costituisce la base per diagnosticare gravi patologie neurologiche.
I quesiti che abbiamo sollevato non hanno ricevuto, almeno finora, risposte condivise, e costituiscono senz’altro sfide per le future generazioni di filosofi della scienza. Si tratta effettivamente di domande interessanti anche e soprattutto dalla prospettiva delle scienze della vita e delle cosiddette “scienze umane”, in cui l’astrazione e l’idealizzazione sembrano, di fatto, giocare un ruolo costitutivo nella spiegazione tanto quanto nel caso delle cosiddette “scienze dure”. Ci limitiamo a suggerire possibili strade da percorrere, aspettandoci che ognuna di esse dia adito a nuovi (e magari più spinosi) problemi. Anzitutto, osserviamo come il problema che abbiamo evidenziato si manifesti in tutta la sua forza soprattutto in relazione a un’idea di spiegazione scientifica in cui la prevedibilità dell’explanandum sulla base dell’explanans, e più in generale la nozione di “legge”, giocano ruoli essenziali (idea che come sappiamo è costitutiva del modello ND). Da prospettive differenti sulla spiegazione o sul ruolo esplicativo delle generalizzazioni, quello che abbiamo finora discusso potrebbe non costituire un problema particolarmente gravoso. Se la prevedibilità non costituisce nemmeno un requisito necessario delle buone spiegazioni, ovvero se la prevedibilità dell’explanandum sulla base dell’explanans è totalmente irrilevante per classificare una spiegazione come adeguata (violando il requisito SN2 discusso nel capitolo 3), allora la non prevedibilità dovuta alle circostanze che abbiamo discusso non rende la spiegazione meno “buona”. Simile ragionamento se aderiamo a posizioni filosofiche recentemente sostenute, in base alle quali una generalizzazione può essere esplicativa pur ammettendo eccezioni (si vedano le sezioni 4.3, Universalità delle leggi, e 4.4, Verità): posizioni di questo tipo danno via libera all’uso esplicativo di una generalizzazione come «se il potenziale di membrana del neurone raggiunge una soglia critica, si genererà un potenziale
Il ruolo dei modelli nella teorizzazione scientifica
d’azione che verrà propagato senza errori fino al terminale presinaptico», che può essere considerata, secondo una plausibile interpretazione di queste posizioni, vera a parte qualche eccezione. Insomma, cambiando idea sulla spiegazione e sul ruolo esplicativo delle generalizzazioni il problema che abbiamo evidenziato in questa sezione può scomparire. Ottimo risultato, la cui forza dipende però dalla possibilità di identificare e giustificare propriamente idee alternative sulla spiegazione e sul ruolo che le generalizzazioni svolgono in esso. Se invece scegliamo di tener fermo il ruolo della prevedibilità nella spiegazione scientifica, dunque il principio SN2 (al di là del fatto che accettiamo o meno il particolare modo in cui Hempel e Oppenheim hanno sviluppato tale idea nel loro modello ND), possiamo tentare di aggirare il problema che abbiamo sollevato spostando, per così dire, il fuoco della nostra attenzione dall’explanans alle caratteristiche dell’explanandum. La preoccupazione finora discussa era relativa alla legittimità di chiamare in causa un modello teorico idealizzato per la spiegazione di un fenomeno non idealizzato. Ma così facendo abbiamo assunto troppo rapidamente che il fenomeno descritto dall’explanandum fosse, appunto, non idealizzato. Ne siamo sicuri? Certo, l’interesse neuroscientifico che motiva la spiegazione discussa è relativa a fenomeni che possiamo osservare in esseri umani “in carne e ossa”: martellando sotto la rotula di un nostro amico la sua gamba scalcerà improvvisamente. Tuttavia, al di là di quale siano le particolari esperienze sperimentali o di vita vissuta che hanno dato origine all’interesse scientifico nei confronti dell’explanandum considerato, quest’ultimo, di fatto, sembra essere idealizzato tanto quanto l’explanans. Ricordiamo il modo in cui era stata espressa la richiesta di spiegazione che abbiamo considerato: «perché assestando un debole ma deciso colpo all’altezza del ginocchio la gamba scalcia senza possibilità di controllo volontario?». Ciò che abbiamo affermato riguardo alle generalizzazioni incluse nell’explanans può essere affermato anche riguardo alla generalizzazione espressa in questa domanda: non è vero che «assestando un debole ma deciso colpo all’altezza del ginocchio, la gamba scalcia senza possibilità di controllo volontario», se valutiamo la verità o la falsità di tale generalizzazione in relazione a esseri umani “in carne e ossa”, e sempre per il solito motivo, cioè per il fatto che tale generalizzazione non fa menzione di alcuna circostanza perturbatrice. Se manteniamo ferma la gamba con un tirante, essa non scalcerà; se poco prima erano state somministrate sostanze chimiche capaci di inibire l’attività dei neuroni coinvolti, il riflesso non si produrrà; vi sono purtroppo molti esseri umani in cui il riflesso patellare non si produce perché soffrono di gravi patologie neurologiche. Anche quell’explanandum, dunque, si riferisce a un essere umano “ideale”, in cui queste circostanze perturbatrici non accadono mai e in cui un appropriato colpo sotto la rotula scatena immancabilmente il riflesso patellare. I casi in cui anche la richiesta esplicativa si riferisce a un oggetto fittizio, dato il carattere astratto e idealizzato dell’explanandum, non sollevano il problema da cui siamo partiti. Il problema era: a che titolo modelli astratti e idealizzati possono contribuire alla spiegazione di eventi e regolarità che riguardano oggetti e individui “in carne e ossa”? Ma se l’oggetto della domanda (nei nostri esempi, di carattere neuroscientifico) non è un individuo “in carne e ossa” bensì un sistema sotto qualche
193
194
Il ruolo dei modelli nella teorizzazione scientifica
aspetto ideale, la domanda non si pone con altrettanta forza: non emerge più quel contrasto tra idealizzazione (dell’explanans) e concretezza (dell’explanandum) che era proprio del problema iniziale. Inoltre, la natura idealizzata della richiesta esplicativa rimuove anche alcune delle ragioni di principio precedentemente discusse per dubitare della possibilità di prevedere l’explanandum sulla base delle informazioni contenute nell’explanans: non si tratta più di formulare, sulla base di una descrizione di meccanismo “stilizzata”, previsioni che vengano confrontate con la complessità dei fenomeni reali. In questo caso, il test predittivo della spiegazione consiste nel chiedersi se, assumendo idealmente che il comportamento dei neuroni coinvolti fosse effettivamente regolare, il colpetto al di sotto della rotula farebbe effettivamente “scalciare” la gamba. Seguendo mentalmente la spiegazione che abbiamo fornito, le cose sembrano stare proprio così: il meccanismo ideale descritto permette di prevedere il fenomeno idealizzato descritto nell’explanandum. Quelli che abbiamo finora fornito sono solo spunti di riflessione. Le varie posizioni esposte, e le possibili strategie per dar conto del ruolo dell’idealizzazione nella spiegazione di fenomeni “complessi”, meritano ulteriori chiarimenti e precisazioni che non affronteremo in questa sede. Vale però la pena di indicare alcuni problemi sollevati dalla posizione appena discussa, e che qualunque sostenitore del requisito di prevedibilità nelle “buone” spiegazioni scientifiche è chiamato ad affrontare. In primo luogo occorre valutare se questa posizione possa essere estesa anche ad altri casi di spiegazione idealizzata: si tratta di una posizione plausibile solamente nel caso della spiegazione del riflesso patellare oppure possiamo sostenere che altri explananda neuroscientifici, o più generalmente scientifici, sono idealizzati? Sarebbe senz’altro una buona notizia, ma un po’ frustrante, quella di aver mostrato che prevedibilità e idealizzazione sono per così dire “compatibili” solo in relazione a una particolare spiegazione rivolta a un particolare fenomeno neuroscientifico; molto più desiderabile sarebbe invece mostrare che questa idea può essere applicata con successo anche ad altre spiegazioni e ad altre discipline di ricerca. Effettivamente, almeno a prima vista, altri quesiti scientifici sembrano essere astratti nel senso in cui lo è quello che abbiamo discusso. Pensiamo per esempio a quelli che abbiamo considerato nel capitolo sulla spiegazione scientifica: Perché i camaleonti cambiano colore ogniqualvolta un predatore si trova nelle vicinanze? Perché il camaleonte nano Bradypodion taeniabronchum assume una colorazione più simile allo sfondo quando un uccello si trova nelle vicinanze rispetto al caso in cui il predatore sia un serpente? Se ci riflettiamo un po’ sopra ci sembrerà del tutto plausibile affermare che gli explananda espressi da queste domande sono relativi al comportamento di camaleonti “ideali”, piuttosto che a singoli esemplari di camaleonte immersi nella complessità del loro ambiente naturale. Evidentemente non è vero che i camaleonti cambiano regolarmente colore alla presenza di un predatore – in molti casi concreti ciò potrebbe non accadere in virtù di circostanze avverse, per esempio di problemi fisiologici contingenti, oppure perché il predatore è riuscito a nascondere molto bene la propria presenza, e così via. Sembra quindi che anche altri explananda scientifici oltre a quello che abbiamo discusso siano in un certo senso idealizzati, ma certamente sarebbe utile identificare e analizzare un numero maggiore di casi di studio.
Il ruolo dei modelli nella teorizzazione scientifica
In secondo luogo non è affatto scontato che questa idea “funzioni” davvero. Essa suggerisce che la ricerca (neuro)scientifica verte sul comportamento di sistemi ideali, sulla base del carattere idealizzato della generalizzazione espressa nell’explanandum. Ma allo stesso tempo, come abbiamo osservato, sembra più che plausibile affermare che la ricerca (neuro)scientifica prenda le mosse da osservazioni o richieste esplicative che riguardano sistemi concreti – tra cui esseri umani e camaleonti “in carne e ossa”. Come conciliare queste affermazioni? Dovremmo sostenere che larga parte delle attività di ricerca scientifica, contro ciò che l’intuito suggerisce, sono rivolte allo studio di oggetti fittizi? Quale relazione sussiste tra l’oggetto fittizio di cui un certo modello teorico idealizzato mira a spiegare il comportamento e gli oggetti concreti che costituiscono almeno l’obiettivo ultimo della ricerca scientifica? Lasciamo al lettore interessato il compito di approfondire questi problemi, che costituiscono vivo argomento di dibattito per l’odierna filosofia della scienza, e rivolgiamoci adesso all’esame del secondo senso di “modello” che abbiamo introdotto all’inizio di questo capitolo. 7.4 I modelli materiali 16
Il controllo empirico dei modelli C’è poi un altro non banale problema. In base all’idea appena discussa non ha molto senso confrontare le previsioni basate sul modello teorico con la complessità di una situazione concreta, dato che esso concorrerebbe piuttosto a spiegare il comportamento di un oggetto fittizio legato, in qualche modo da chiarire, agli interessi esplicativi “concreti” degli scienziati. Tuttavia ogni buon modello teorico, per poter svolgere il suo ruolo esplicativo, deve essere controllabile sperimentalmente (questo è anche il requisito R3 del modello ND): controllare sperimentalmente un’ipotesi teorica significa valutare se le osservazioni sperimentali “sul campo”, ottenute anche attraverso particolari strumentazioni o apparati sperimentali, soddisfano le previsioni fornite dall’ipotesi. Dunque il controllo empirico di un modello teorico idealizzato richiede comunque il confronto tra le previsioni basate sul modello e la “complessità” del contesto sperimentale: il problema che avevamo pensato di aggirare sembra quindi, come si suol dire, rientrare dalla finestra.
Talora si parla di “modello” in un senso ben diverso da quello che abbiamo discusso nella sezione precedente. Certi animali, per esempio, vengono talvolta utilizzati come modelli nella ricerca neuroscientifica sui meccanismi neurali umani. È il caso dei ratti, che svolgono un ruolo sperimentale molto importante nella ricerca su un gran numero di patologie neurologiche umane tra cui il morbo di Parkinson69. In casi come questo a essere qualificato come “modello” è il ratto coinvolto negli esperimenti, dunque un oggetto concreto. Per distinguere questo senso della parola “modello” da quello analizzato nelle
69
Cenci et al. [2002].
195
196
Il ruolo dei modelli nella teorizzazione scientifica
17
Classi di modelli materiali Il termine “modello” è assai scivoloso e il fraintendimento è sempre in agguato. L’espressione “modello materiale”, in questo esempio, si riferisce al singolo ratto utilizzato in qualche tipo di esperimenti. Diversi esemplari di ratto della stessa specie, utilizzati in un insieme di esperimenti, sono dunque distinti modelli materiali per lo studio del Parkinson. Altra cosa è affermare che il ratto – inteso come classe di individui – funge da modello per lo studio del Parkinson umano. È un’espressione perfettamente sensata, e sotto certi aspetti implicata dal fatto che singoli esemplari di ratto vengono utilizzati come modelli materiali in fase sperimentale, ma occorre notare che in quest’ultimo caso la parola “modello” non è riferita a un individuo concreto “in carne e ossa” ma a un insieme di individui accomunati da caratteristiche simili. Questo uso del termine “modello” è dunque diverso da quello materiale che stiamo per analizzare e, sotto certi aspetti, è più vicino al senso del termine discusso nella sezione precedente, in quanto la scelta di accomunare distinti individui sulla base di certe caratteristiche è nei fatti una scelta teorica. Anche in questo caso, approfondire queste distinzioni ci porterebbe troppo lontano: lasciamo al lettore, come esercizio filosofico, il compito di identificare parentele e differenze tra questa nozione di modello e le due – modello materiale e modello teorico – a cui questo capitolo è dedicato.
pagine precedenti utilizziamo l’espressione modello materiale: diremo allora che i ratti vengono talvolta utilizzati come modelli materiali per lo studio del morbo di Parkinson negli esseri umani. Tra le cause principali dei sintomi motori associati al morbo di Parkinson – posture anomale, difficoltà nel dare inizio ai movimenti volontari, rigidezza, tremore – vi è, secondo i neuroscienziati, la degenerazione del collegamento tra una regione del cervello chiamata substantia nigra e un’altra regione chiamata corpo striato. Il collegamento è mediato da una sostanza chimica chiamata dopamina, che svolge la funzione di neurotrasmettitore: è attraverso la dopamina che i neuroni della substantia nigra stabiliscono un collegamento elettrico con quelli del corpo striato. Come controllare questa ipotesi? Una buona idea sarebbe quella di prendere una cavia umana dotata di cervello “sano” e comportamenti motori nella norma, creare un danno cerebrale di qualche tipo in modo da alterare il collegamento tra le due aree cerebrali, e osservare il risultato. Se la cavia umana manifesta i sintomi del Parkinson, allora quell’ipotesi va nella giusta direzione. È inutile dire che ovvi motivi di carattere etico impediscono di svolgere esperimenti del genere su cavie umane. Però molti Paesi permettono l’uso di cavie animali non umane: per esempio, i ratti. L’esperimento modificato si svolge allora così: si somministra una certa sostanza che agisce in una regione del cervello dei ratti chiamata anch’essa substantia nigra, provocando la degenerazione del collegamento tra essa e un’altra regione, chiamata anch’essa corpo striato; se i ratti manifestano comportamenti simili a quelli dei soggetti umani affetti da Parkinson – posture anomale, difficoltà nel dare inizio ai movimenti volontari, rigidezza, tremore – cresce la plausibilità dell’ipotesi secondo cui la scarsità di dopamina e la degenerazione del collegamento tra substantia nigra e corpo striato stanno alla base del morbo di Parkinson negli esseri umani. (Questo è un esempio puramente illustrativo: che la degenerazione del collegamento tra
Il ruolo dei modelli nella teorizzazione scientifica
substantia nigra e corpo striato generi i sintomi del Parkinson è ipotesi ben consolidata, a cui i neuroscienziati sono giunti anche sulla base di esperimenti “tradizionali” che non coinvolgevano modelli materiali bensì misurazioni effettuate su esseri umani già affetti da tale morbo. Piuttosto, esperimenti con modelli materiali animali analoghi a quello descritto hanno portato i neuroscienziati ad approfondire aspetti particolari della malattia e a testare in via preliminare l’efficacia di certe sostanze chimiche nel ridurre certi effetti del morbo. Per esempio, si può somministrare al ratto “danneggiato” un certo farmaco e osservare se e in che misura i deficit motori si riducono: esperimenti di questo tipo possono essere presi come base per corroborare l’idea che quel farmaco possa alleviare i sintomi del Parkinson anche negli esseri umani; e così via.) La procedura descritta solleva immediatamente una questione di carattere metodologico (a parte, anche in questo caso, dilemmi etici legati alla sperimentazione sugli animali), tanto ovvia quanto sorprendentemente poco affrontata dai filosofi della scienza: non è forse un “salto” un po’ troppo ardito quello di estendere all’uomo il risultato di esperimenti condotti sui ratti? In altre parole: a che titolo i ratti possono essere impiegati come cavie sperimentali rilevanti allo studio delle patologie umane? Queste domande possono essere naturalmente sollevate in relazione a qualsiasi uso sperimentale di modelli materiali: dagli esperimenti condotti sui primati per studiare i meccanismi cognitivi all’uso sperimentale di sistemi informatici o robotici per studiare i meccanismi di locomozione e orientazione negli animali. Proviamo ad affrontare questa domanda. Anzitutto è naturale supporre che la scelta 18
Modelli materiali robotici In molte discipline scientifiche si conducono esperimenti su modelli materiali per poi estendere le conclusioni sperimentali raggiunte ad altri sistemi. Un altro esempio è quello delle scienze cognitive e dell’intelligenza artificiale, in cui si fa largo uso di calcolatori e persino di sistemi robotici per studiare il comportamento dei sistemi viventi. Si costruisce un sistema robotico dotato di caratteristiche particolari e, come nel caso dei ratti, si osserva il suo comportamento anche a seguito di manomissioni interne (che non sollevano ovviamente particolari problematiche etiche); dall’analisi delle relazioni tra il comportamento del robot e quello del sistema vivente oggetto di studio si traggono conclusioni su quest’ultimo. Modelli materiali robotici sono stati al centro di studi sperimentali che hanno permesso di approfondire e di valutare ipotesi scientifiche sul comportamento di varie classi di specie viventi, dalle formiche agli esseri umani (Datteri e Tamburrini 2007; Webb 2002).
del ratto, nello studio del Parkinson, non sia stata arbitraria: una scatola da scarpe, un aeroplano o una locusta con tutta probabilità non sarebbero stati ritenuti adatti allo scopo. Allora deve sussistere una relazione di similarità tra ratti ed esseri umani, e non tra locuste ed esseri umani, relativamente allo studio del morbo di Parkinson. Ma qual è la natura di questa similarità? Ratti ed esseri umani sono molto diversi, non c’è bisogno di dirlo, da innumerevoli punti di vista. Dato che l’obiettivo della sperimentazione, nel nostro esempio, è lo studio di una patologia che danneggia i movimenti del soggetto che ne è affetto, evidentemente la similarità tra ratti ed esseri
197
198
Il ruolo dei modelli nella teorizzazione scientifica
umani dovrà riguardare aspetti legati al controllo motorio nelle due classi di sistemi viventi. Un modo per dare senso a questo tipo di procedura sperimentale è il seguente. Si assume che i ratti e gli esseri umani abbiano in comune alcuni aspetti dei loro meccanismi di controllo motorio: in particolare si stabilisce un’analogia funzionale tra regioni del cervello dei ratti e regioni del cervello degli esseri umani, identificando substantia nigra e corpo striato anche nei ratti, e si assume che il collegamento tra tali due regioni (assicurato dalla presenza di dopamina) sia essenziale per il corretto funzionamento di alcuni aspetti del controllo motorio. In qualche senso, la natura di questa assunzione non è troppo differente da quella che esprimiamo sostenendo che due lavatrici di marche e modelli differenti, oppure una vecchia radio a valvole e una moderna radio a transistor, posseggono grosso modo principi di funzionamento comuni nonostante più o meno evidenti differenze in aspetti non collegati al metodo di lavaggio (nel caso delle lavatrici) oppure alla ricezione e all’elaborazione delle onde radio. È intuitivamente chiaro che un’assunzione di questo tipo è presupposta nel caso degli esperimenti sui ratti che abbiamo considerato a titolo di esempio. In tali esperimenti si danneggia il collegamento tra la regione X e la regione Y del cervello dei ratti (dimentichiamoci un momento dei nomi che i neuroscienziati attribuiscono a quelle regioni), e si imputa a tale danno la presenza di deficit motori. Ritenere che gli stessi deficit motori siano causati, negli esseri umani, dal danneggiamento del collegamento tra substantia nigra e corpo striato significa anzitutto assumere che la regione X e la regione Y nei ratti siano in qualche senso funzionalmente analoghe, rispettivamente, alla substantia nigra e al corpo striato umani: significa assumere cioè che X e Y svolgano un ruolo nel controllo motorio dei ratti sotto certi aspetti analogo a quello svolto da substantia nigra e corpo striato negli esseri umani. Per convincercene supponiamo di non assumere tale presupposto: ovvero, supponiamo che i neuroscienziati non abbiano idea di quale relazione sussista tra le regioni X e Y e il cervello umano. In tal caso, l’esperimento condotto sul ratto avrebbe potuto al più suggerire che il collegamento tra X e Y è necessario per il controllo motorio del ratto (dato che la sua distruzione ne ha compromesso l’efficienza motoria); ma come estendere questo risultato teorico al cervello umano, in mancanza di informazioni collaterali o teorie di sfondo che permettano di stabilire una corrispondenza funzionale, rispettivamente, tra X e una particolare zona del cervello umano (la substantia nigra) e tra Y e un’altra particolare zona del cervello umano (il corpo striato)? Ecco allora un problema filosofico molto importante e finora non molto affrontato dai filosofi della scienza: capire meglio in che senso, in esperimenti di questo tipo, si ritiene che vi siano similarità in alcuni aspetti dei meccanismi di controllo motorio di individui strutturalmente così differenti tra di loro. Questa domanda può essere articolata in una questione “di principio” e in una questione metodologica. La questione “di principio” è la seguente: sotto quali condizioni è lecito affermare che individui distinti abbiano in comune alcuni aspetti di certi meccanismi di funzionamento? La questione metodologica è invece la seguente: attraverso quali procedure possiamo capire se individui distinti hanno in comune alcuni aspetti di certi meccanismi di funzionamento?
Il ruolo dei modelli nella teorizzazione scientifica
L’uso sperimentale dei modelli materiali è solo uno degli esempi che possono essere addotti per illustrare quanto il “senso” e l’utilità di certe pratiche sperimentali dipendano da assunzioni teoriche di sfondo, la cui plausibilità dipende da altre assunzioni teoriche e altri risultati sperimentali. Nessun risultato sperimentale – senz’altro non in questo caso – “suggerisce” univocamente e immediatamente un qualche risultato teorico: lo stesso insieme di risultati sperimentali (in questo caso, le difficoltà motorie dei ratti a seguito del danno impartito) può essere sensatamente interpretato in modi molto diversi, solo alcuni dei quali risultano essere significativi per lo studio del cervello umano, a seconda del fatto che certi presupposti teorici siano ben giustificati o meno (cfr la discussione sulla sottodeterminazione teorica condotta nella sezione 6.3, L’anti-realismo e il primato epistemico dell’osservazione) Del resto, perché gli esperimenti sui ratti possano essere considerati significativi in relazione allo studio delle patologie neurologiche umane è necessario presupporre anche altre assunzioni teoriche. In primo luogo, spostiamo la nostra attenzione dal meccanismo di controllo motorio ai sintomi del morbo di Parkinson: ha senso affermare che i ratti a seguito del danno mostrano deficit motori simili a quelli dei soggetti umani affetti dal morbo di Parkinson? Essi mostrano posture anomale, varie difficoltà di mantenere l’equilibrio, e difficoltà nel dare avvio ai movimenti. “A occhio” questi sintomi sono piuttosto simili ai soggetti parkinsoniani umani, ma si tratta di valutazioni piuttosto qualitative, anche considerando le più che evidenti differenze tra la struttura degli arti dei ratti e degli esseri umani. Ecco allora un altro problema metodologico importante: identificare dei criteri che permettano di affermare sensatamente che vi sono similarità nei comportamenti di individui strutturalmente così diversi tra di loro. Naturalmente, se dubitiamo del fatto che le lesioni sul ratto abbiano prodotto comportamenti simili a quelli degli esseri umani affetti dal morbo, il fondamento delle conclusioni teoriche tratte dai risultati sperimentali decade. Ecco infine un’ulteriore, molto importante assunzione teorica di sfondo che è necessario tenere in debita considerazione per dare senso agli esperimenti di cui stiamo parlando. Anche assumendo che sussistano le similarità funzionali tra ratto ed essere umano che abbiamo discusso, siamo proprio sicuri che l’iniezione della sostanza chimica abbia danneggiato solo la substantia nigra nel ratto e non altri meccanismi concomitanti? Se il danno avesse deteriorato, poniamo, sia l’attività della substantia nigra sia un’altra regione Z (magari per ragioni connesse alla diffusione della sostanza danneggiante nel cervello del ratto, oppure più semplicemente perché l’inserimento della siringa ha provocato danni collaterali), allora potremmo supporre che i sintomi del Parkinson nel ratto siano dovuti al collegamento tra Z e il corpo striato, e non tra la substantia nigra e il corpo striato. Per trarre conclusioni teoriche dai dati sperimentali è importante riuscire a capire se il danno provocato sia in un certo senso “puro”, ovvero unicamente a carico della regione cerebrale in esame, oppure se abbia prodotto danni collaterali che potrebbero dunque essere responsabili dei sintomi osservati70.
70
Si veda su questo Shallice [1990].
199
200
Il ruolo dei modelli nella teorizzazione scientifica
Giustificare questi ulteriori presupposti, come dicevamo, è estremamente problematico. Anche su questo fronte emerge il ruolo fondamentale di una riflessione sui fondamenti del metodo scientifico, dunque delle competenze specifiche dei filosofi della scienza: non si tratta infatti soltanto di elaborare tecniche sperimentali più raffinate e capaci di disambiguare le possibili interpretazioni, ma anche – e questo è il contributo più specificamente filosofico – di capire quali sono le opzioni da disambiguare, sulla base di un’attenta analisi del rapporto, spesso problematico, che intercorre tra gli aspetti dell’ipotesi teorica da valutare e gli aspetti “concreti” delle pratiche sperimentali messe in atto.
Indice bibliografico
A • Achinstein P. 1965, Theoretical Models. The British Journal for the Philosophy of Science, 16(62), pp. 102-120. • Alston W. P. 1971, The Place of the Explanation of Particular Facts in science. Philosophy of science, 38(1), pp. 13-34. • Armstrong D. M. 1983, What Is a Law of Nature?, Cambridge: Cambridge University Press. B • Bacone F. 1975, Scritti filosofici, P. Rossi, (cur.), Torino: UTET. • Barros D. B. 2008, Natural Selection as a Mechanism. Philosophy of Science, 75(3), pp. 306-322. • Black M. 1954, Problems of Analysis, London: Routledge. • Boniolo G. & Giaimo S. 2008 (cur.), Filosofia e scienze della vita. Un’analisi dei fondamenti della biologia e della biomedicina, Milano: Bruno Mondadori. • Boniolo G. & Vidali P. 1999, Filosofia della scienza, Milano: Bruno Mondadori. • BonJour L. 1998, In Defense of Pure Reason, Cambridge: Cambridge University Press. • Braithwaite R. B. 1953, Scientific Explanation. A Study of the Function of Theory, Probability and Law in Science, Cambridge: Cambridge University Press. • Bridgman P. W. 1965, La logica della fisica moderna, V. Somenzi, (cur.), Torino: Boringhieri. • Brown J. R. 2009, Thought Experiments, The Stanford Encyclopedia of Philosophy (Fall 2009 Edition), Edward N. Zalta, (ed.), http://plato.stanford.edu/archives/fall2009/ entries/thought-experiment/. C • Carnap R. 1936, Testability and Meaning. Philosophy of Science, 3(4), 419-471. • Carnap R. 1956, The Methodological Character of Theoretical Concepts, in H. Feigl & G. Maxwell (eds.), Minnesota Studies in Philosophy of Science I. Minneapolis: University of Minnesota Press. • Carnap R. 1971, I fondamenti filosofici della fisica, Milano: Il Saggiatore. • Carroll J. W. 1994, Laws of Nature, Cambridge: Cambridge University Press. • Carroll J. 2008, Nailed to Hume’s Cross?, in J. Hawthorne, T. Sider & D. Zimmerman (eds.), Contemporary Debates in Metaphysics (pp. 67-81), Oxford: Basil Blackwell. • Cenci M. A., Whishaw I. Q. & Schallert T. 2002, Animal models of neurological deficits: how relevant is the rat? Nature Reviews. Neuroscience, 3(7), pp. 574-579.
202
Indice bibliografico
• Clericuzio A. 2005, La macchina del mondo. Teorie e pratiche scientifiche dal Rinascimento a Newton, Roma: Carocci. • Cordeschi R. 2002, The Discovery of the Artificial: Behavior, Mind and Machines Before and Beyond Cybernetics, Dordrecht: Kluwer Academic Publishers. • Craver C. F. 2007, Explaining the brain: Mechanisms and the mosaic unity of neuroscience, Oxford: Oxford University Press. • Cummins R. 1975, Functional Analysis. Journal of Philosophy, 72(20), 741-765. D • Datteri E. & Tamburrini G. 2007, Biorobotic Experiments for the Discovery of Biological Mechanisms. Philosophy of Science, 74(3), pp. 409-430. • Dijksterhuis E. J 1971, Il meccanicismo e l’immagine del mondo, Milano: Feltrinelli. • Dilthey W. 1982, La costruzione del mondo storico nelle scienze dello spirito, in P. Rossi (cur.), Critica della ragione storica, Torino: Einaudi. • Dorato M. 2000, Il software dell’universo. Saggio sulle leggi di natura, Milano: Bruno Mondadori. • Dretzke F. I. 1977, Laws of Nature. Philosophy of Science, 44(2), pp. 248-268. • Duhem P. 1978, La teoria fisica : il suo oggetto e la sua struttura, Bologna: Il Mulino. E • Einstein A. 1905, Sull’elettrodinamica dei corpi in movimento, in A. Einstein (1988), Opere scelte, E. Bellone (cur.), Torino: Bollati Boringhieri, 148-177. • Einstein A. 1917, Relatività: esposizione divulgativa, in A. Einstein (1988), Opere scelte, E. Bellone (cur.), Torino: Bollati Boringhieri, 389-504. • Euclide 1970, Gli elementi, Torino: UTET. F • Fine A. 1991, Piecemeal Realism. Philosophical Studies, 61, pp. 79-96. • Feigl H. 1970, The “orthodox” view of theories: Remarks in defense as well as critique, in M. Radner & S. Winokur (eds.), Minnesota Studies in the Philosophy of Science IV (pp. 3-16), Minneapolis: University of Minnesota Press. • Friedman M. 1974, Explanation and Scientific Understanding. The Journal of Philosophy, 71(1), pp. 5-19. • Frigg R. & Hartmann S. 2009, Models in science, in E. N. Zalta (ed.), The Stanford Encyclopedia of Philosophy (2003rd ed.),CA: Stanford. G • Galilei G. 1965, Il Saggiatore, Milano: Feltrinelli. • Galilei G. 1970, Dialogo sopra i due massimi sistemi del mondo, Torino: Einaudi. • Giere R. N. 1999, Science without laws, Chicago: University of Chicago Press. • Giere R. N. 2004, How Models are used to represent Reality. Philosophy of Science,
Indice bibliografico
71(5), 742–752. • Gijsbers V. 2007, Why Unification Is Neither Necessary Nor Sufficient for Explanation. Philosophy of Science, 74(4), 481-500. • Gillies D. 2000, Philosophical Theories of Probability, London: Routledge. • Glymour C. 1999, Dimostrare, credere, pensare. Introduzione all’epistemologia, Milano: Raffaello Cortina. • Goodman N. 1985, Fatti, ipotesi e previsioni, Roma-Bari: Laterza. H • Hahn H., Neurath O. & Carnap R. 1979, La concezione scientifica del mondo, Roma-Bari: Laterza. • Hamilton A. 2007, Laws of Biology, Laws of Nature: Problems and (Dis) Solutions. Philosophy Compass, 2(3), 592. • Hanson N. R. 1978, I modelli della scoperta. Ricerca sui fondamenti concettuali della scienza, Milano: Feltrinelli. • Hempel C. G. & Oppenheim P. 1948, Studies in the Logic of Explanation. Philosophy of Science, 15(2), 135-175. • Hempel C. G. 1961, La formazione dei concetti e delle teorie della scienza empirica, Milano: Feltrinelli. • Hempel C. G. 1965, Aspects of scientific explanation, And Other Essays in the Philosophy of Science, New York: Free Press. • Hempel C. G. 1968, Filosofia delle scienze naturali, Bologna: Il Mulino. • Hesse M. 1980, Modelli e analogie nella scienza, Milano: Feltrinelli. • Hume D. 1987, Opere filosofiche, 4 voll., Roma-Bari: Laterza. K • Kandel E. R., Schwartz J. H. & Jessell T. M. 2000 (eds.), Principles of neural science. Neurology, New York: McGraw-Hill. • Kant I. 1986, Critica della ragion pura, Milano: TEA. • Kitcher P. 1989, Explanatory Unification and the Causal Structure of the World, in P. Kitcher & W. C. Salmon (eds.), Scientific Explanation, Minneapolis: University of Minnesota Press. • Kitcher P. 1993, The Advancement of Science, Oxford: Oxford University Press. • Koyré A. 1972, Studi newtoniani, Torino: Einaudi. • Koyré A. 1976, Studi galileiani, Torino: Einaudi. • Kuhn T. S. 1972, La rivoluzione copernicana, Torino: Einaudi. • Kuhn T. S. 1999, La struttura delle rivoluzioni scientifiche, Torino: Einaudi. L • Ladyman J. 2007, Filosofia della scienza. Un’introduzione, Roma: Carocci. • Lange M. 2000, Natural Laws in Scientific Practice, Oxford: Oxford University Press. • Laudan L. 1984, Science and Values, Berkeley: University of California Press.
203
204
Indice bibliografico
• Laudan L. & Leplin J. 1991, Empirical Equivalence and Underdetermination. The Journal of Philosophy, 88(9), pp. 449-472. • Laudisa F. 2010a, Albert Einstein. Un atlante filosofico, Milano: Bompiani. • Laudisa F. 2010b, La causalità, Roma: Carocci. • Laymon R. 1980, Idealization, explanation, and confirmation. Proceedings of the Biennial Meeting of the Philosophy of Science Association, 336-350. • Lewis D. 1973, Counterfactuals. Cambridge, MA: Harvard University Press. • Locke J. 2003, Saggio sull’intelligenza umana, 2 voll., Roma-Bari: Laterza. M • Mach E. 1982, Conoscenza ed errore : abbozzi per una psicologia della ricerca, Torino: Einaudi. • Marconi D. 2007, Per la verità, Torino: Einaudi. • Maudlin T. 2007, The Metaphysics Within Physics, Oxford: Oxford University Press. • Maxwell G. 1962, The Ontological Status of Theoretical Entities. Minnesota Studies in the Philosophy of Science III, Scientific Explanation, Space, and Time, MN: University of Minnesota Press. • Mayr E. 1994, Un lungo ragionamento. Genesi e sviluppo del pensiero darwiniano, Torino: Bollati Boringhieri. • Mayr E. 1999, Storia del pensiero biologico. Diversità, evoluzione, eredità, Torino: Bollati Boringhieri. • Mayr E. 2002, What Evolution Is, London: Orion Books. • McMullin E. 1985, Galilean idealization. Studies In History and Philosophy of Science Part A, 16(3), pp. 247-273. • Merton R. K. 1975, Scienza, tecnologia e società nell’Inghilterra XVII secolo, Milano: Franco Angeli. • Mill J. S. 1996, Sistemi di logica deduttiva e induttiva, Torino: UTET. • Mumford S. 1998, Dispositions, Oxford: Clarendon Press. N • Nagel E. 1968, La struttura della scienza : problemi di logica della spiegazione scientifica, Milano: Feltrinelli. • Newton-Smith W. H. 1981, The Rationality of Science, London: Routledge and Kegan Paul. • Nietzsche F. 2001, La volontà di potenza, Milano: Bompiani. P • Peltonen M. 1996 (ed.), The Cambridge Companion to Bacon, Cambridge: Cambridge University Press. • Pietroski P. & Rey G. 1995, When other Things aren’t Equal: saving Ceteris Paribus Laws from Vacuity. The British Journal for the Philosophy of Science, 46(1), p. 81. • Pievani T. 2006, Creazione senza Dio, Torino: Einaudi.
Indice bibliografico
• Pólya G. 1979, Metodi matematici per l’insegnamento delle scienze fisiche, Bologna: Zanichelli. • Popper K. R. 1972, Congetture e confutazioni, Bologna: Il Mulino. • Popper K. R. 1989, Intervista per l’Enciclopedia multimediale RAI delle scienze filosofiche (http://www.emsf.rai.it). • Psillos S. 1999, Scientific Realism: how Science tracks Truth, New York: Routledge. • Psillos S. 2002, Causation and Explanation, Acumen & McGill: Queens University Press. • Putnam H. 1978, Meaning and the Moral Sciences, London: Routledge and Kegan Paul. R • Rainone A. 2010, Quine, Roma: Carocci. • Ramsey F. P. 1926, Truth and probability, in F. P. Ramsey 1931, Foundations of Mathematics and other Logical Essays, London: Routledge & Kegan. • Ramsey F. 1978, Universals of Law and of Fact, in D. H. Mellor (ed.), F. P. Ramsey, Foundations: Essays in Philosophy, Logic, Mathematics and Economics, London: RKP. • Reichenbach H. 1977, Filosofia dello spazio e del tempo, Milano: Feltrinelli. • Reichenbach H. 1969, Causalità e probabilità, in A. Pasquinelli 1969 (cur.), Il neoempirismo, Torino: UTET. • Rosenblueth A. & Wiener N. 1945, The role of models in science. Philosophy of Science, 12(4), pp. 316-321. • Rosenblueth A., Wiener N. & Bigelow J. 1943, Behavior, Purpose and Teleology. Philosophy of science, 10(1), pp. 18-24. • Rossi P. 1997, La nascita della scienza moderna in Europa, Roma-Bari: Laterza. • Russell B. 1971, I principi della matematica, Roma: Newton Compton. S • Salmon W. C. 1957, Should we attempt to justify Induction? Philosophical Studies 8, pp. 33-48 • Salmon W. C. 1992, 40 anni di spiegazione scientifica, Padova: Franco Muzzio Editore. • Schlick M. 1973, Significato e verificazione, in A. Bonomi 1973 (cur.), La struttura logica del linguaggio, Milano: Bompiani. • Scriven M. 1962, Explanations, Predictions, and Laws, in H. Feigl & G. Maxwell (eds.), Minnesota Studies in the Philosophy of Science III, Scientific Explanation, Space, and Time, Minneapolis: University of Minnesota Press. • Segre M. 1993, Nel segno di Galileo: la scuola galileiana tra mito e storia, Bologna: Il Mulino. • Sellars W. 2004, Empirismo e filosofia della mente, Torino: Einaudi. • Shallice T. 1990, Neuropsicologia e struttura della mente, Bologna: Il Mulino. • Skyrms B. 1974, Introduzione alla logica induttiva, Bologna: Il Mulino. • Strawson P. F. 1952, Introduction to Logical Theory, London: Methuen. • Stuart-Fox D. & Moussalli A. 2009, Camouflage, Communication and Thermoregulation: Lessons from Colour changing Organisms. Philosophical transactions of the Royal Society of London. Series B, Biological sciences, 364(1516), pp. 463-70.
205
206
Indice bibliografico
• Stuart-Fox D., Moussalli A. & Whiting M. J. 2008, Predator-specific Camouflage in Chameleons. Biology letters, 4(4), pp. 326-329. • Stuart-Fox D., Whiting M. J. & Moussalli A. 2006, Camouflage and Colour Change: Antipredator responses to bird and snake Predators across Multiple Populations in a Dwarf Chameleon. Biological Journal of the Linnean Society, pp. 437-446. • Suppe F. 1989, The Semantic Conception of Theories and Scientific Realism, Urbana: University of Illinois Press. • Suppes P. 1960, A Comparison of the Meaning and Uses of Models in Mathematics and the Empirical Sciences. Synthese, 12, pp. 287-301. T • Tamburrini G. 2002, I matematici e le macchine intelligenti. Spiegazione e unificazione nella scienza cognitiva, Milano. Bruno Mondadori. • Taylor J. D. & Hadley M. E. 1970, Chromatophores and Color Change in the Lizard, Anolis Carolinensis. Zeitschrift für Zellforschung und Mikroskopische Anatomie, 104(2), pp. 282-294. • Thomson-Jones M. 2006, Models and the Semantic View. Philosophy of Science, 73(5), pp. 524-535. • Tooley M. 1977, The Nature of Laws. Canadian Journal of Philosophy, 7, pp. 667698. V • Van Fraassen B. C. 1980, The scientific image, Oxford: Clarendon Press. W • Webb B. 2002, Robots in Invertebrate Neuroscience. Nature, 417(6886), pp. 359363. • Webster C. 1980, La grande instaurazione. Scienza e riforma sociale nella rivoluzione puritana, Milano: Feltrinelli. • Westfall R. S 1984, La rivoluzione scientifica del XVII secolo, Bologna: Il Mulino. • Westfall R. S. 1989, Newton, Torino: Einaudi. • Wimsatt W. C. 1987, False Models as Means to Truer Theories. Neutral Models in Biology, Oxford: Oxford University Press. • Woodward J. 2003, Making things happen: A theory of causal explanation, Oxford: Oxford University Press. • Woodward J. 1984, A Theory of Singular Causal Explanation. Erkenntnis, 21(3). • Wright L. 1976, Teleological Explanation, Berkeley: University of California Press.
Indice analitico
A antirealismo scientifico 155-156 e disposizioni, v. “disposizioni” e distinzione termini osservativi/termini non osservativi, v. “termini osservativi e termini non osservativi” ed empirismo 159, 168-170, 171-172 e operazionalismo, v. “operazionalismo” e pessimismo induttivo, v. “pessimismo induttivo” e sottodeterminazione teorica, v. “sottodeterminazione teorica” e strumentalismo, v. “strumentalismo” e superiorità epistemica dell’osservazione 159-160, 163-165 argomento abduttivo 175, 177-179 deduttivo 136, 138, 148, induttivo 56, 137, 139, 140, 148 astrazione 187-190 e spiegazione 190-195 C casualità 145, 146 causalità 7, 16, 45, 73, 78, 86, 95, 100, 101, 116, 127-135 e spiegazione 74-77 ceteris paribus 112-113 cibernetica 76 condizioni al contorno 105-108, 111-112 condizioni necessarie e sufficienti 71 controfattuali 117-121, 124, 130, 131, 172 e disposizioni 173 convinzioni 110, 156-158 D derivazione 40, 54, 83, 84, 121, 122 e spiegazione 83-86 determinismo 9, 14, 16, 129, 131, 142, 143 disposizioni 172-174 E empirismo 37, 44, 48, 159, 170 logico 35, 35-42, 48, 49, 50, 55, riduttivo 168-172, 174
208
Indice analitico bibliografico
e superiorità epistemica dell’osservazione 159-160, 163-165 explanandum (explananda) 63 explanans (explanantia) 63 F falsificazionismo 50, 83, 85n, G giustificazione 110, 157 I idealizzazione 187-190 induzione 7, 13, 56, 57, 127, 130, 131, 132, 135, 136-139, 179, 180 interpretazione di un linguaggio logico 40 nel modello neoempirista di teoria scientifica 37, 39, 41, 45, 46, L leggi 14, 16, 18, 20, 22, 23, 27, 29, 31, 34, 41, 45, 53, 54, 55, 56, 58, 82, 86, 87, 89, 92, 93, 95, 96, 97-126, 127, 129, 130, 131, 132, 135, 136, 137, 138, 140, 143, 173, 175, 176, 184, 187, 190, 192 analisi riduzioniste e non riduzioniste delle 101-102 e clausole ceteris paribus, v. “ceteris paribus” e condizioni al contorno, v. “condizioni al contorno” e controfattuali 117-120 ed eccezioni 114-115 necessità delle 115-125 problema filosofico delle 97-101 e regole 115 rete di 120-125 nelle scienze speciali, v. “scienze speciali” e spiegazione 86-88 struttura formale delle 103-104 e termini individuali 104-105 universalità delle 103-109 verità delle 109-115 M meccanicismo 18, 129 modello 16, 21, 22, 26, 28, 30, 183-200 e astrazione, v. “astrazione” e controllo empirico 195 e idealizzazione, v. “idealizzazione” logico 39, 41 nomologico-deduttivo 81-95, 96, 98, 99, 121, 177
Indice Indice bibliografico analitico
materiale 184, 195-200 e spiegazione scientifica 186-196 di teoria scientifica 35, 37-40, 42-49, 50, 52, teorico 184-185, 186-195 e verità 190-191 N naturalismo 11, 12 “niente miracoli” 175-179 O operazionalismo 168-170, 171-172 P paradigma galileiano 20-24 nella teoria di Kuhn 52, 53 pessimismo induttivo 179-181 probabilità 92, 127, 131, 137, 138, interpretazioni della 139-152 teoria matematica della 140-142 R realismo metafisico 157 realismo scientifico 13, 14, 118, 124, 127, 155, 58 e argomento “niente miracoli”, v. “niente miracoli” e pessimismo induttivo, v. “pessimismo induttivo” problema filosofico del 155 relativismo 158 sulle convinzioni 156-158 sulle giustificazioni v. “giustificazione” sulla verità 156-158 riduzione 168-172, 174 S scienze speciali 107-108, 115-116, 125-126 sottodeterminazione teorica 160-163 spiegazione 61-96 e astrazione 190-195 e causalità 74-77 controllo di teorie filosofiche sulla 73 e creazionismo 69-70, 76 di eventi singoli 63-64 e controllo empirico 88, 196 evoluzionistica 67-70
209
210
Indice analitico bibliografico
e derivazione 83-86 e idealizzazione, v. “idealizzazione” e leggi 86-88 meccanicistica 65, 66-67 e modelli teorici 186-196 e modello nomologico-deduttivo, v. “modello nomologico-deduttivo” e previsione 78-81 problema filosofico della 62, 71-73 teleologica 64, 66-67, 69, 74, 75, 76, 81 e verità dell’explanans 88-89, 190-195 strumentalismo 58, 59, 115, 166-168, 167n, 174 T teoria 16, 20, 22, 25, 26, 69n, 70, 72, 73, 96, 127, 130, 131, 132, 134, 137n, 140, 142, 144, 159, 161, 162, 163, 166, 176n, 178, 180, della conoscenza … 13, 100 del moto 24, 28-31 scientifica 10, 11, 33-60, 153, 160, 161, 164 termini osservativi e termini non osservativi 165-166 U uniformità della natura principio di 135, 136 V verificazionismo 42, 48, 49 verità 10, 13, 38, 44, 45, 48, 49, 56, 58, 71, 72, 88, 89, 98, 109-110, 111, 112, 113, 114, 115, 116, 118, 119, 120, 122, 123, 125, 130, 132, 135, 138, 154, 159, 160, 162, 163, 164, 168, 169, 170, 172, 173, 176n, 177, 178, 189, 191, 193 e giustificazione 156-158
volumi pubblicati i prismi lingua, letteratura, comunicazione collana diretta da Elisabetta Menetti Fabrizio Frasnedi, Alberto Sebastiani Lingua e cultura italiana. Studio linguistico e immaginario culturale Lucia Rodler Leggere il corpo. Dalla fisiognomica alle neuroscienze Stefano Calabrese Retorica del linguaggio pubblicitario Paola Vecchi Galli Sussidiario di letteratura italiana Angelo Agostini, Marta Zanichelli Studiare il giornalismo Luigi Marfè Introduzione alle teorie narrative
i prismi cinema collana diretta da Guglielmo Pescatore Paolo Noto, Francesco Pitassio Il cinema neorealista Michele Fadda Il cinema contemporaneo. Caratteri e fenomenologia Veronica Innocenti, Guglielmo Pescatore Nuove forme della serialità televisiva Giovanni Guagnelini, Valentina Re Visioni di altre visioni: intertestualità e cinema
Claudio Bisoni La critica cinematografica. Metodo, storia e scrittura
i prismi storia contemporanea collana diretta da Alberto De Bernardi Matteo Pasetti Storia dei fascismi in Europa Vittorio Caporrella La famiglia. Un’istituzione che cambia Elda Guerra Storia e cultura politica delle donne Giovanni Gozzini, Giambattista Scirè Il mondo globale come problema storico Mirco Dondi L’Italia repubblicana: dalle origini alla crisi degli anni Settanta Andrea Baravelli L’Italia liberale Marica Tolomelli Sfera pubblica e comunicazioni di massa Maria Pia Casalena Il Risorgimento Andrea Rapini Lo stato sociale