133 6 10MB
Italian Pages 327 Year 1988
16 DA UNA SCIENZA ALL'ALTRA
Concetti nomadi . D. ANDLER, F. BAILLY, F. DAVOINE, F. GAILL, J.-M. GAUDILLIÈRE, J. GERVET, M. GUTSATZ, M. HERLAND, P. LÉVY, P. LIVET, M. VEUILLE DIREZIONE E COORDINAMENTO DI ISABELLE STENGERS
•
hopefulmonster
Titolo originale D'UNE SCIENCEA L'AUTRE
DES CONCEPTS NOMADES
'lìaduzìone di Stefano Isola
L'edizione italiana di quest'opera è stata resa possibile grazie al contributo di Montedison-Gruppo Fenuzzi
e 1987. &lilions du Seuil, Paris e 1988. Hopeful Monster editore, ISBN 88-7757-018-0
Firenu
INDICE
PREFAZIONE
7
INl'RODUZIONE
Propagazione dei concetti, /. S1engers
9
1. GRANDI MANOVRE,/. Stengers
25
Correlazione, M. Ve.uille Note Legge e causalità, M. Gutsatz Note Il paradigma del calcolo, P. Lévy Nota bibliografica Problema, D. Andler Note
31 58 59 75 77
102 105 139
2. I FRAMMENTI DELLA DIVERSITÀ,/. Stengers
141
Selezione/Concorrenza, M. llerland, M. Gutsalz Note Selezione naturale, M. Veuille Note Ordine,/. S1engers, F. Bailly Note
149 170 173 190 191 212 213 230 233 262
Organismo, F. Gaill Note Comportamento, J. Gervet Note
5
3. Il. SOGGETI'O DELL'OGGETTO, I. Stengers Nonne, P. Liwt Nom bibliografica Complessilà, /. Stengers Note Transfert, F. Davoine, J.-M. Gaudillière Jl.'ote
6
263 269 288 289
306 307 325
BmUOGRAFIA
327
INDICEANAUitCO
333
PREFAZIONE
Una constatazione all'origine di questo libro: le scienze interessano un pubblico sempre più vasto. Come non rallegrarsene? E giusto e normale che la scienza cessi di essere recitata soltanto attraverso i programmi scolastici, che il pubblico non specializzato possa trovare un contallo, non soltanto con le "verità" sanzionate dalla storia e apparentemente inaccessibili alla conlroversia, ma anche con le estrapolazioni, le speculazioni, le proposizioni immaginative, contestabili e contestate, che traducono le passioni della scienza stessa I contrasti di idee che agitano la scienza sono parte della cultura vivente di oggi, con i suoi rischi, i suoi eccessi, i suoi azzardi, i suoi conflitti. Tuttavia, proprio perché non si tratta di un sapere quieto e stabilizzato, bensi mutevole e aperto, ci sembra che una "guida" delle idee e dei concetti che animano oggi il dibattilo scientifico possa essere benvenuta, una guida che consenta al Ieuore di orientarsi in quel paesaggio accidentato, talvolta incoerente, spesso confliuuale, che i dibattili auuali invitano ad esplorare. Quest'idea è stata tuttavia arricchita fino al punto di abbandonare il progeuo di un semplice "glossario interdisciplinare" a favore di un fascio di esplorazioni, ciascuna centrata intorno a un conceuo chiave del dibauito interno alle scienze contemporanee. In effetti, al di là della necessità di comprendere i significali e le implicazioni talvolta divergenti che un conceuo può assumere in differenti domini della scienza, si profilava il problema delle pratiche scientifiche stesse, che creano tali significati, fanno agire le loro implicazioni, amplificano o al contrario occultano le divergenze. Non potevamo limitarci a dare definizioni o elucidazioni, inevitabilmente statiche. Il vero problema era quello di comprendere in che senso il carauere arrischiato, provocante, persino inquietante di cene proposizioni scientifiche non sia casuale, né derivi da una "ricaduta" naturale sulla cultura di un'avanzata "puramente scientifica", ma piuuosto dagli interessi, le ambizioni e lepretese degli scienziati che, per questo, sono i veri protagonisti della cultura di oggi. Non si troverà qui una mise en accusation della scienza, tantomeno un tentativo di ridurla a una mera pratica sociale tra tante altre. Si tratta al contrario
7
8
di far vivere i problemi della scienza quali si pongono a coloro che la praticano, si tratta di mostrare che ciò che chiamiamo scienza è qualcosa di continu:imcntc reinventato, dib:ittuto, ridefinito attraverso quei personaggi appassionati, ambiziosi, esigenti cd inquieti che sono gli scienziati. Nelle p:1gine che seguono il lettore scoprirà dunque non tanto una guida impersonale quanto un insieme di "racconti di viaggio", che associano storia, discussione critica, elucidazione teorica. Questi racconti non hanno certo l'esaustività o l'omogeneità alle quali un vero "glossario" avrebbe dovuto mirare. Tuttavia, grazie agli inter-riferimenti che li articolano, essi aprono una prospettiva molto ampia sui dibattiti scientifici attuali, come ad esempio quelli che hanno per oggetto la pertinenza del concetto di selezione per le società umane, oppure la possibilità di formalizzare in termini logico-matematici l'atù\ità umana, o, più in generale la possibilità di colmare la distanza che separa le scienze della natura dalle scienze dell'uomo e delle sue società. Ma oltre alla varietà e alla chiarezza delle informazioni e all'interesse delle idee discusse, questa "guida" vuole essere uno strumento di orientamento per chi sia interessato alle attuali controversie, ma sia afflitto dall'eterno dilemma: se si tratta di una "vera scienza", allora bisogna inchinarsi, ma se si tratta "semplicemente" di ideologia, allora è priva di alcun interesse. L'insieme di esplorazioni che costituiscono questo libro ha l'ambizione di mostrare che le scienze, se avvicinate da una prospettiva che le spoglia dell'ideale di purezza e di disinteresse con cui solitamente viene adornato il loro cammino, non divengono pertanto arbitrarie o prive di interesse. Al contrario divengono pill appassionanti, vettori di innovazione, catalizzatori di invenzioni culturali e intelleuuali. Comunque, per essere comprese e apprezzate al loro giusto valore, ossia in quanto avventure e non svelamento di verità universali, esse chiamano lo stesso tipo di spirito critico necessario in ogni altro dibattito di idee, culturali, sociali o politiche.
INTRODUZIONE
La propagazione dei concetti
Isabe/le Stengers Il campo delle scienze è talvolta luogo di strane e spettacolari operazioni. Mentre nei periodi di stabilità può apparire come un campo ordinato, in cui oggetti e metodi sono razionalmente distribuiti, in cene occasioni sembra richiamare metafore guerresche. Gli specialisti di una data disciplina pubblicano bollettini di vittoria: tale postazione è presa, o è sul punto di esserlo. Basti evocare la sociobiologia quando annuncia che le scienze della cultura, della società e della politica devono ormai fare i conti con la definizione di uomo come prodouo dcli' evoluzione biologica, oppure la neurofisiologia quando annuncia che un "uomo neuronale" verrà presto a unificare e a fondare la psicologia, la psicanalisi e anche l'estetica. A questi bollettini di vittoria rispondono denunce e appelli alla resistenza. Queste operazioni, protestano coloro che si sentono assediati, non sono veramente scientifiche. Le analogie, le similitudini, i passaggi che sembrano giustificarle sono soltanto superficiali. I nostri oggetti e i nostri metodi non sono riducibili ad approcci diversi. Ogni volta che il campo scientifico viene così sconvolto, tutti, e in primo luogo il pubblico e coloro che sostengono finanziariamente la ricerca scientifica, sono chiamati a prendere posizione. I temi del progresso scientifico e del rispello delle differenze, le denunce della resistenza oscurantista e della barbarie riduzionista, sono come un fuoco incrociato che spinge lo spettatore a scegliere il suo campo. Ma prima di scegliere e di prendere partito, esiste eventualmente il modo di riflettere su questa stessa instabilità del campo scientifico? Che cosa possiamo comprendere di queste operazioni, dove viene diballuto e discusso ciò che, iiei periodi di tregua, si presenta come qualcosa di naturale, che va da sé: l'adeguamento dei concetti e dei me· !Odi scientifici ai loro oggetti?
9
1 concetti scientifici
10
Già attraverso queste prime domande si presenta una biforcazione a proposito di ciò che, nella nostra società, porta il titolo di scienza. Da una parte questo titolo segnala uno stato dì diritto. In questo caso occorrerebbe definire dapprima che cosa sia la "scientificità", ossia quale sia il modello a priori a parùre d!ll quale può essere conferito il titolo dì scienza. A partire da questo modello potremmo anche tentare di definire il ruolo legittimo dei concetti, le loro relazioni con l'esperienza, etc. La natura dei percorsi che, dopo molti altri, dovremmo compiere non ha sorprese: si tratta del tentativo di fonnulare IDI "criterio di demarcazione", di stabilire la differenza tra ciò che ha diritto al titolo di "concetto scientifico" e ciò che è invece semplice metafora, estrapolazione indotta, o nozione "ideologica". Armati di un simile criterio, potremmo poi ritornare verso le scienze per giudicare, valutare, criticare. In breve, faremmo ciò che si conviene indicare sotto il nome di epistemologia normativa. Oppure, da un'altra pane, possiamo accettare il titolo di scienza come un fatto : un ceno insieme di proposizioni, di pratiche, di problemi viene, oggi, riconosciuto come "scientifico". In questo caso, nessuna definizione preliminare può ancora armare il nostro giudizio: abbiamo a che fare con il campo sociale e istituzionale dove la "scientificità" è innanzitutto una posta in gioco, dove gli stessi scienziati riflettono. argomentano, in breve definiscono attivamente che cosa la scienza sia allo scopo dì far accettare una cena proposizione come "scientifica", o al contrario per negarle tale riconoscimento. Abbiamo dunque a che fare con un campo in movimento, instabile, elaborato dagli stessi auori che è chiamato a definire, a sua volta ridefinito continuamente dalle operazioni che vi vengono tentate, siano queste vincenti o fallimentari. È questa seconda strada che tenteremo qui di imboccare. Ciò non significherà affatto che resteremo "neutri", al contrario. L'imperativo della neutralità è sempre molto artificiale: salvo un profondo disinteresse di colui che descrive per l'oggetto della sua descrizione, si tratta ìnnanzituuo di un imperativo metodologico di dissimulazione, uno dei mezzi per aspirare al titolo di scienza. Ponendo il problema del ruolo dei concetti scientifici dall 'intemo del campo delle scienze, tale imperativo sarà per noi particolarmente insostenibile. Perché il concetto scientifico porta come prima definizione proprio quella di non lasciare indifferenti, di implicare e di imporre una presa di posizione. La fonnulazione di un concetto scientifico segnala in effetti un'operazione a molte facce: operazione di ridefinizione delle categorie e dei significati, operazione sul campo fenomenico, operazione sul campo sociale. Un simile concetto ha infatti lo scopo di organizzare un insieme dì fenomeni, di definire
le domande peninenti a tale proposito e il senso delle osservazioni che possono venirvi effettuate. Ma questo scopo si carica di una problematica di dirillo. Un concetto deve essere riconosciuto come adeguato, come produttore di una organizzazione effettiva dei fenomeni, e non interpretato come semplice proiezione delle idee e dei presupposti di colui che lo promuove. In altri termini, se pure rifiuteremo di cercare dei criteri di diritto che permettano di definire ciò che è scientifico e ciò che non Io è, sappiamo che il problema del diritto è inerente a ciò che tentiamo di comprendere. La distinzione tra scientifico e ideologico non è stata inventata dall'epistemologia normativa, essa è prima di tutto un problema degli scienziati stessi, è la posta in gioco delle operazioni che manifestano l'instabilità del campo scientifico. Ogni operazione di questo tipo è portatrice di una modificazione, di un rinnovamento, di una ridistribuzione delle norme di scientificità. È per questo che nella maggior parte dei casi l'epistemologia normativa, che si propone di decretare dei "criteri di demarcazione" e di definire ciò che ha diritto al titolo di scienza, si riduce a spiegare perché i vincitori del momento abbiano diritto ad aver ragione. Essa trova, formulate dagli stessi scienziati, quelle caralteristiche - fecondità, potenza esplicativa, ogge11ività, etc. - in nome delle quali la vittoria sarebbe stata conquistata. Inversamente, la possibilità di parlare, qua e là, di "ideologia", di "falsa scienza", di proposizione vuota, traduce il fatto che, in questo caso e dal punto di vista di colui che giudica, l'operazione è fallita. Non è riuscita a far accogliere i criteri di plausibilità e di scientificità di cui era ponatrice. L'interesse di quanto è stato avanzato non è stato in grado di cancellare la sensazione di arbitrarietà, la via proposta non è stata riconosciuta capace di aprire un accesso autentico ai fenomeni, gli argomenti a favore del nuovo modo di organizzazione non hanno saputo imporsi come effettivamente vincolanti. Qui si parla intenzionalmente di verità, o di conferma "da parte della natura". Tali qualificativi possono imporsi da soli in caso di successo, ma non entrano in corso fintanto che la controversia è aperta, o appartengono a un'argomentazione contestata di per sé. Questa è anche la regola alla quale tenteremo di attenerci in questo volume: nessuno dei testi presentati qui ha la pretesa di essere neutro, ciascuno degli autori è, direttamente o meno, parte integrante dei problemi che vi si discutono; ma nessuno di loro dispone, a proposito della scienza o del dominio che tratta, di un criterio che gli consenta di giudicare, nessuno pretende di situarsi in una posizione al di fuori da ogni controversia, e che per questo gli permetterebbe di descrivere senza partecipare a ciò che descrive. Nessuno di noi sa definire la scienza al di fuori delle discussioni, delle polemiche, dei consensi a partire dai quali tale defmizione si opera e si trasforma. Nessuno di noi sa riconoscere che la "natura" ha confermato il carattere adeguato di un concetto scientifico indipendente-
11
mente dall'accordo che si stabilisce o meno a proposito di tale adeguatezza.
Il campo delle operazioni
12
Questa prima messa a punto definisce di fallo il campo del nostro studio. Non sappiamo come definire a priori un criterio che pcrrnclla di distinguere tra l'csp:msione trionfante di un conceuo attraverso una qualche metafora della sua rete di somiglianze e analogie, e la produuività di tale conceuo, in quanto generatore dì problemi nuovi, di connessioni inattese tra domini apparentemente disgiunti. Ma sappiamo che la nostra incertezza, la nostra esitazione si rivolge a quelle argomentazioni che hanno pretese scientifiche. In altre parole ci interesseremo soltanto alle operazioni condolle dagli scienziati e indirizzate ad altri scienziati. Questa restrizione verte sulla fonna mollo più che sul contenuto degli argomenti. Il fauo che degli scienziati si rivolgano ad altri scienziati implica un primo vincolo: occorre che vengano mantenute le apparenze di una argomentazione ''puramente scientifica". Questo vincolo implica a sua volta che Io scienziato non possa riferirsi esplicitamente ad alcun interesse se non a quello del progresso disinteressato della scienza, né mettere in gioco esplicitamente - come fu il caso dc/' ajfaire Lyssenko, per esempio - la possibilità di un ricorso conlro il giudizio dei suoi colleghi. In altre parole, sia che l'argomento abbia delle implicazioni sociali o filosofiche, o che apra delle prospettive promettenti in materia di sviluppo industriale o tecnico, o ancora che rafforzi il prestigio di una disciplina o gli conferisca credito e autorità, 111110 ciò non deve accadere apparentemente che come qualcosa di aggiunto, come "ricaduta" di un avanzamento della conoscenza - il che non significa evidentemente che tali "ricadute" siano indifferenti al destino dell'argomento in questione ... Non ci interesseremo agli enunciati che infrangono questa regola e che si escludono automaticamente dal campo in cui oggi si detennina la scientificità. Per considerare un semplice esempio, non percorreremo il cammino segnalato dal colloquio che si è tenuto a Cordova nel 1979. Non perché siamo in grado di giudicarlo, di diriuo, "peggiore" di altri, ma perché ciò che è accaduto a Cordova è relativo al progetto degli organizzatori di quel colloquio: fare astrazione dalle distinzioni conceuuali accettate oggi in ambito scientifico, porre in contatto direuo fisici e specialisti delle scienze dello spirito, scienziati occidentali e rappresentanti di altre tradizioni. In particolare, i fisici che, a Cordova, affcnnavano che le particolarità della meccanica quantistica autorizzano a parlare di "poteri" dello spirito sulla materia non avrebbero potuto dire le stesse cose di fronte a un auditorio di fisici. Essi si
richiamavuno nd una plauHihililh di allra natura, si avvalevano di esperienze e di tradizioni che non hanno nlcun diriuo di ci1tadin:m1.a nell'auuale campo della fisica. Certo, essi si presentavano come fisici, ma la forma stessa dei loro argomenti dissociava "la" scienza, in nome della quale parlavano, da quegli scienziati contro i quali essi si appellavano a un altro "tribunale", definito per l'occasione come più illuminato. Non ci interesseremo neppure al linguaggio naturale in quanto erede, spesso senza che se ne abbia coscien1.a, di operazioni quanto meno memorabili - chi sa, usando il termine "mongoloide", che questo termine proviene da una dottrina razzista? Certamente in un caso come questo è bene ricordarselo e rinunciare alla parola. Lo stesso, sebbene nessuno scienziato abbia in generale il dirillo di tentare, in nome della sua scienza, di purificare il linguaggio di uso "non scientifico", spesso molto più antico delle sue definizioni "scientifiche", possiamo comprendere coloro che lottano contro l'espressione "razze umane". È vero che il termine "razza" corrisponde, nel Petit Robert, a tre insiemi di senso - famiglia considerata nella continuità delle sue generazioni e dei suoi caralleri (razza dei Capetingi...), suddivisione della specie zoologica e infine gruppo etnico - dei quali la biologia ne riconosce soltanto uno, il secondo. Ma l'autorità della biologia è stata invocata anche allo scopo di fondare una dottrina razzista, ossia per fare del terzo senso un caso particolare del secondo. Su questo punto i biologi hanno allora il dirillo e il dovere di tentare non solo di correggere ma di modificare il linguaggio. Tuttavia, l'idea di una generalizzazione di questa "polizia del linguaggio", come quella di un'inchiesta che ne preparasse il terreno, sono estranee all'oggetto di questo libro.
Questioni di scelta Come studiare il ruolo dei concetti nelle operazioni che costituiscono il campo scientifico? Abbiamo voluto centrare la nostra auenzione sul campo contemporaneo. I problemi che delimitano questo campo sono quelli che interessano, noi come senza dubbio anche i le11ori di questo libro. Sono quelli dei quali il pubblico incontra oggi le risonanze. Qualunque operazione di un certa portata condotta sul campo scientifico si annuncia in effeui sollo forma di libri o articoli per il "grande pubblico" che, a sua volta, suscita cascate di riferimenti e di derive su un piano del tulio metaforico, e persino operazioni di sviamento che rivendicano l'autorità della scienza ma che restano estranee ai circuiti di valutazione e di discussione in cui si rischia e si conquista lo statuto di produzione scientifica.
13
14
Questo libro è composto da un insieme di articoli che possono essere letti indipendentemente gli uni dagli altri. Ciascuno è centrato intorno al problema posto da un concetto appartenente alla scienza contemporanea e che ci sembra svolgere un ruolo importante all'interno del pensiero scientifico di oggi. La scelta dei problemi trattati risponde dunque a una domanda di interesse, non di metodo. In altri termini, ciascuno di noi si è sentilo, per una ragione o per l'altra, ''parte integrante" del problema che studiava, mentre una procedura guidata da preoccupazioni metodologiche avrebbe richiesto al contrario che ci indirizzassimo verso problemi le cui tematiche ci lasciano del tutto indifferenti. Ma forse è proprio perché non possiamo mirare alla neutralità, che il nostto approccio non rischia di cadere nella trappola di una "scienza della scienza". In effetti, che cosa avremmo fatto se ci fossimo sottomessi a dei vincoli tali da garantire la validità generale della nos1ra procedura? Nient'altro che ciò che fanno gli scienziati stessi. Avremmo fondato delle pretese di diritto a partire da uno studio di "casi" appartenenti preferibilmente a un passato trascorso e da quel momento indifferenti. Avremmo cercato di far accettare come naturalmente adeguata al suo oggetto una procedura ritenuta valida e condivisibile in maniera generale. Ci saremmo dunque ritrovati a praticare quella stessa attività che tentiamo qui di comprendere. Ciò significa forse che siamo votati all'arbitrario? Non esiste salvezza al di fuori della pretesa al titolo di scienza? Una "salvezza" l'abbiamo cercata nel lavoro comune, nella discussione, nelle osservazioni e nelle esigenze multiple che ciascun testo ha incontrato. I testi raccolti qui sono il prodotto di un'esperienza di collaborazione effettiva, in cui non hanno trovato spazio né l'argomento dell'autorità scientifica, né la distribuzione statica delle competenze, né l'opposizione tra scientifico, speculativo o filosofico, un'esperienza in cui la sola posta in gioco era la condivisione e la ricerca di articolazioni tra saperi, problemi e interessi. Il solo fatto che questo libro esista manifesta che altre coesistenze tra saperi sono possibili oltre a quelle che prevalgono oggi nel campo scientifico, che altri rigori sono possibili oltre a quelli che mirano a consolidare l'autorità impersonale di una verità oggettiva. Gli studi che compongono questo libro possono apparire disparati: alcuni, come quelli che trattano del calcolo o della complessità, possono prevalersi della moda, presente sia all'interno delle scienze che nei riferimenti culturali alla scienza; altri, che trattano per esempio della selezione o del comportamento, non sembrano poter pretendere la stessa attualità; quanto all'organismo, esso apparirà a molti come l'esempio stesso di una nozione ormai scaduta che non può più mirare -allo statuto di concetto scientifico. Tuttavia, ciascuno di questi temi si è imposto nel corso delle nostre discussioni come un aspetto particolare del problema che vi è sorto e che ha preso
progressivamente consistenza. Proprio a questo problema si riferisce l'espressione "propagazione dei concetti". Come vedremo tra poco, la nozione di "propagazione" permette di designare la singolarità dei "concetti scientifici", sia che questi appartengano alla scienza di ieri che a quella di oggi, cioè il loro apparente potere di estensione e di organizzazione. Ma la stessa espressione segnala anche, ed è quanto vedremo in seguito, il tema a partire dal quale i differenti contributi di questo libro sono stati ordinati, tema che crediamo appartenga al campo contemporaneo: l'insorgenza ali' interno delle problematiche scientifiche della questione della propagazione in quanto problema. Questa seconda dimensione inquadra e identifica la singolarità del nostro gruppo, composto tanto da ricercatori scientifici in senso stretto quanto da "filosofi dalle scienze", in un senso diverso da quello che questo termine può rivestire oggi. Il tema della propagazione dei concetti non è soltanto un tema che si pone a proposito delle scienze, a partire da un'esteriorità critica, esso può anche divenire un problema scientifico, un argomento utilizzato dagli stessi scienziati per discutere del ·senso e della portata dei loro strumenti.
Propagazwne e propaganda Perché propagazione? Questo termine ha il grande vantaggio di indicare un fenomeno naturale, ma anche un fenomeno sociale. Si parla di propagazione di un'epidemia, di propagazione del calore, di propagazione di un'idea, o di una moda. Ma in questi ultimi due casi una distinzione è d'obbligo. L'uso slesso del termine "propagazione" ha una connotazione peggiorativa: implica che né le idee né le mode dispongono di una potenza intrinseca, che non potrebbero propagarsi se non esistesse qualcuno interessato al loro successo. La propagazione, qui, rinvia il più delle volte alla propaganda, o per lo meno a un tipo di causalità socioculturale che spiega il successo di una moda o di un 'idea attraverso qualcosa a loro esterno. Questa ambiguità del termine "propagazione" conviene al nostro approccio. Lo abbiamo già detto, ci vieteremo di giudicare a priori e in forza del "titolo di scienza". Sappiamo come questo titolo sia una posta in gioco, non un attributo. Allora, il termine "propagazione" consente di comprendere tanto la dimensione problematica dei processi quanto i giudizi ai quali tali processi conducono. Fintanto che la controversia resta aperta, il senso del termine "propagazione" resta indeciso: le intenzioni, le idee, le operazioni di propaganda sono apparenti, ma lo sono anche i vincoli "oggettivi". La "natura" si esprime effettivamente in questo modo? Bisogna riconoscere una potenza intrinseca di propagazione, oppure abbiamo a che fare soltanto con
15
16
un'opernzione dì propaganda? Questa domanda sì pone su tulli i registri nello stesso tempo cd è soltanto al momento della conclusione della controversia che il senso del tcnnine resta determinato. In caso dì successo, quando un concetto viene ritenuto in grado di organizzare lo studio dì un campo fenomenico, la storia del la sua propagazione assume le sembianze di un processo naturale. Allora la produttività di un conceuo, la sua adeguatezza, la sua potenza intrinseca di organizzazione divengono la spiegazione del suo successo. Coloro che hanno partecipato alla sua prop:igazione vengono riconosciuti come dei servitori piuuosto che come dei protagonisti: sono loro che, per primi, hanno scoperto ciò per cui un conceuo s'imporra da sé, ossia la sua potenza euristica, la sua fccondill'l, etc. AI contrario, in caso di fallimento, soltanto la propaganda resterà ai posteri. La storia dello scacco diverril la storia di protagonisti, convinti o interessati a seconda che il narratore abbia scelto di raccontare il destino di un errore onorevole o dì una deriva ideologica. La causalità invocata sarà allora di tipo sociale: prestigio, fascinazione, presupposti filosofici, interessi di classe, etc. Così, alcuni chimici del XVIII secolo hanno tentato di comprendere le reazioni chimiche a partire dal concetto newtoniano di forza di interazione. L'operazione è fallita, per ragioni del resto molto più complicate di quelle che ci appaiono oggi: retrospettivamente parliamo di inadeguatezza, e soltanto la meccanica quantistica viene riconosciuta in grado di fornire un senso fisico ai legami chimici. La storia di questo tentativo sarà dunque presentata dall'epistemologia di Gaston Bachelard come un esempio tipico di pigrizia mentale, di seduzione da parte di un 'analogia puramente verbale: i suoi protagonisti sono in causa e nel torto. Per contro, il fatto che il concetto cli usistema economico" nell'accezione classica sia stato creato a partire da quello di "sistema meccanico", così da poter trasporre in economia le procedure e le operazioni matematiche che dànno alla meccanica la sua potenza, non mette in dubbio la "scientificità" dell'economia matematica. Il ricordo dell'operazione fa parte dell'aneddoto, salvo per coloro che lo utilizzano come argomento simbolico per illustrare i limiti e le insufficienze dcli' economia · classica
Consideriamo adesso il tennine "propagazione" nel senso dei fenomeni naturali. Anche qui è necessario operare alcune distinzioni. Nel caso della "propagazione del calore", "propagazione" indica precisamente la diffusione del calore. La causalità richiesta è quella di una differenza di temperatura: il calore si propaga tra una regione calda e una regione fredda. Il fenomeno continua fintanto che esiste la differenza: esso indica quindi in se stesso la sua origine e - se la regione calda non viene continuamente riscaldata, ossia se non è in contatto con una "sorgentc" - annulla progressivamente la causa che lo genera La propagazione del calore porta con sé l'uniformazione della
temperatura. Al contrario, nel caso della propagazione di un 'epidemia, vi possiamo rintracciare degli attori "naturali": i balleri o i virus. In questo caso, almeno in prima approssimazione, l'origine stessa viene propagata dal fenomeno di propagazione: ogni essere vivente infettato diviene lui stesso centro di propagazione, ciascuno diviene dunque centro potenziale di un nuovo processo, che non esaurisce la sua causa, ma la rigenera nella misura in cui si produce. Curiosamente, possiamo ritrovare alcuni tratti del contrasto tra "propagazione" nel senso di diffusione e "propagazione" nel senso di epidemia, nell'uso diverso dei termini "metafora" e "concetto". L'uso della metafora mantiene la memoria della sua origine. Per dare un esempio che non tratteremo in questo libro, il lettore di Borgcs scopre, ne li giardino dai sentieri che si biforcano, una parabola sulla coesistenza prolificante dei futuri possibili, e sull'insignificanza di ciò che crediamo siano essere e volere all'interno di ciascuno di questi possibili - "il movimento del tempo è una biforcazione perpetua verso futuri innumerevoli. In uno di questi, io sono tuo nemico" -, e apprende cosl il valore metaforico della parola "biforcazione", che originariamente indica la divisione in due rami di un dato percorso. La biforcazione è dunque una metafora che qualifica i punti di esitazione, dove una parola, un gesto, decide tra due storie. Ma, fintanto che il suo uso sarà accompagnato dal ricordo dell'immagine spaziale che la genera, sarà quest'ultima ad essere invocata per spiegare il senso del termine. Un giorno forse, come è accaduto a molte parole, il ricordo del carauere metaforico di quest'uso di "biforcazione" si allenuerà e il senso nuovo di questo termine potrà figurare nel dizionario insieme al primo (già suona: "possibilità di opzione tra diversi percorsi''). In questo senso, l'operazione di metaforizzazione non cessa di alimentare il linguaggio naturale, di moltiplicare le possibilità di interconnessione, implicita o esplicita, tra registri diversi, e infine di essere dimenticata in quanto tale ogni volta che si annulli la differenza tra la metafora a la sua "sorgente". La diffusione può quindi essere una metafora del processo di metaforiz7.azione. Ma un altro evento segna la storia del termine che abbiamo preso ad esempio, "biforcazione". "Biforcazione" appartiene ormai al linguaggio della matematica e della fisica. Anche qui designa una diramazione in uno spazio, ma si tratta dello spazio delle soluzioni possibili di un'equazione. Nelle parole dei fisici e dei matematici, non si tratta più di una metafora, ma di un concelio con il quale vengono costruite delle teorie. "Lavoro alla teoria delle biforcazioni", potrà dire un ricercatore che non ha mai !elio Borges, e che, forse, non è del tulio cosciente del fatto che questo termine è stato prelevato dal linguaggio naturale e non - come ad esempio "protone" - creato per i bisogni della causa. All'occorrenza, per esempio nella preparazione di un corso
17
18
o di un articolo di divulgazione, questo ricercatore potrà comunque "scoprire" il valore pedagogico di ciò che per lui non era altro che un '"illustrazione", la biforcazione dei cammini. La vocazione dì un concetto scìenùfico è quella di poter essere pensato come "puro", svincolato dal linguaggio naturale, e di poter essere definito unicamente a partire dal formalismo della scienza che lo organizza. In questo senso, l'eventuale "propagazione" dì un concetto scientifico dovrà, idealmente, assumere il carattere di una propagazione epidemica. La posta in gioco nelle controversie a proposito del ùtolo di scienza - far riconoscere il potere di organizzazione intrinseco di un concetto - rimanda così a riconoscergli di diritto una potenza di ùpo virale. Non si tratta del carattere temibile della nozione di epidemia, associato alle nozioni di contaminazione, di malatùa e di mone, ma piuttosto di porsi dal punto di vista del successo dei virus, di ciò che fa la loro potenza: ciascuno di loro può essere il centro di una nuova propagazione. Allo stesso modo, il tratto distintivo di un concetto scientifico rispetto a una metafora è che ogni regione "infettata" potrà poi pretendere la sua autonomia, potrà divenire essa stessa una sorgente di altre operazioni di propagazione. È proprio quanto è accaduto alla nozione di "programma". Il "programma", nella sua accezione informatica, è autonomo rispetto al senso usuale di questo termine ("ciò che è scritto in anticipo", e dunque organizzato, previsto, etc.). D'altronde gli informaùci discutono oggi del problema se di tutte le operazioni di un calcolatore programmato si possa dire che sono "previste in anticipo". Ma "programma" è ormai divenuto un concetto centrale anche in biologia molecolare, dove designa tanto il materiale genetico quanto la sua funzione. Anche qui l'autonomia è stata conquistata, come suggerisce la controversia a proposito della legitùmilà dell'analogia tra programma informatico e genetico. Questa controversia, oltre al suo interesse intrinseco, testimonia il fatto che il "programma geneùco" dispone ormai di una propria definizione all'interno della biologia. Entrambi gli esempi testimoniano poi come una "propagazione" abbia effettivamente avuto luogo: il fatto che la nozione di "scritto, e quindi previsto in anticipo" sia, nei due casi, materia di controversia, e che, eventualmente, le due controversie possano entrare in risonanza, manifesta che non è soltanto una semplice parola ad essere stata presa a prestito. Un ... programma si è propagato, la cui legittimità è stata riconosciuta, salvo oggi essere rimessa in discussione. Il concetto in effetti definisce in anticipo, preliminarmente a ogni ricerca disciplinare, l'oggetto calcolatore o organismo vivente -, il suo modo di caratterizzazione, il suo regime di causalità, ciò che seguendo Kant possiamo chiamare le sue categorie. La forma stessa delle controversie sul concetto di "programma" in informa-
tica o in biologia testimonia dunque il fatto che in questi due campi "programma" ha conquistato lo statuto di concetto scientifico. In effetti tali controversie non sono ad hominem, dirette contro uno o più presunti responsabili della promozione del tennine, come invece accade per esempio in sociobiologia. "Programma" si impone nell'anonimato: soltanto alcuni storici si ricordano di coloro che, per primi, hanno definito un calcolatore o un batterio secondo le categorie articolate da questo concetto. La controversia vene sull'adeguatezza del conceuo, su ciò che esso nega e che alcuni vorrebbero veder riconosciuto, su ciò che esso organizza e che alcuni vorrebbero organizzato in altro modo. Così, la nozione di programma genetico implica un'organizzazione del campo della biologia. L'embriologia si trova relegata a scienza "subalterna", scienza di cui la genetica deterrebbe il segreto: come sosteneva Jacques Monod, lo sviluppo del vivente non è altro se non la rivelazione progressiva del programma genetico, la traduzione dell "'infonnazione" genetica in processo di costruzione del fenotipo. Il destino del concetlO di programma in biologia caratterizza questa scienza come autonoma e, in particolare, dipende dalla capacità degli embriologi di creare e di far riconoscere dei concetti che facciano corrispondere allo sviluppo embrionale categorie altre da quelle di rivelazione o di traduzione. Tuttavia la storia non è finita qui. Può accadere che un fisico parli di un "atto libero" come di un punto di biforcazione, in cui si può fare una cosa o l'altra. Accade che si parli dell'intelligenza umana come di una qualità trasmissibile geneticamente. Con quale forma di propagazione abbiamo a che fare? Dipende dalle circostanze ovviamente. Può essere che, nelle parole di quel fisico, il termine sia una semplice metafora: in questo caso, la metafora preesistente è stata semplicemente rianimata, il linguaggio naturale arricchito. Al contrario, se quel fisico fornisce delle argomentazioni, per esempio spiega come il "comportamento" del sistema nervoso sia rappresentabile attraverso delle equazioni matematiche, e che il fatto di "decidere" possa corrispondere alla "scelta" tra due stati possibili, ossia tra due soluzioni possibili delle equazioni, allora non si tratta più della diffusione di una metafora, ma di un atto candidato per un'operazione epidemica. La distinzione è netta: nel primo caso l'eterogeneità dei domini non è messa in dubbio, la circolazione di una parola crea delle risonanze senza per altro affennare un'omogeneità; nel secondo, all'opposto, si asserisce che il sistema nervoso sia suscettibile dello stesso tipo di descrizione matematica di un sistema chimico-fisico. L'enunciato secondo il quale l'intelligenza artificiale sia geneticamente trasmissibile appartiene evidentemente a quest'ultimo caso. Indipendentemente dalle sue diverse implicazioni politiche e sociali, un simile enunciato implica che il tipo di spiegazione che si è rivelata efficacie nello studio dei micro-organismi e di certi tratti fenotipici semplici di organismi più complessi,
19
conservi la sua potenza organizzatrice cd esplicativa nello studio dei più elaboraù comportamenti umani. Come si vede, l'omogeneità implicata dal tentnùvo di propagazione può riguardare tanto gli oggetti stessi - l'intelligenza sarebbe un tratto fenoùpico dello stesso genere, o quasi, del colore dei piselli dì Mendel - quanto il linguaggio matematico, dichiarato pertinente a caratterÌZ1.are due domini dirfercnù. Indurimento e caltUTa La propagazione, o il tentativo di propagazione, dei concetti non avviene in
20
uno spazio indifferente, omogeneo, ma piuttosto all'interno di paesaggi strutturaù da poste in gioco ben note ai protagonisti di queste operazioni. Soltanto uno studio caso per caso della psicologia di ciascuno di tali protagonisti potrebbe determinare in qual modo ogni istanza viene vissuta, dalla convinzione disinteressata fino alla strategia premeditata, o persino da entrambe insieme. Cene istanze che atùvano le operazioni di propagazione sono circostanziali, legate per esempio a problemi tecnici, industriali o sociali. Altre sono più strettamente legate a interessi di prestigio e di autorità inerenù alle procedure scientifiche stesse. Tra queste ultime, ne possiamo rilevare due che appariranno a più riprese negli studi che seguono, e che battezzeremo "indurimento" e "cattura". Al posto dell'ultimo termine avrebbe potuto apparire "captazione", ma questa parola designa usualmente una manovra malevola. Ora, occorre ripeterlo, quando parliamo di concetti in termini di operazione e di posta in gioco e non di elucidazione, scoperta e progresso, non poniamo alcun giudizio peggiorativo generale. Ci limitiamo a utilizzare un linguaggio che mantiene presente il fatto che, per noi, la scientificità non risponde a uno stato di diritto, ma al riconoscimento di un diriuo conquistato. Il peggior malinteso sarebbe qui proprio l'idea che le procedure scientifiche in materia di concetti siano sol/ali/O delle operazioni. La distinzione tra le cosiddette scienze "dure" e le altre è spesso legata a un giudizio di valore: una cena scienza non è "ancora" dura, non ha raggiunto quel grado di maturità che permette alla fisica, alla chimica, alla biochimica, per esempio, di svilupparsi in maniera autonoma, soprattutto al riparo dal dover render conto all'esterno sulla pertinenza delle sue definizioni, sull'interesse del suo procedere. Certo la situazione di chi praùca una scienza "dura" può apparire invidiabile a chi non disponga di tale privilegio, al sociologo, allo psicologo o al linguista, posti continuamente a confronto, da loro stessi o grazie alla benevolenza ambigua dei loro colleghi, con fenomeni ai quali, attraverso il loro procedimento, non possono conferire un senso.
Quale tentazione allora, quella di passare alla posterità come colui che ha contribuito a "indurire" la sua scienza, a conferirgli la beata immunità di quelle discipline in grado, apparentemente, di sottomettere il loro campo ad un• organi1.1.azione concettuale incontestata... Incontestata, appunto: non possiamo qui passare dal fatto al diritto, da incontestata a incontestabile. Certo, le cosiddette scienze dure possono definirsi attraverso la libertà dei loro giudizi, attraverso la possibilità di trattare i fenomeni di loro competenza alle loro condizioni, secondo i criteri che esse definiscono a proposito di ciò che è significativo e ciò che non lo è: il f auo - che l'eventuale potenza effettiva della procedura può contribuire a spiegare, ma non a giustificare di diritto - è che questa libertà non è arbitraria. La riuscita di un 'operazione di propagazione - come quelle relativa al programma genetico, coincidente con la costituzione della biologia come scienza dura - è in se stessa la riuscita di un'operazione di indurimento. Là dove i protagonisti vengono cancellati di fronte all'evidenza dell'adeguatezza di un concetto per il campo che esso pretende di organizzare, coloro che in caso di scacco sarebbero stati riconosciuti come i rappresentanti di tutto quello che quel concetto non può spiegare, coloro che ne denunciano l'ideologia, l'arbitrarietà, l'analogia verbale, tacciono, o smettono di essere ascoltati. La cattura, invece, ha come principali protagonisti gli specialisti delle scienze riconosciute, almeno in prima approssimazione, come dure. I genetisti che parlano della trasmissione genetica dell'intelligenza, l'eventuale fisico che parla delle eventuali biforcazioni del sistema nervoso, tent.ano delle operazioni di cattura. Il teorico dell'economia che delibera nel rispetto generale sull'efficacia e il progresso economici è riuscito nell'operazione. La cattura verte generalmente su una nozione o un problema culturalmente carico di senso; essa segnala che gli specialisti di una scienza si pensano capaci di ridefinire, con gli strumenti della loro scienza, tale nozione o tale problema. La sua eventuale riuscita apporta alla scienza in questione il beneficio di quella carica di senso della quale essa può ormai farsi interprete e giudice. Ciò si traduce in termini di prestigio, ma il più delle volte anche in finanziamenti per la ricerca, contratti, etc. Là dove si poneva il problema catturato, trovano ora il loro posto gli specialisti della scienza "catturante".
Tre approcci Affrontiamo ora la seconda dimensione del problema della "propagazione", quella che, come abbiamo detto, è intervenut.a nell'organizzazione di questo libro. I testi che seguono sono distribuiti in tre parti. Ogni testo rinvia, locai-
21
22
mente, a un ceno numero di altri testi, e tali rinvii saranno precisati e commentati nella presentazione di ciascuno di essi. Ma l'organizzazione d'insieme tr3duce tre approcci di!Terenti di una problematica globale. Questi tre approcci saranno presentati più in dettaglio nell'introduzione di ciascuna delle tre p.1.rti e ci limiteremo qui a fornire uno schema d'insieme. La prima parte, intitolata "Grandi manovre", affronta delle operazioni di propagazione di un genere singolare, quelle che vertono immediatamente sulla questione della scienùficità, sull'omogeneità del campo scientifico come tale. In altri termini, mentre di solito la posta in gioco di un'operazione di propagazione è locale, nei casi qui analizzati si tratta di definire "la scienza" stessa in modo tale che un determinato concetto vi si ritrovi ovunque. Si tratta dunque non tanto di dimostrare il diritto a partire dalla fecondità, quanto di stabilire il diritto attraverso un discorso sulla conoscenza stessa, sulla natura delle condizioni di un approccio "scienùfico". Questo primo approccio metterà in gioco nello stesso tempo sia il tema della cattura che quello dell'indurimento. In ogni caso, si tratterà di "indurire" un campo, di affermare la sua autonomia, la sua capacità di giudicare e di distribuire i fenomeni. Ma questa forma di indurimento si presenterà immediatamente come promessa di una cattura generalizzata, che permette allo specialista di divenire un esperto polivalente, in grado di riprodurre in qualunque campo l'operazione di indurimento in questione. La seconda parte, "I frammenti della diversità", affronta concetti che riguardano più che altro i rapporti che possono o meno stabilirsi tra oggetti distinti, e non definizioni astratte della scientificità. Qui, la posta in gioco si circoscrive intorno a rischiose operazioni di passaggio - per esempio il rapporto tra la selezione naturale e la concorrenza sociale-, ad analogie instabili - il rappono tra la società e l'organismo-, a ricerche di definizioni abbastanza generali da legittimare l'uni là di una scienza - il rapporto tra il comportamento di un batterio e quello di un uomo. In ogni caso, questo secondo approccio farà apparire la diversità fenomenica non tanto come un ostacolo alla propagazione quanto come un fattore di esplosione dei percorsi. La nozione stessa di una potenziale unificazione dei campi scientifici si dissolve nella singolarità dei problemi che quanto deve essere unificato suscita e impone. In ogni caso, la non-chiusura delle controversie apre al problema del senso. Chi tenta di imporre un'organizzazione concettuale, chi fa sorgere insistentemente le difficoltà incontrate da tale operazione. Come comprendere la "passione" della conoscenza oggettiva, così come la "passione" del senso, sono le domande che la terza parte del libro, "Il soggetto dell'oggetto", affronta da differenti punti di vista. Passione, trova qui il suo doppio senso. Si tratta di riflettere nello stesso tempo sulla vocazione
appassionata della conoscenza scientifica a conquistare una validità di diritto, a distaccarsi dagli interessi umani, e sulla passione che quest'ultima subisce nell'incontrare i sensi multipli e intrecciati come altrettanti ostacoli a tale vocazione. In questo terzo approccio, un problema prende forma: quello degli aggrovigliati rapporti di ciò che si ritiene in opposizione - l'oggetto e il soggetto della conoscenza. Possiamo concepire una scienza in cui l'oggettività fosse entrata in relazione? Una scienza dove all'ideale di indurimento si sostituisse l'attenzione verso tutto ciò che meue in dubbio la pertinenza di un approccio? Una scienza in cui le operazioni di cattura non si farebbero in nome di un diritto al riconoscimento, ma in nome di quel rischio che, esso solo, permette di apprendere il nuovo, di comprendere i rapporti al di là delle differenze, ma anche le distinzioni al di là delle somiglianze?
Abbiamo cosl percorso un possibile filo di lettura, che se fornisce un ordine a questo libro non ne esaurisce comunque il senso. In particolare manca di
rendere giustizia alla tensione che si stabilisce sull'insieme, ma anche su ciascun dei titoli affrontati, tra quanto si rivela più o meno riducibile all'analisi dei processi cognitivi e ciò che rasenta - oppure tratta - i domini nei quali le istanze della vita individuale o sociale si trovano direttamente implicate. Sempre presente, questa tensione orienta, organizza, o persino costituisce il campo che abbiamo individuato in termini concettuali. In qualche modo si tratta della vera trama di questo libro, dove autori diversi tentano l'analisi di un sapere nel quale, tutti, si trovano implicati. Tale implicazione, il dibattito permanente che ha avuto luogo in noi e tra di noi, segna questo libro e ne costituisce un'ulteriore chiave di lettura. Infaui, proprio nel rifiuto di dedicarsi esclusivamente a quanto vuole essere stretta neutralità oggettivante, ci siamo resi coerenti con i percorsi che vogliamo comprendere.
23
1. GRANDI MANOVRE
I quattro saggi che compongono questa parte affrontano nozioni come "correlazione", "legge e causalità", "calcolo" e "problema", che hanno tutte un tratto comune: sebbene radicate in discipline particolari (la nozione di correlazione appartiene alla statistica, quella di calcolo è stata definita in ambito matematico), tali nozioni hanno permesso di fondare pretese di una tale portata che, nei loro confronti, si è parlato di "grandi manovre". Manovre che mirano a ridefinire nello stesso tempo il campo delle scienze e la definizione stessa di scientificità. La storia usuale delle discipline scientifiche le fa risalire a una fondazione concettuale, alla scoperta della potenza organizzatrice di un concetto, che permette sia una descrizione che una procedura sperimentale. Così. Galileo crea la scienza dei movimenti associando alla nozione di moto uniformemente accelerato quella di una causa invariante, la cui azione, ripetuta istante per istante, determina l'accelerazione o il rallentamento uniforme; il piano inclinato diviene, per questo, lo strumento sperimentale per eccellenza, poiché permette, variando l'inclinazione, di far variare quantitativamente la "causa" in questione. Allo stesso modo, Lavoisier, ne/l'inventare la chimica dei corpi semplici e delle associazioni tra i corpi, definisce nello stesso momento l'imperativo sperimentale che guiderà poi lo studio delle reazioni chimiche: non lasciare che alcun corpo entri o esca dal luogo in cui si svolge la reazione senza essere identificato, verificare l'assenza di perdite o di guadagni incontrollati per mezzo del bilancio. Gli esempi potrebbero moltiplicarsi: in ciascun caso, si osserva un dispositivo concettuale-sperimenta/e che organizza le domande legittime da indirizzare a ciò che, a partire da quel momento, costituisce un oggetto munito di categorie ben definite. Ora, esistono altri episodi di fondazione dove, per organizzare il campo d'investigazione, si è mostrata necessaria una particolare lettura del metodo scientifico stesso. In tal caso, gli oggetti disciplinari vengono organizzati sul modello de "la scienza", modello concepito come neutro, ovvero come adeguato ad ogni scienza possibile. Un'operazione del genere è necessariamente duplice, ha un aspetto di cattura e un aspetto di indurimento.
27
28
La cattura verte sulla definizione di scienza. Essa si traduce in un alleanza molto singolare tra scienza ed epistemologia. Sebbene gli argomenti epistemologici giochino solitamente un ruolo abbastanza secondario nella storia di una scienza, in questo caso è possibile parlare di vera e propria fondazione epistemologica, al punto che è talvolta difficile decidere se a parlare siano epistemologi oppure specialisti di una disciplina scientifica. Beninteso, il riferimento alla scienza delle tesi epistemologiche in gioco è ben lontano dall'essere neutro. Si trai/a innanzit11110 di tesi che identificano la scienza con una procedura metodologica generale, valida qualunque sia l' ogge110, e che quindi catturano i successi delle diverse procedure singolari per rinviarli al modello comune che esse determinano. L'indurimento, invece. riguarda quel campo fenomenico che lo scienziato, armato di tale nwdello, si adopera a rendere "scientifico". In questo caso, la differenziazione tra domande legillime e domande false, illusorie o mal poste, beneficia della plausibilità del modello di razionalità scientifica e può identificarsi per principio con le esigenze stesse del progresso scientifico. Essa potrà ancora consentire, al di là del dominio specialistico, una nuova e più vasta operazione di cal/ura. Una scienza fondata esplicitamente su un dato modello di scientificità, può divenire a sua volta scienza modello, e applicare, fino al punto a cui arrivano i suoi interessi, le esigenze e i vincoli della sua procedura. La nozione di "co"elazione". che ha le sue radici nelle scienze del vivente, è a questo proposito esemplare. Rinviando al modello di quella scienza che i suoi creatori hanno contribuilo a fondare. il procedimento empiriocriticista offre uno strumento polivalente, che permei/e allo scienziato di sentirsi "a casa propria" qualunque sia il suo campo di studio. La ricerca delle "correlazioni" organizza oggi i domini più disparati, dalla biologia alle scienze politiche, economiche e sociali. Sulla linea di questa ricerca, sono stati creati strumenti sempre più potenti, come l'elaborazione automatica dei dati, che possono suscitaTe r impressione di una costruzione "automatica" dei problemi teorici a partire dai dali empirici.L'articolo di Miche/ Veui/le-è centrato sull'uso della "co"e/azione" nella sua disciplina madre, la biologia, ed esplora lo strano destino di uno strumento portatore delle esigenze di rigore più maniacali e che tu11avia, sollo la copertura di definizioni apparentemente tecniche, puramente formali, si trovano associate alle operazioni più rischiose di trasmutazione dell'ignoranza in scienza. Le questioni trai/ate in "legge e causalità" si riferiscono alla stessa origine storica: un modello di scienza empiriocriticista che permei/e di costruire "leggi" a partire so//anto da dati, indipendentemente da ogni teoria esplicativa. Ma, nel campo del'economia, al quale si fa qui riferimento, questioni di questo genere assumono significati nuovi. La vocazione del'economia non è
soltanto quella di descrivere e di comprendere, ma anche quella di guidare l'azione, d'identificare i parametri e le relazioni che rendbno un'azione possibile, infine di prevedere gli effe/li di tale azione. E qui, quasi fatalmente, la descrizione scivola verso la spiegazione, verso l'identificazione di relazioni di tipo causa-ejfeuo. Situazione paradossale dunque: il modello empiriocriticista era fallo apposta per eliminare la causali1à, giudicala sospeua e pericolosa perché volta a tradurre la diversità delle scienze piuuosto che la loro neuira unilà; ma la "legge economica" deve, in modo più o meno ufficiale, aspirare a un po/ere in1erpre1a1ivo e prediuivo che un empirismo stre/lo non potrebbe essere sufficiente a fondare. Al di là del problema epistemologico, si profila la diversità rimossa delle scienze, in particolare la questione della singolari1à delle cosiddeue scienze sperimentali, ossia quelle scienze che possono isolare e manipolare i loro oggelli. In quale misura le scienze che non hanno questa libertà possono fondare le loro aspirazioni sul medesimo modello? L'assenza di questa libertà, deve essere subita, minimizzata, invocata per spiegare fallimenti e difficoltà? Oppure non è piuuosto il segno del fallo che, qui, l'oggeuo non può essere concepito sul modello dell'oggetto fisico? In tal caso, ques/a liber1à mancante non sarebbe una difficoltà di fatto, bensì la /raduzione della singolarità dei problemi 1eorici che si pongono, singolarità alla quale dovrà far fronte l'invenzione di procedure scien/ifiche originali. I testi su: "calcolo" e "problema". riguardano operazioni molto più recenli. La nozione di calcolo è inseparabile da quello strumenlo nuovo che è l'elabora/ore, e dai vincoli dei quali è por1a1ore. Alla fine del XIX secolo, la messa a punto delle 1ecniche s1a1is1iche aveva permesso di trasformare un qualsiasi insieme di dari empirici in un polenziale depositario di correlazioni, ossia di ll!ggi. l'elabora/ore ha oggi conferilo 1utta la sua polenza a ques/e tecniche, in panico/are a/traverso l'elaborazione au1omatica dei dati. È per ques/o che la ricerca delle correlazioni e delle regolarità stalistiche è, al momen10, più inlensa che mai. Ma I' esislenza del/' elabora/ore ha anche inauguralo un nuovo programma di unificazione: sia che dei dati debbano essere elaborali, o che una conclusione debba essere dedo//a da un insieme di premesse, in ogni caso si tra/la sempre di "calcolo". "La natura calcola". "il cervello calcola", questi enunciati iniziano a sostituire gli enunciati centrati sulla nozione di legge ("la natura obbedisce a delle leggi") provocando un corto circuito che assimila deduzione teorica e operazicni di calcolo e di elaborazione. Talvolta, le innovazioni rivitalizzano tesi molto antiche. L'idea che la scienza abbia il ruolo di "salvare i fenomeni" proviene dall'antichità greca, ed è poi servita in particolare per auenuare il potere sovversivo del/' ipotesi copernicana: porre il sole al centro sarebbe so/1an10 una questione di semplicità di calcolo, non di verità. Questa antica tesi, ripresa dalla /euura empirista
29
delle scienze trova oggi lo strumento che può conferirgli tutta la sua portata
30
operativa: l'elaboratore che simula 11nfenomeno, lo "salva", e apre la tentazione di assimilare la sua "comprensione" alle ambizioni superate dei tempi andati. Tanto più s11perate, in effetti, quanto più il calcolo diviene il modello dell'attività cognitiva stessa: in tal caso, sarebbe la stessa "verità" della conoscenza ad imporci di superare l'illusione secondo la quale noi comprendiamo mentre l'elaboratore si limita soltanto a calcolarè. È chiaro che l'operazione è di apertura: la nozione di "calcolo" è portatrice di un'aspirazione che tende ad annullare la differenza tra "essere" e "conoscere", e ad offem1are, dal suo operativo punto di vista, l'omogeneità del soggetto e delf oggetto. Questo annullamento e questa omogeneità si trovano anche al cuore della nozione di "problema". Tale nozione ha avuto anch'essa un'entrata trionfale nelle scienze a causa di una tendenza associata alla presenza degli elaboratori, quella del/' "intelligenza artificiale". Come porre un problema, come risolverlo, sono antiche domande, ma sono anche domande imposte dall'ambizione di definire una prestazione che non si limiti al calcolo o alla deduzione logica. A tale ambizione si offre d'altra parte un campo di cattura quasi illimitato. In effetti, la nozione di problema si può ritrovare dalla teoria dell'evoluzione fino alla descrizione delle attività pratiche della vita di tutti i giorni. Una nozione come questa segnala il più delle volte un'attività o una produzione non riducibili a una deduzione logica, ma che contribuiscono a creare lo spazio di significato a partire dal quale esse appaiono come soluzioni. In altri termini, è vero che la nozione di problema per molto tempo è servita da sba"amento alle operazioni di cattura, è servita a preservare lo spazio di iniziativa di ciò che da un certo momento in poi deve essere concepito come creatore di significato, ma questa strategia difensiva ha preparato il terreno a un "panproblematismo" e a un nuovo discorso che unifica l'essere vivente e r essere pensante in un problem-solver. Problem-solver, ovvero qualcosa che può essere nello stesso tempo spiegabile tramite la nozione di problema, interpellabi/e in termini del tutto pragmatici ("qual' è il tuo problema?", "questo non è il mio problema" ...), e oggetto potenzia/e di una "scienza dei problemi".
CORRELAZIONE Il concetto pirata
Michel Veuille Dal momento che sappiamo come i concetti riescano così difficilmente a migrare da una scienza ali' altra, perché non interrogarci prima sul modo in cui li creiamo? la torre di Babele dei sapienti, nel segreto delle sue molteplici discipline, produce saperi incommensurabili: nessuno di essi può giudicare sulla scientificità di un altro. Piuttosto che unire saperi ben circoscritti, l'empirismo critico vorrà unificare la scienza nel suo metodo, stabilendo le regole con cui i concetti vengono creati... Né legge, né causa, né fatto sono sufficienti ad affermare che sappiamo. Ricordiamo/o: non è dalla fisica che proviene l'idea della caduta dei gravi, bensì dalle nostre maldestre esperienze d'infanzia.L'io si dissolve nella percezione, diceva Ernst Mach al volgere del XX secolo. Rintracciare le connessioni, disvelare la relazione segreta delle due serie di fenomeni è il punto nodale della scoperta. Come ciascun uomo, la scienza deve ripercorrere il cammino della sistematizzazione dei sensi nascosti sotto il velo della percezione, per una via che non sia più quella dell'immaginario, ma attraverso uno slrwnento matematico, replicherà Karl Pearson. l'idea di "correlazione" aveva già una storia piena di ambiguità; diverrà poi portatrice del conce Ilo di ... "concetto", prima di entrare in laboratorio sotto il nome di "coefficiente di correlazione", uno strumento privilegiato dell'inferenza statistica. Ma la storia vuole che la correlazione sia così facilmente assorbita dal processo che vorrebbe criticare da divenirne la servitrice, indispensabile e contraddittoria insieme.
/. II positivismo e la bambinaia Cominciamo con un indovinello: qual'è la differenza essenziale tra il primo positivista venuto e una bambinaia? La risposta non è così strampalata come si potrebbe credere; cd è pure mollo semplice: la differenza essenziale tra il primo positivista venuto e una bambinaia è che il sapere della bambinaia è infinitamente più ricco, più souile, di quello del primo positivista venuto, ed
31
32
è facile dimostrarlo. Immaginate, all'ingresso di un reparto maternità, due grandi rabbini ossuti, con vistosa dentatura, lunghe chiome e lunghe barbe, che tengono in braccio due piccoli e rosei neonati. Domandaie al primo positivista venuto e a una bambinaìa di dirvi chi rassomiglia a chi. Il primo positivista venuto vi spiegherà che, senza dubbio, i due rabbini si rassomigliano tra loro, cosl come i due neonati; mentre la bambinaia si avvicinerà a ciascuna testolina tonda, cal\'a e sdentata esclamando ogni volta: "Oh! che amore di bambino, come somiglia a suo padre!" E ciascuno dei due rabbini ossuti, con vistosa dentatura, lunga chioma e lunga barba, vi riconoscerà la voce del buon senso. Non si veda in questo indovinello un facile gioco di fantasia. Dal punto di vista della scienza, la bambinaia ha ragione e il positivista si sbaglia. I due rabbini e i due neonati sono categorie che non devono essere confrontate tra loro, sono, potremmo dire, delle "variabili". La bambinaia non ha bisogno di attendere che i due piccoli neonati siano diventati a loro volta dei grandi rabbini ossuti, con vistose dentature, lunghe chiome e lunghe barbe, per riconoscere, qui nella piega degli occhi, là nell'angolo della bocca, ciò che distingue sia questo rabbino dalla media dei rabbini che questo neonato dalla media dei neonati: è la corrispondenza delle deviazioni all'interno di ciascuna coppia di variabili che determina la rassomiglianza, e non una di quelle classificazioni irreprensibili alle quali sono abituati i positivisti. Ora, vediamo come il sapere della bambinaia sia veramente molto sottile. Infatti, nessun bambino rassomiglia davvero a suo padre - anche senza voler evocare le incognite legate all'idea di "padre": alcuni gli rassomigliano molto, altri un po', altri ancora per niente. Ma, se interroghiamo la nostra balia sulla rassomiglianza tra padre e figlio, lei ci risponderà che "in generale si rassomigliano", facendo una significativa smorfia, direttamente proporzionale al grado atteso di rassomiglianza media! Un positivista non avrebbe mai questa finezza, non soltanto perché non avrebbe saputo scoprire una qualunque relazione tra i rabbini e i neonati, ma anche perché il suo sguardo impersonale di sapiente non avrebbe mai lasciato trasparire il benché minimo segno che potesse far credere alla non-validità generale della sua opinione. La nostra bambinaia, invece, sa bene che esistono delle regole che non possono essere conosciute in anticipo a livello di ciascun caso particolare: capricci della genetica o della vita privata, le cause sono inconoscibili, ma lei sa sintetizzare i molteplici fatti della sua espcrien1.a pratica in una formula unica, pragmatica e sensibile alle manifestazioni del reale. E ora, un altro indovinello: qual 'è la differenza essenziale tra il primo positivista venuto e uno statistico? La risposta, questa volta, è evidente: uno statistico non è il primo positivista venuto! Come ai positivisti, agli statistici piace classificare gli oggetti sulla base di
regolarità formali. Ma essi condividono con le persone interessate a un sapere pratico il potere di riconoscere associazioni sottili tra variabili di diversa natura. Infatti, essi possiedono uno strumento matematico che valuta, coppia per coppia, lo scarto di ogni valore dalla media del suo gruppo, per dare una stima globale del grado di somiglianza tra le variabili. È il coefficiente di correlazione. Ogni volta che uno statistico sospetta l'esistenza di una relazione tra due insiemi di oggetti, il calcolo del cocfliciente di correlazione gli pcrrneue di verificarne l'ipotesi, quale che sia la natura del legame, anche sconosciuto, che li unisce. Non tutte le scienze fanno appello alla correlazione. Così, la fisica si interessa a delle situazioni (la caduta dei corpi, etc.) affrontabili in termini di relazioni causa-effetto, secondo i buoni vecchi metodi cartesiani. Ma supponiamo per esempio che qualcuno desideri sapere quando deve partire da casa sua per arrivare in orario al lavoro. Un metodo razionale, rigorosamente esatto, consisterebbe nel prendere una mappa della metropolitana, segnare tutte le stazioni che deve attraversare, tracciare delle frecce tra questi punti annotando ogni volta la velocità, la capacità dei vagoni, la lunghezza e l'intasamento delle coincidenze, e infine il numero di persone che possono rimanere incastrate nelle portiere procurando così un ulteriore ritardo. Ma questo metodo è pesante, i calcoli devono essere rieseguiti, con tulio il rigore necessario, prima di ogni partenza da casa, perché le variabili in gioco cambiano valore con l'ora della giornata, con i giorni di sciopero, con i ritorni dalle vacanze, con l'aflidabilitil tecnica del materiale, etc. Del resto, nessuno lo praticherebbe mai, perché la preparazione di ogni viaggio in metropolitana richiederebbe una tale massa di calcoli che soltanto Dio, se ciò gli fosse utile, sarebbe in grado di fare. Un metodo approssimato, ma più agevole, è quello di notare l'esistenza di una relazione statistica tra l'ora in cui ci si precipita per le scale della metropolitana e quella in cui si chiude la porta dell'uflicio. Questa relazione non è data con precisione assoluta - arriviamo talvolta un po' in ritardo, talvolta un po' in anticipo-, ma può essere utilizzata ignorando qualsiasi dato sul traffico. La precisione della relazione non è altro che il cocfliciente di correlazione, e la durata ottimale di un viaggio si chiama "pendenza di regressione" della "variabile aleatoria" (l'ora di arrivo all'ufficio) in funzione della "variabile di controllo" (l'ora di partenza), che si può eventualmente calcolare, se è proprio indispensabile, con il metodo "dei minimi quadrati". Si sarà capito, non sono le scienze "dure", "esatte" (fisica, chimica) ad utilizzare le correlazioni, ma le altre (biologia, scienze umane, economia), quelle che devono organizzare insiemi di dati multipli, intrecciati, proliferanti, inestricabili, quelle in cui ci si considera già abbastanza avanti quando si sia arrivati a classificare i fenomeni, anche senza averne sempre capito il perché; in
33
34
breve, quelle che hanno n che fare con In vita reale. Il coefficiente di correlazione è uno strumento mollo potente per riordinare un insieme confuso di dati, al punto che queste discipline si ritrovano provviste, chi di indicatori economici, chi di coefficienti di ereditabilità, chi di misure del quoziente intelletti\'O, di una farragine di dispositivi statistici allamcnte sofisticati che sono nllrCtuuite influenze indireue sulla materia di indagine, e che sono tanto più incompatibili tra loro quanto più ogni correlazione calcolaui corrisponde a un'interrogazione distinui. Il coefficiente di correlazione soffre infalli di un difeuo costituti\'O: l'ambiguità della conoscenza che esso procura rispcuo alle spiegazioni di tipo causale. Ogni impiegato d'ufficio sa che un'infinità di cause certi giorni si ostinano a far sì che egli arrivi in ritardo. Ma anche ogni caposervizio sa che ci sono delle statistiche che non si sbagliano ... Sfonunatamente, correlazione non significa causa. Sfortunatamente, perché a tulle le scienze biologiche e umane che abbiano progelli di intervento sul loro oggello di studio, sarebbe mollo utile sapere se le relazioni scoperte possano trasformarsi in relazioni causa-effello. Ma così non è. Esiste per esempio una correlazione significativa tra il fallo di ricevere la visita di un medico e quello di morire nei giorni che seguono... ma solo chi sia in malafede potrà vedervi una conseguenza degli effetti perniciosi della medicina! I due fatti sono correlati soltanto perché una terza variabile, non tenuta in conto qui, è causa della morte e della chiamata del medico: la malallia. Due fatti possono dunque essere correlati, non perché l'uno deriva dall'altro, ma perché derivano entrambi da un terzo. Ignorarlo significa ingannarsi. .· Un 'altra difficoltà riguarda il fallo che le correlazioni vengono utilizzate · all'interno di domini complessi in cui nessun fallo è universale, perché eia. scuno evolve, e dove le regole generali si accompagnano a contro-effetti e fenomeni parassiti. Così, la ragione per la quale certi insetti hanno dei colori molto vivi è che sono immangiabili: gli uccelli li possono riconoscere e imparano a evitarli. Questo sistema di riconoscimento tramite "colore avvisatore" è benefico per entrambe le specie: per gli inseui che non vengono divorati; per gli uccelli che evitano in tal modo prede ripugnanti. Non si potrebbe immaginare una correlazione più "oggclliva" tra due variabili. Ora, questo meraviglioso sistema di comunicazione conosce i suoi imbrogli, perché altri insetti, perfettamente consumabili, si sono evoluti in modo da acquisire dei colori avvisatori e godono cosl di una protezione per "mimetismo". I due fenomeni del "colore avvisatore" e del "mimetismo" sono solidali fintanto che sussistano inselli immangiabili e che il numero dei mimi resti abbastanza basso perché l'cffeuo repulsivo dei "modelli" si mantenga: esisterà sempre una correlazione, per debole che sia, tra colore cd effetto repulsivo, correlazione che nasconde agli uccelli il fallo che certi insetti - presi per ripugnanti - sono in realtà deliziosi! Un biologo che si occupi di
questa correlazione senza accorgersi come, segretamente, essa generi il proprio contrario, perderebbe la parte più bella della storia. Proprio in ciò si osserva il carattere pernicioso delle correlazioni, perché in questo caso la correlazione causa e genera la sua stessa negazione. Da qui l'impossibilità, per i biologi, gli economisti, i sociologi, di dedurre l'esistenza di una legge generale sulla base di una correlazione empirica. Le leggi della natura inanimata non variano quasi mai. Si può supporre che la gravitazione universale, la costante di Planck, la velocità della luce, etc., conservino sempre il valore che gli ha dato il Creatore quando ha piantato il giardino dell'Eden. Ma non è lo stesso per le "leggi" biologiche o economiche. Le pentole dei fisici bollono sempre a 100°c•, mentre le pentole dei biologi e dei sociologi pullulano di piccoli mostri che proliferano in ogni istante nel calore fecondo dell'economia naturale o della vita sociale. Per quanto sia indispensabile al ricercatore, il coefficiente di correlazione è dunque un alleato imprevedibile, proprio a causa della complessità stessa dei fenomeni in questione. Quanto segue è la storia movimentata di tale nozione e degli sforzi ostinati degli scienziati per controllarla. In domini della conoscenza (evoluzione, eredità, economia, etc.) in cui la problematizzazione sociale della ricerca ha l'importanza che sappiamo, si poteva prevedere che una nozione così ambivalente come quella di correlazione potesse suscitare anche un buon numero di giustificazioni e di illusioni sulla portata del sapere scientifico.
f '
2. Nascita di un concetto: le correlazioni organiche La parola correlazione è un termine del vocabolario filosofico che indicava originariamente la reciprocità di due nozioni. Così, la nozione di "padre" è correlata a quella di "figlio", perché non c'è figlio senza padre. Lo stesso per la destra e la sinistra, etc. La correlazione fa il suo ingresso nella scienza con i naturalisti francesi del XVIII secolo, e, dopo un lungo periodo di maturazione in cui vengono messe in luce le sue proprietà, essa evade dalla biologia per diffondersi in altre discipline. Georges Cuvier la utilizza per formulare la sua "legge di correlazione degli organi": "Ogni essere organizzato forma un insieme, un sistema unico e chiuso, le cui parti si corrispondono mutuamente, e concorrono alla stessa •. Gioco di parole intraducibile tra il concreto fenomeno dell'ebollizione e il secondo senso di "mandare avanti la baracca" contenuto nell'espressione francese /aire bouillir la marmite (N.d.T.).
35
36
azione definitiva attraverso un'azione reciproca. Nessuna di tali parti può cambiare senza che anche le nitre cambino, di conseguenza ciascuna di esse presa scp:ir:11:llllcnte indica e fornisce tutte le altre"•. La maniero in cui si è imposta una simile concezione dell'organismo rivela le possibilità e i limiti della correlazione, anche se allora il termine non aveva il senso di una misuro. I primi naturalisti erano dei sistematici, redigevano lunghi elenchi delle specie animali e vegetali censite in Europa, dando a ciascuna un nome e segnalando alcune curiosità esteriori che permettessero di riconoscerla: si trattava di una sorta di assegnazione di identità che permetteva alle specie di entrare a far pane della nomenclatura, ma che era vuota di ogni conoscenza rispetto alla loro biologia. In seguito si scoprì che le specie africane non rientravano in questi cataloghi. Il botanico Adanson, poi Bemard e Antoine-Laurent de Jussieu, ebbero allora l'idea di fare una rassegna esaustiva dei caratteri morfologici possibili, senza alcun a priori. Diverrà poi evidente che certi caratteri sono ponatori di un'informazione sufficiente perché, una volta dati, risulti inutile l'esame degli altri. ''Nei vegetali, scriveva Bemard dc Jussieu, vi sono dunque dei caratteri che, per la loro reciproca incompatibilità, si escludono a vicenda". Negli animali come nelle piante, la "subordinazione" dei caratteri stabiliva delle associazioni, ora conservatrici, ora mutevoli, che permettevano di assemblare i generi in "famiglie", e le famiglie in "classi". E, ogni volta che una spedizione ritornava dal giro del mondo e riportava la sua messe di nuove specie, queste trovavano naturalmente il loro posto in tali raggruppamenti. Un'osservazione agnostica aveva così consentito di rimpiazzare dei caraueri arbitrari con i criteri oggettivi del "metodo naturale". Si poteva quindi immaginare una tassonomia che non fosse un'enumerazione alla rinfusa, ma una vera classificazione, "lo schizzo tracciato dall'uomo del corso seguito dalla natura per far esistere le sue produzioni''2. Saperne di più era una forte tentazione, l'architettura dei piani di organizzazione lasciava intravedere una qualche legge segreta che poteva unificare l'insieme della creazione molto di più di quanto si sarebbe potuto immaginare. "Secondo l'idea della creazione indipendente di ciascun essere, dirà Darwin, non possiamo far altro che affermare che sia proprio così; ossia che al Creatore sia piaciuto costruire gli animali e le piante di ogni classe secondo un piano uniforme; ma questa non è una spiegazione scicntifica''J. Sfonunatamente, i fatti osservati sono muti rispetto alla loro spiegazione scientifica. La correlazione istituisce un insieme di indizi, ma non denuncia nessun colpevole. È una stima - talvolta quantificabile - dell'estensione di un mistero. A seconda dei gusti, si poteva immaginare, con Eliennc Gcoffroy Saint-Hilaire, che tutli gli organismi fossero costruiti su un piano unico;
oppure, con Bonnet, che si ripartissero lungo una stessa catena di esseri, o anche, con Lamarck, che la trasformazione delle specie li facesse percorrere perpetuamente la stessa scala delle "grandi masse", o, infine, come mostrerà Darwin, che essi costituissero le ramificazioni multiple di uno stesso "albero" dell'evoluzione. Ma si poteva anche addurre la fantasia del Creatore, o tull'altra ragione. È per questo che Cuvier, luterano, fervente avversario dell'idea trasformista, si farà portatore del "principio di correlazione", un modo di rendere conto della rcall.à empirica che esclude ogni spiegazione stravagante. Convinto che "ogni cosa abbia un posto determinato che può essere riempito da essa soltanto"4, egli vi trovava un metodo per lavorare concretamente ai suoi studi anatomici e classificatori senza avere la coscienza disturbata da ipotesi che disapprovava: Dal momento che questi rapporti sono costanti, concedetelo, occorre che abbiano una causa sufficiente; ma, siccome noi non la conosciamo, dobbiamo supplire ai difelli della teoria per mezzo dell'osservazione; quest'uhima ci serve a stabilire delle leggi empiriche che, quando si fondano su osservazioni abbastanza ripetute, divengono sicure quasi come le leggi razionali s.
Consacrandosi allo studio dei fossili dei quadrupedi, egli si trovava spesso nella situazione di dover collocare nel regno animale una specie nota soltanto attraverso qualche frammento osseo. La correlazione degli organi, dedotta dall'osservazione di organismi interi, permetteva a ritroso di ricostruire degli organismi a partire da scheletri incompleti. Nello stesso modo in cui prendendo ogni proprietà separatamente come base di un'equazione particolare si ritroverebbe l'equazione ordinaria, o una qualsiasi altra proprietà, così l'unghia, la scapola, il condilo, il femore e tulle le altre ossa prese separatamente determinano il dente, o si determinano reciprocamente; e, a partire da ciascuna di esse, chiunque padroneggi razionalmente le leggi dell'economia organica può ricostruire lutto I' animaJe6.
Sono stati poi scoperti dei fossili che avrebbero lasciato Cuvier molto perplesso sul fondamento della sua legge: senza denti ma provvisti di artigli oppure uccelli con i denti ... L'impiego della correlazione ha un difetto: ignorando le leggi che operano dietro ai fenomeni, non si può essere mai sicuri che un oggetto nuovo obbedirà alla stesse regole del campione di riferimento. Il metodo di Cuvier presupponeva un 'ipotesi non formulata, per altro erronea (il fissismo), che trasformava i suoi pretesi principi di osservazione dei fatti in un'autentica legge speculativa: ignorare deliberatamente le idee degli altri
37
costituiva già un'ipotesi. Dietro la purezza di un candido empirismo, il principio di correl:izionc cm pieno di sottintesi. In particolare pcrmcueva a Cuvicr di apparire nelle rassicuranti sembianze dello scienziato fedele ai fatti cd estraneo ullc chimere della Filosofia Naturale tedesca, o alle speculazioni trasformiste dei naturalisti francesi che raccoglievano l'eredità dei Lumi. Onorato dai capi di Stato sollo l'Impero e la Restaurazione, egli rappresenterà, molto prima di P.asteur, la figura dello scienziato francese del XIX secolo, amante dell'ordine e della prudenza. Non di meno il principio di correlazione costituiva un metodo scientifico abbastanza solido. Ave\'a fatto comprendere a Cuvicr una delle lodevoli proprietà del concetto: in un primo tempo classificare in maniera oggettiva, e secondo linee di forza privilegiate, tutte le collezioni di oggetti che, a priori, non hanno alcuna relazione tra loro; in un secondo tempo, collocare in quest'ordinamento gli oggetti conosciuti soltanto parzialmente per inferire le loro possibili proprietà. I metodi auuali di classificazione automatica dei dati funzionano ancora su questo principio. La differenza sta nel fatto che l'abilità del naturalista è stata sostituita dalla potenza di calcolo degli elaboratori. Questi ultimi, poi, utilizzano le formule matematiche della correlazione e della contingenza messe a punto da Karl Pearson.
3. Galton, Pearson, e le due ragioni di urilizzare le correlazioni
38
L'idea di correlazione può essere estesa dalla biologia a ogni dominio in cui abbiano luogo fenomeni complessi - in particolare a quelli che generano metafore organicistiche: psicologia, economia, società - ogni volta che si rinunci al troppo difficile esame delle cause e delle leggi, per andare dritti ai falli. L'estensione del concetto risulterà dall'associazione di Francis Galton e Karl Pearson. Le loro motivazioni erano diverse; non di meno, il pragmatismo del primo e la filosofia empirista del secondo riassumono eloquentemente le due basi concetluali della correlazione nella sua accezione auuale. "Gentleman scientist", secondo l'espressione dei suoi biografi, autodidatta della scienza cresciuto in una famiglia agiata dell'Inghilterra vittoriana, Galton era pieno di curiosità sul mondo. Avrebbe potuto passare alla posterità come il padre della metereologia, dal momento che ha creato il concetto di anticiclone, ma oggi egli è conosciuto soprattuuo come il fondatore dell"'eugenica", mitica scienza del miglioramento della raz1.a umana attraverso la selezione artificiale. Contrariamente a numerosi suoi contemporanei, oggi qualificati "darwinisti sociali", Galton era inquieto sull'avvenire biologico della specie. Pensava che la selezione naturale, la stessa che aveva reso possibile all'umanità di tirarsi
fuori dal mondo animale, agiva ora nel senso di una degradazione della specie: i popoli civilizzati, e tra loro le classi istruite, lasciano meno discendenti delle popolazioni selvagge, dei poveri, degli alcolizzali e degli ignoranti. Occorreva supplire alle disfunzioni della selezione naturale applicando all'umanità una selezione artificiale scientificamente fondata. Il suo interventismo richiedeva un metodo di stima numerica delle doti di ciascuno e una conoscenza precisa della loro trasmissione biologica, progetto eminentemente politico che gli consentirà di poter restituire alla statistica il suo senso letterale di "scienza dello Staio". In effetti, l'eugenica annunciava le pretese della tecnocrazia, almeno quanto il darwinismo sociale di quell'epoca consacrava il regno del laisser{aire. Galion è stato l'autore di libri innuenli, libri che promuovevano la ricerca in una varietà di campi, tuui facenti largo uso della statistica, che esploderanno poi nel XX secolo: psicologia differenziale, psicometria, biometria, ereditarietà biologica, criminologia. Il suo scopo ultimo era quello di individuare il "gene ereditario" per poter selezionare un giorno un'umanità più dOlata. Scienziati come Gauss, Laplace, de Moivrc e Quételet avevano scritto l'equazione della "legge degli errori", la celebre curva a campana che Pcarson chiamerà più tardi "legge normale". Pur senza essere un matematico, Galton la reinterpreterà in modo molto pertinente come curva di distribuzione naturale di una popolazione e la renderà in lai modo oggeuo del suo studio. Cosl, questa legge divenne la forma organizzata del caso: "Essa regna serenamente, all'ombra di se stessa, in mezzo alla confusione più selvaggia. Più furioso è il brulichio, più grande l'anarchia apparente, più perfetto è il suo impero. È la suprema legge dell'insensatezza''7. La sua attenzione fu attirata sulla "co-rclazione" dai lavori di Darwin. PreoccupalO dal problema dell'ereditarietà biologica, Darwin aveva trovato nei lavori di Isidorc Geoffroy Saint-Hilaire una regola di correlazione delle mostruosità degli individui anormali di molte specie. I gatti albini, per esempio, erano simultaneamente sordi e avevano gli occhi blu. Questi fenomeni, abbastanza frequenti, facevano delle "leggi misteriose della correlazione" 8 il simbolo delle forze ancora ignote dell'ereditarietà che operano ai fondamenti del determinismo biologico. Galton tenterà di metterle in evidenza. Cercherà, senza successo, una correlazione tra i capogiri degli scienziati e la loro intelligenza; misurerà la statura dei bambini per confrontarla con quella del "genitore medio"; sovrapporrà delle fotografie di criminali per rivelarne l'immagine generica, etc. Non fu soddisfatto: ma resta comunque che, con Galton, il termine "correlazione", indicando originariamente un coadattamenlO tra gli organi, acquisisce il suo senso scientifico contemporaneo di un ordine misurabile con meiodi matematici, in riferimento alla casualità statistica. È a questo punto che interviene Pearson.
39
40
All'ignoranza prolifica dì Gatton sì oppone l'istruzione raffinata del suo successore. Ex-allievo delle università dì Cambridge, dì Heidelbcrg e di Berlino, matematico, ma anche avvocato e specialista a tempo perso della vita dì Martin Lutero o dcll'ane medievale tedesca, Kart Pcarson giunse alla correlazione a partire da preoccupazioni di ordine filosofico. La sua guida intellettuale era Emst Mach, fisico viennese e precursore della scuola di filosofia della scienza conosciuta sotto il nome di "Circolo di Vienna". Per Mach, la base della conoscenza era la sensazione. Poco importano le cause e le leggi che noi attribuiamo alla natura, e quindi anche le particolari discipline scientifiche. Lo scopo della scienza è quello di stabilire delle connessioni tra le nostre percezioni. Piuttosto che tentare di creare dei sistemi di immagini, delle rappresentazioni del mondo messe in piedi a forza di analogie e di metafore, il ruolo dello scienziato è quello di mettere a punto modelli quantitativi e predittivi che leghino tra loro le sensazioni primarie. Pearson, anche lui, pensava che il mondo esterno fosse un prodotto dei sensi la cui realtà resta indimostrabile. Egli confrontava l'essere umano a un telefonista che non abbia mai visto un utente e che sia in relazione con il mondo soltanto attraverso i fili del telefono. "Noi possiamo riconoscere la coscienza del nostro essere individuale; negli altri la supponiamo soltanto''9. Il solo fatto che assicurava un "similitudine dell'universo per tutti gli esseri umani normali" era l'influenza, senza dubbio considerevole, dell'ereditarietà sullo sviluppo cerebrale. Due facoltà percettive normali costruiscono praticamente lo stesso universo: " ... supporre l'uniformità delle caratteristiche della 'materia' del cervello sotto certe condizioni sembra altrettanto scientifico che supporre l'uniformità delle caratteristiche della 'materia' stellare"•o. Poiché non vi è altra realtà se non quella percettiva, era inutile credere all'esistenza di "cose in sé" distinte dal mondo fenomenico. Denunciando i "dogmi" della filosofia, della teologia e della meccanica, Pearson ricusava nozioni come materia, Dio, volontà, tessitura dello spirito, forza, massa, forma, spazio, tempo, cause meccaniche e altre "azioni a distanza" la cui esistenza non era verificabile. Poiché nessuna legge della fisica è capace di allineare una nuvola di punti sperimentali in maniera assolutamente rigorosa, gli sembrava del tutto inefficace rimettersi alle "cause primarie" quali forme di spiegazione. Causalità e determinismo erano soltanto un limite concettuale della probabilità; l'associazione dei dati di un'esperienza era provabile, la loro associazione futura era soltanto probabile. Pearson doveva definire un canone fondamentale del metodo scientifico: "Non dobbiamo assegnare un'esistenza reale ad alcun concetto, per quanto valido come mezzo di descrizione della routine delle nostre percezioni, senza aver effellivamente scoperto il suo equivalente percettìbile"• •.
Se la scienza non può supporre l'esistenza di realtà nascoste, il suo scopo non è neppure quello di istituire un mero elenco di falli, dal momento che questi ultimi sono noti solo nel modo in cui si impongono ai sensi. Le discipline scientifiche sono i diversi riflessi di uno stesso processo pcrceuivo. La loro specificità è illusoria. L'impresa scientifica sarebbe allora quella di sviluppare una matematica delle associazioni attraverso la quale le nostre percezioni ("associazioni fisiche") otterrebbero lo statuto di concezioni eassociazioni mentali"). Pearson è stato l'autore di una Grammatica della Scienza, un 'opera influente a quell'epoca, che lo farà apparire come uno dei teorici dell"'empiriocriticismo". In panicolare, quest'opera gli procurerà il vilipendio di Lenin come uno degli affossatori del materialismo, insieme a qualche altro "filosofo reazionario"t2. Tali erano gli stati d'animo di Pcarson quando la nozione di correlazione, cosl deliziosamente empirista, gli giunse da Gal ton come un dono dal cielo. La statistica gli fu rivelata dalla leuura di Natural lnheritance, un'opera nella quale Galton annunciava il futuro regno della statistica all'interno delle scienze dell'uomo. "Le leggi del caso(... ) si applicano a una gran varietà di tematiche sociali, affermava Galton. Di questo tipo di ricerca si può dire che essa corra lungò un binario a un 'altezza tale da aprire una visione ampia in direzioni inattese, e dal quale possono essere effettuate agevoli discese verso obiettivi totalmente differenti da quelli raggiunti fino ad ora" 13 • A partire da questo momento, il troppo erudito Pearson può evadere dal suo quotidiano di insegnante di fisica per aprirsi una carriera a misura delle sue facoltà: Via delle allezze, ampia visione in direzioni inallese, agevoli discese verso obiellivi totalmente differenti: era questo un terreno su cui lanciarsi all'avventura! Mi sentivo come un bucaniere dei tempi di Drakc, uno di quegli uomini "non realmente pirati, ma con sincere tendenze alla pirateria", come dice il dizionario. Interpretai quella frase di Galton come portatrice del fallo che esistesse una categoria più ampia della causalità, la correlazione, della quale la causalità era soltanto il limite, e che questa nuova concezione della correlazione includeva gran parte della psicologia, dell'antropologia, della medicina e della sociologia nel dominio del trallamcnto matematico. Galton fu il primo a liberarmi dal pregiudizio che la matematica fondamentale potesse applicarsi ai fenomeni naturali soltanto sollo la categoria di causalitàt 4 •
Non è dunque strano che il "concetto pirata" di correlazione abbia visto estendere il suo impiego a un gran numero di discipline. Tale era la sua destinazione originaria. La fine del XIX secolo vede fiorire una varietà di specialità scientifiche in cui ciascuna sviluppa i suoi concetti e i suoi meccani-
41
41
smi locnli. Di fronte a questa balcanizzazione, Pcarson partiva dal principio che "l'unità di ogni scienza risieda semplicemente nel suo metodo, non nella sua materia"tS, e tentò di riunire i battaglioni sparsi della scienza sollo l'egidia di una metodologia comune: "Per la prima volta, vi era la possibilità (...) di raggiungere una conoscenza, di valore paritario a quello attribuito allora alla conoscenza fisica, nel dominio delle forme viventi e, da qui, fino al dominio della condotta umana"t6. Ciò spiega la sua personalità apparentemente doppia, scientifica e ideologica. Privilegiando la ricerca delle connessioni tra i fatti, egli istituirà insieme allo zoologo Weldon la scuola di "biometria" e sarà uno dei principali fondatori della statistica moderna, contribuendo in particolare con la formula matematica della correlazione (il coefficiente "r") e del criterio di "contingenza" (il celebre "Chi quadro", x2), entrambi oggi di impiego universale nelle scienze biologiche e umane. Ma, privilegiando le preoccupazioni primarie dell'umanità (le "percezioni") nel disprezzo dei rifugi disciplinari, egli si riavvicina al pragmatismo di Galton. L'alcoolismo o l'intelligenza erano variabili pertinenti delle quali si poteva studiare empiricamente la trasmissione biologica. È per questo che ereditarietà ed eugenica saranno sempre due preoccupazioni strettamente legate nello spirito di Pcarson. Ciò soddisfaceva il suo temperamento elitario, cosl come il suo desiderio di vedere la scienza difendere le grandi cause nazionali e sociali. Vicino al socialismo della Fabian Society, partigiano di una società tecnologizzata diretta da pianificatori illuminali, Pcarson aveva combattuto il naturalismo sociale che, alla fine del XIX secolo, si valeva di una supposta legge universale della concorrenza per affermare il carauere utopistico dell'ideale di una società egualitaria. Libero pensatore, partigiano di una educazione scientifica popolare, egli difendeva i diritti delle donne con il progetto di fondare un'umanità generata in condizioni meno miserabili. Il suo timore "scientificamente" fondato (in realtà erroneo) era che i poveri, meno adattati e più prolifici, potessero sovvertire nel giro di qualche generazione WJa società armoniosa ... Pearson diverrà così la principale garanzia scientifica del movimento eugenico. Egli non era un volgare ideologo, e si voleva un pensatore di grande onestà intelleuuale. Alcuni suoi risultali avevano dimostralo che, contrariamente all'idea comunemente ammessa (che egli voleva verificare), l'alcolismo dei genitori non implica un deficit significativo nei figli; la loro pubblicazione provocò violente reazioni nel movimento eugenico. Divenuto titolare, dopo la morte di Francis Gatton, della cauedra postuma di "Francis Gallon professor of Eugenics", egli fu una grande figura del movimento cugcnico inglese. Tutti gli odierni misuratori dcll'"ereditarietà dell'intelligenza" sono gli credi intellettuali di quell'epoca.
Questo lungo racconto sulla vita di Galton e di Pearson non deve far credere che la storia delle scienze sia soltanto una serie di biografie individuali. Ciò che qui è interessante è il fatto di vedere fino a che punto la definizione di un oggetto scientifico - la statistica moderna - derivi da un progetto stabilito con chiarezza già dai suoi autori, e che dctcnnina tutte le proprietà future del concello. Poiché viene creato in opposizione ali' idea di causa, poiché si propone di studiare una materia che, a priori, può essere una qualunque, il coefficiente di correlazione è senza dubbio il conccuo scientifico meno sostanziato dai giudizi umani sulla natura e sul modo in cui agiscono le sue leggi. Ma nello stesso tempo è Io strumento di un metodo. E tale metodo, evidentemente, non può non tradurre precise posizioni sullo statuto filosofico e sociale della scienza, posizioni che seguiranno ovunque, come un ombra, il concetto in questione.
4. La misura della co"elazione Il calcolo del coefficiente di correlazione tiene conto del fatto implicito che, quando affermiamo che due individui si "rassomigliano", ciò rimanda a una loro collocazione nella scala di variazioni di un gruppo. Dire che entrambi sono grandi o piccoli, grassi o magri, giovani o vecchi, implica sapere se entrambi varino nello stesso senso rispcuo alla media, e di quanto. Per sapere se esista una correlazione tra la statura dei fratelli gemelli, per esempio, procederemo come segue: in ogni coppia di gemelli, chiamiamo l'uno XI e l'altro X2; sia MX la statura media della popolazione. Per ogni gemello di una coppia, Io scarto dalla media del gruppo è rispettivamente (Xl - MX) e (X2- MX). Se entrambi sono simultaneamente grandi o piccoli, questi scarti avranno lo stesso segno, positivo o negativo. II prodouo degli scarti (X I - MX)(X2 - MX) sarà dunque di segno positivo se si rassomigliano, e negativo se sono differenti. La media di tali scarti si chiama covarianza: covarianza (Xl,X2) = M ((Xl -MX) (X2- MX)) con "M" per"mcdia". La covarianza è di segno positivo o negativo a seconda che, nell'insieme delle osservazioni, vi sia una certa rassomiglianza o una certa dissimiglianza degli individui di ogni gruppo. II suo valore assoluto indica il grado di rassomiglianza o di dissimiglianza. Certamente, questa misura dipende anche dalle unità scelte. Per eliminare questo effetto di scala, si rapporta la covarianza alla massima rassomiglianza possibile, ossia alla rassomiglianza di ciascun individuo con se stesso, chiamata "varianza": varianza (X,X) = M ((X - MX) (X - MX))
43
figli
figli
I
2
padri
padri
Figma I. Correlazione + 1. Le due variabili variano lineannente nello stesso senso: quando una cresce, l'altra cresce. Ad ogni valore dell'una corrisponde un valore cieli' altra.
Figura 2. Correlazione -1. Questa volta. le variabili variano in senso contrario: quando l'una cresce l'altra decresce. •
o, più semplicemente: varianza (X.X)= M (X - MX)2 La "varianza" è un indice della dispersione,delle misure intorno alla media, allo stesso titolo di un momento di inerzia in meccanica•. Facendo il rapporto tra covarianza e varianza, si ottiene il coefficiente di correlazione "r' di Pcarson: M ((Xl -
MX) (X2 -
MX))
r=--------,,---M(X-MX)2
44
il cui valore varia da -1 (dissimiglianza assoluta) a +1 (rassomiglianza assoluta) passando per O(indipenden1.a delle variabili). D coefficiente di correlazione qui calcolato si chiama "coefficiente di correlazione intraclasse", perché le due serie di gemelli appartengono allo stesso gruppo, e vengono confrontate con una media comune. Ma come confrontare individui appartenenti a gruppi differenti? Supponiamo di voler valutare la correlazione tra due variabili come la statura del padre e quella dei figli. Siano X la stalUra dei padri (con media MX) e Y la statura dei figli (con media MY), con le loro rispettive varianze: varianza (X.X) = M (X - MX)2 varianza (Y,Y) = M (Y-MY)2 •. Nella pratica corrente, si chiama spesso "varianza" la stima della varianza, formulata in modo sensibilmente diverso.
figli
figli
3
4
padri
adri
Figura 3. Assenza di correlazione. Caso in cui due cause si equilibrano.
Figura 4. Assenza di correlazione. Caso in cui i valori si distribuiscono a caso in funzione delle variabili considerate.
Gli individui di ogni coppia saranno confrontati con la loro media rispettiva : (X - MX) per i padri, (Y - MY) per i figli. La covarianza sarà allora: covarianza (X,Y) = M((X- MX) (Y-MY)) Per rendere il coefficiente di correlazione indipendente dalla scala di misura, la covarianza viene rapportata alla media geometrica delle varianze (V(X,X)·V(Y,Y))l/2, fornendo l'espressione generale: r=
V (X,Y) (V (X,X) V (Y, Y))l/2
il cui valore è ancora compreso tra -1 e +1. Nell'esempio del confronto tra padre e figlio, una correlazione +1 corrisponderebbe a una rassomiglianza sistematica, come quella espressa dalla fonnula: "tale padre, tale figlio" (figura 1); una correlazione -1, indicando una dissimiglianza assoluta, sarebbe espressa dall'altra espressione: "a padre avaro, figliol prodigo" (figura 2). In un grafico, la correlazione assoluta, positiva o negativa, appare dunque sotto forma di una retta che, punto per punto, fornisce il valore di una variabile per ogni valore dell'altra. I valori intermedi richiedono un'interpretazione più delicata. Esistono in generale molli modi di ouenere una correlazione corrispondente a r = O. La popolazione potrebbe essere composta per metà da individui che seguono la regola: "tale padre, tale figlio", e per metà da individui che seguono la regola: "a padre avaro, figliol prodigo" (figura 3). Il modello è allora deterministico,
45
46
ma i due casi si equilibrano. Se vi sono mnti padri avari quanti padri prodighi nei due souogruppi, risulterà impossibile, a partire dalla loro conoscenza, la bench6 minima inferenza sui figli. Si dice che la variabile esplicativa (i padri) non permeue di dire niente della variabile spiegata (i figli). Ma, allo stesso modo, la popolazione potrebbe essere integralmente composta da individui che non seguono alcuna regola (figura 4 ). In questo caso, il modello sarà alc.'.ltorio, ma fornirà lo stesso risulmto del caso deterministico. Da qui, una prima regola, nota a chiunque faccia uso della statistica; il calcolo di una correlazione non autorizza alcuna inferenza in termini di relazioni causali. Un'altra regola, meno intuitiva, è che, inversamente, la conoscenza di cause non è sufficiente a predire il valore della correlazione. Consideriamo per esempio una popolazione in cui la metà degli individui segua la regola: "tale padre, tale figlio", e l'altra metà, in parte avara, in parte prodiga, non segua alcuna regola. Sappiamo, a priori, che il comportamento dei figli è per metà "dovuto al padre", e per metà "dovuto al caso". Si calcola che, se i padri detenninistici sono anch'essi per metà avari e per metà prodighi, la correlazione è di 0,5; se sono tulli avari, cade a 0,33! Ciò deriva dal fatto che i padri deterministici, essendo tulli simili, intervengono meno nella variabili là d'insieme. Ora, il coefficiente di correlazione ignora le cause e conosce soltanto le varianze. Una causa importante, ma poco variabile, non interverrà gran che nella correlazione. Questo paradosso è la controparte dell'agnosticismo, per altro così utile, di un coefficiente che non è limitato a una classe definita di fenomeni. Esso spiega numerosi errori di interpretazione. Così, si è spesso voluto comparare l'importanza dei fauori genetici e sociali nell'espressione di un certo carattere (il livello scolastico, ad esempio) nell'uomo. Ogni volta che il fattore sociale considerato (in questo caso il sistema educativo) è lo stesso per tutti, si ouiene un'importanza esagerata del fauore genetico: il fatto che sia lo stesso per tulli non significa che non giochi un ruolo cruciale. Anzi, è stato regolamentato proprio per la sua importanza.
Quando cause molteplici agiscono simultaneamente su una variabile, si può calcolare l'informazione che ciascuna delle cause apporta su tale variabile. Questa è data dal coefficiente di determinazione. In formule, il coefficiente di delenninazione di Y, nota X, è: D C'[/X) = r2 Vediamo come non sia il coefficiente di correlazione che indica la forza del legame, ma il suo quadrato. Ne segue una frequente mistificazione attraverso le cifre. Un coefficiente di correlazione di 0,5 sembra impressionante, e si dirà: "le due variabili sono correlate al 50%"! Per cento di che cosa? In termini di varianza, ciò significa che la correlazione spiega soltanto un quarto
della variabilità ottenuta. Tutte le trappole che abbiamo menzionato nell'uso del coefficiente di correlazione, presto o tardi, sono state utili1..zate nelle polemiche sull"'ereditarielà dell'intelligenza". Esse costituiscono le armi di tutli quegli individui preoccupati più di farsi beffe dei loro contemporanei che di restare fedeli allo spirito del metodo, e derivano dalla pratica più o meno diffusa della frode scientifica in un campo dove le implicazioni politiche sono evidenti. Tuttavia, se questo fosse l'unico problema, sarebbe inutile prendersela in particolare con il coefficiente di correlazione, qualunque altra nozione astraila poteva giocare un simile ruolo di ausiliario della malafede. Ma questo concetto ha un effeuo ancora più insidioso: ingannare il suo utilizzatore. Il miglior esempio che possiamo darne è la successione di delusioni che conobbero i pionieri della statistica nella comprensione del fenomeno naturale che maggionnente li interessava e che resta tutt'ora ribelle alla loro analisi: l'ercditarielà biologica.
5. La correlazione in azione: statistica ed ereditarietà a. Galton e la regressione Nel XIX secolo non vi era forza più affascinante del legame ereditario, che unisce gli esseri a una generazione di distanza. Questa magia della natura, senza una base materiale nota, è stata per molto tempo terreno di applicazione privilegiata della correlazione. Nessuno poteva immaginarsi ciò che sarebbe stata un giorno la "genetica", ma esistevano molte idee confuse su !"'ereditarietà", idee tra le quali potevano riconoscersi due tipi principali, a seconda che riguardassero caratteri quantitativi o qualitativi. 1. Era noto che i caratteri continui, come la statura, erano acquisiti in parte per eredità e in parte attraverso la pratica; ma si pensava che fossero poi integralmente trasmessi ai discendenti, dal momento che questi ultimi avevano dei tratti intermedi tra quelli dei genitori. Ciò ha preso il nome di "ereditarietà per mescolamento". 2. Le variazioni discontinue, drastiche, persino mostruose, potevano riapparire tali e quali in una parte della discendenza, senza diluizione. Un bambino presentava talvolta dei traui ignoti ai suoi genitori diretti, e si aveva così un caso di "atavismo", ovvero di riapparizione di un carauerc proveniente da un lontano antenato e rimasto nascosto per molte generazioni: gli antenati potevano dunque contribuire alla discendenza indipendentemente dai genitori diretti. 3. Infine, occorre segnalare che le rare esperienze di crescita artificiale ese-
47
48
guite fino ad allora erano materia degli "ibridatori", orticoltori con l'ambizione di creare nuove varietà attraverso l'incrocio di specie differenti. Si pcns:iva generalmente che la stabilizzazione del carattere ibrido fosse impossibile, e che vi fosse una "reversione" verso i tipi parentali. Questo tipo di esperienze, di cui i lavori di l\1cndel costituiscono un esempio, non sembravano in grado di creare una novità evolutiva. Galton fece numerosi studi sull'ereditarietà della statura, nell'uomo e nel pisello odoroso, confrontando la discendenza al "genitore medio" (figura 5 ). Osservò che i punti ouenuti non si dispongono né lungo una retta - che avrebbe significato una correlazione assoluta - né su di un cerchio - che avrebbe rappresentato l'assenza di correlazione-, ma secondo un'ellisse, ovvero la correlazione assumeva un valore intermedio tra O e 1: senza essere interamente determinato dai suoi genitori, il bambino gli "rassomigliava" in parte. Osservò anche che, esaminando la distribuzione statistica di bambini con genitpri di statura fissata (istogramma E), la loro media (M) è inferiore al valore (I) che una correlazione uguale a I avrebbe predetto: il luogo dei punti "T" è l'asse maggiore dell'ellisse (A), mentre il luogo dei punti "M" è una retta distinta (R), chiamata, da allora, "retta di regressione"; Galton battezzò infatti questo fenomeno prima "reversione", poi "regressione'... La "regressione rispello al valor medio" significa che lo scarto puntuale rispetto alla media della variabile di controllo - il genitore - non è interamente conservato nella variabile aleatoria - il bambino. Non immaginando neppure che un carauere ereditario possa esserlo solo parzialmente, Galton non seppe interpretare correttamente la sua scoperta e credette che la regressione risultasse da un conflitto tra l'eredità dei genitori diretti e quella degli altri ascendenti, come se l'essenza specifica controbilanciasse le fluttuazioni temporanee. La sua "legge dell'ereditarietà ancestrale" era una serie di equazioni in cui ciascun antenato contribuiva all'eredità di un discendente in proporzione inversa della sua distanza genealogica La reversione (concludeva) è la tendenza del tipo filiale medio ad allontanarsi dal tipo parentale, ritornando a ciò che si potrebbe descrivere sommariamente, ma anche in modo preciso, come il tipo ancestrale medio. Se la variabilità familiare fosse il solo processo che nella discendenza elementare influenza le cara11eris1iche del campione, la dispersione della razza intorno alla sua media ideale crescerebbe indefinitamente con il numero di generazioni, ma la reversione controlla questa crescita riportandola all'equilibrio17.
•. Da qui la convenzione di usare il simbolo "r" per indicare il coefficiente di correlazione.
genitore medio
bambino
t=l.50
m o
Figura 5. CorrelazionL della statura tra genitore medio e bambino nello studio di Galton (1886). L'ellisse delimita la regione inglobante !'80% dei valori; A: asse maggiore dell'ellisse; R: rette di regressione bambino/genitore medio. Per un valore fissato della s1a1ura dei genitori (nell'esempio qui considerato: 1,50 m), queste relle intersecano rispettivamente tale valore in I e in m; m è la media della distribuzione dei bambini il cui genitore medio è alto 1,50 m; I è il valore teorico che avrebbero avuto i bambini se la correlazione fosse stata + I. Lo scarto tra I e m (freccia) costituisce una perdita di informazione rispetto al valore dei genitori che è dovuta al caso. Questo fenomeno fa sì che una deviazione rispelto alla media non possa essere interamente ereditata e fu battezzato da Ga!ton: "regressione rispeuo al valor medio". In basso, si riporta la distribuzione di quei bambini che hanno tutti i genitori di altezza fissata 1,5 m, allo scopo di mostrare meglio il fatto che la media, m, si allontana da I per avvicinarsi a o. Oggi diremmo che i due assi dell'eJlisse, A e B, rappresentano rispettivamente il fallare ereditabile (trasmesso) e il fattore non ereditabile (variazioni casuali).
Galton cm deluso. Sapeva che una teoria dell'ereditnrielà doveva essere compaùbile con l'evoluzione delle specie; oro, la regressione rispetto al valor medio non offriva nitra prospettiva se non un 'immobilità totale... senza conl!lre che questo ritorno alla "mediocrità ancestrale" andava in senso conttario ai progetti dell'eugcnica. Ciò rinforzerà la sua vecchia convinzione che valesse più la pena di interessarsi all'ereditarietà discontinua piuttosto che a quella conùnua. b. La legge dell'eredilà ancestrale
50
Ma i biometristi \Veldon e Pearson non erano di tale avviso. Essi credevano soltanto a ciò che è quantitaùvo, e ripresero i lavori di Gatton dopo aver scoperto un'incongruenza nel ragionamento del loro maestro. Nella loro visione staùsùca della popolazione, un semplice tasso differenziale di riproduzione era sufficiente a creare un effetto selettivo: il ritorno al valor medio non era assoluto, perché alcuni individui contribuiscono più di altri alle generazioni future. L'equilibrio si spostava progressivamente. In tal modo, non la dispersione delle discendenze particolari, ma lo spostamento delle medie generava i processi seletùvi. Pcarson, rimise quindi in cantiere la legge dell 'ereditarielà ancestrale. La sua competenza rnatemaùca gli permise di generalizzare il concetto di regressione al caso di variabili multiple. Là dove le formule di Galton potevano dirsi amatoriali, egli stabifi delle equazioni precise che regolavano dettagliatamente il contributo di tutta una platea di antenati alle soni di un individuo parùcolare. A questa lunga serie di formule assegnò dei coefficienti ottenuti dall'esperienz.a e battezzò il tutto: "legge di GalLOn". Oltre a questo lavoro teorico, egli misurò le correlazioni tra individui imparentati per una varietà di caratteri. Scoprì così, per esempio, che frate lii e sorelle si rassomigliano di più tra loro di quanto non rassomiglino ai loro genitori (cosa che poteva spiegarsi attraverso una regressione ancestrale comune). Pearson era fiero del suo lavoro e commentava con soddisfazione: "In ogni compito sociale e in ogni azione legislativa, è impossibile un vero progresso se il riformatore e il legislatore non conoscono o non tengono conto dei principi dcll'ereditarielà"IB. Oggi lo sappiamo, la "legge di Galton" è falsa. Tuttavia Pearson si era attenuto a un esame calcolato dei fatti; i suoi calcoli erano esatti. L'errore proveniva dal fauo che, dietro le sembianze continue della sua manifestazione percepibile, il fenomeno ereditario ha un determinismo discontinuo. Non è necessario, adesso, analizzare in dettaglio l'insieme delle "leggi di Mendel", oggi riscopene dai genetisti. Ricordiamo soltanto che la genetica
attuale riconosce due serie causali nella riproduzione dei caratteri- l'ambiente e i geni -, entrambe possibili fauori di rassomiglianza o di dissimiglianza tra genitori e figli. Per quanto riguarda l'ambiente, ciò si può facilmente immaginare: vi è rassomiglianza quando l'ambiente è stabile da una generazione all'altra all'interno delle famiglie, e dissimiglianza quando cambia. Quanto ai geni, si comprende come siano causa di rassomiglianza; ma come possono produrre anche casi di dissimiglianza o di "atavismo"? Ciò accade perché, secondo le leggi di Mendel, ciascun gene è presente in ogni individuo in due esemplari - uno ricevuto dal padre, l'altro dalla madre- tra i quali può intervenire un'interazione, delta di "dominanza", che modifica la loro azione. L'effeuo di dominanza non è tn1smissibile, perché ogni genitore trasmette soltanto uno solo dei suoi geni ad ogni figlio, distruggendo così la loro interazione. Per contro, nuovi effeui di dominanza appariranno nei figli per accrescere ancora la dissimiglianza. Per altro, quando due fratelli o sorelle ricevono dai loro comuni genitori gli stessi esemplari di un dato gene, appariranno delle interazioni di dominanza comuni a entrambi, e ciò spiega l'eccesso di rassomiglianza tra fratelli e sorelle notato dai biometristi. Infine, la dominanza spiega anche i casi di "atavismo", che non sono una riapparizione delle caraueristiche di un antenato, bensì l'accadere indipendente, con l'intervallo di molte generazioni, di un 'interazione di dominanza tra un gene, trasmesso dalla discendenza, e un altro, introdotto per incrocio. Per scoprire questi fatti, i mendeliani fecero alcuni esperimenti in cui, prima selezionavano delle discendenze pure, quindi le incrociavano secondo protocolli rigorosi, e questo perché la segregazione dei geni e la dominanza forniscono dei fatti interpretabili soltanto dopo due generazioni di incroci. I biometristi, rispcuosi dei fatti bruti e della connessione tra le "percezioni", non realizzarono alcun esperimento e - empirisme oblige - disprezzavano qualunque ricerca di variabili nascoste. Benché trascrivessero fedelmente la realtà fenomenica, le loro misure non potevano condurre ad alcun sapere generalizzabile. Essi non hanno potuto, per esempio, identificare le giuste variabili da considerare per realizzare esperimenti di selezione artificiale in agronomia. Pcarson si era dichiarato per un a priori positivista: "È vano postulare un oscuro inconoscibile dietro al mondo reale delle impressioni sensibili nelle quali viviamo" 19• Il suo dogmatismo lo porterà, insieme a Weldon, a negare per molto te111po l'esistenza delle leggi di Mendel. Se dovessimo indirizzare un rimprovero al! 'uso che i biometristi facevano della "correlazione", non sarebbe quindi quello di averla confusa con la "causalità". Sarebbe piuttosto quello di aver sostenuto che la categoria di correlazione inglobasse quella di causalità, rendendone inutile lo studio.
51
c. L'ereditabilità
52
Il disaccordo tra biomeu-isti e genetisti fu solo temporaneo, erano infatti destinati ad intendersi. L'an.1lisi genetica di intere popolazioni esige in effetti il ricorso alla statistica. Lo stesso movimento dcli' cugenica, nella persona di Lconard Darwin - uno dei figli di Darwin, ma soprauuuo il successore di Galton alla testa del movimento cugenico inglese -, aderisce alle nuove realtà, abbandonando Pcarson per incoraggiare il giovane matematico Ronald Fisher a riconciliare i due approcci. Il suo articolo del 1918, "La correlazione tra imparentati nell'ipotesi di ereditarietà mendeliana", costituì il punto di partenza di una nuova scienza, la genetica quantitativa, che rinnovava la statistica, la genetica, il darwinismo e soprauuuo i metodi agronomici di miglioramento delle varietà coltivate. La filosofia neo-positivista sulla quale Pearson aveva fondato la statistica scompare, al punto che, come spesso accade nella storia delle scienze, il suo nome non sarà neppure più citato se non come l'inventore del test del :x2; in breve, come un contribuente tra molli in un processo scientifico che si vuole lineare e seni.a conttoversie. Con l'avvento dei metodi di inferenza di Fisher, lo statistico cessa di essere un puro empirista. Adesso realizza degli esperimenti secondo "piani sperimentali" meticolosi, distinguendo accuratamente i differenti "fauori" in gioco. Un agronomo, per esempio, potrà intraprendere una serie di colture di diverse varietà di grano con fertilizzanti distinti e noti, così da poter separare, nella sua analisi, il "fauore genetico" dal "fauore fertilizzante". Non si parla più de la correlazione come di una formula unica e miracolosa. Abbiamo visto come i genetisti studino la trasmissione dei caratteri al punto di inconu-o di molte serie causali, e come la loro procedura ne tenga conto. I risultali di un esperimento vengono trattati attraverso una sequenza di operazioni aritmetiche chiamata "analisi della varianza". Quest'ultima, in un primo tempo, mira a separare il contributo alla varianza totale della varianza dovuta all'ambiente e di quella dovuta ai geni. In un secondo tempo, il confronto delle correlazioni tra genitori e figli da una parte, tra fratelli e sorelle dall'altra, pcrmeue di distinguere, tra gli effeui genetici, quelli dovuti alla dominanza dei geni - detti "additivi" - che sono trasmissibili da una generazione all'altra. 11 successo dell'analisi della varianza in agronomia è incontestabile, e proprio tale successo farà apparire questi metodi come la chiave di una nuova comprensione scientifica dell'ereditarietà anche in domini dove non interviene alcun "piano sperimentale". Nel campo della psicometria .,. misura del quoziente intellettivo-, la decomposizione della varianza sarà estrapolata a una
distinzione mitica tra il contributo "dei geni" e quello "dell'ambiente" all'intelligen1.a. Nel campo dell'evoluzione delle specie, Fisher stesso ha stabilito un teorema fondamentale della selezione naturale, che tende a predire il "tasso di progresso" (rate o/ progress) delle specie, e secondo il quale "il tasso di accrescimento del valore adattativo (fitness) di un organismo è, in ogni istante, uguale alla varianza genetica del suo valore adauativo in quell'istante". Il teorema diventa un nuovo modo di ipostatiu.are la statistica in forma di legge: Il teorema fondamentale (dirà poi) ( ... ) mostra una rassomiglianza sorprendente con la seconda legge della termodinamica. Entrambi sono proprie1à di popolazioni, di aggregaù, che valgono indipendentemenie dalla nalura delle uni1à che li compongono; entrambi sono leggi statistiche; ciascuno suppone l'aumento costan1e di una quan1ità misurabile, in un caso l'entropia di una sistema fisico, nell'altro il valore adattativo di una popolazione biolo-
gica20.
Ora, una simile estensione della statistica è illusoria, perché l'analisi della varianza, anche quando tenga conto della conoscenza delle cause mendeliane dell'ereditarietà, non è un'analisi in termini di "cause", ma in termini di "fauori", ossia in termini di oggetti sperimentali quali vengono definiti e controllati dallo sperimentatore in un protocollo agronomico. Prima di vedere perché il sapere dell'agronomo non possa essere estrapolato a oggetti non sperimentali, vediamo come egli procede. Chiamiamo Vt la varianza totale di un carauere, Vg la varianza genetica e Va la varianza ambientale. Si può scrivere allora l'uguaglianza: Vt=Vg+ Va+ Vi+ Vga Si noterà che compaiono due termini inattesi: Vga e Vi. Vga è la covarianza geni-ambienti, derivante dal fatto che gli individui non si ripartiscono a caso in una popolazione naturale, ma secondo le isole alle quali si sono adattati; Vi è la varianza di interazione tra geni e ambienti, dovuta al fauo che uno stesso ambiente non ha lo stesso effetto fisiologico su individui geneticamente differenti. Presa in sé, la formula scritta sopra è inutiliu.abile. Gli sforzi dell'agronomo tenderanno allora, in un primo tempo, a controllare sufficientemente le condizioni sperimentali per far sì che i termini Vi e Vga risultino trascurabili. Ciò si ottiene allevando gli animali o le piante in condizioni standardizzate e controllando le scelte dei riproduttori. La formula si riconduce quindi ali' equazione: Vt=Vg+Va Espressione pratica, dalla quale si deduce l"'ereditabilità", ossia il contributo
53
54
della varinn2.a genetica alla varianza totale•: ercditabilità = Vg/Vl Per l'allevatore, la varianza ambientale è un inconveniente che disturba le sue misure impedendogli di scegliere dei buoni genitori per il suo allevamento; infatù, più la varianza ambientale è debole, più la varianza genetica è elevata, più forte è la risposta genetica alla selezione. Il rapporto di ereditabilità gli permette di valutare il successo dei suoi tentativi di migliorare le condizioni sperimentali. Osserviamo come il concetto di ereditabilità corrisponda ad applicazioni precise, valide all'interno di un universo reificato di popolazioni, un universo che distrugge ogni relazione intima tra specie e ambiente naturale, negando a quesl'ulùmo ogni autonomia adattativa o evolutiva. L'agronomo non mira a "migliorare le specie", ma semplicemente alla loro domesticità. I caratteri della geneùca quantitativa sono l'illusione statica di una realtà dinamica che integra sviluppo, comportamento, armonia con l'ambiente. Tutta la procedwa, riducendo l'effetto dei fattori non genetici, tende a dare loro questa definizione. A prima vista l'analisi quanùtaùva offre serie garanzie di scientificità, perché integra la conoscenza dei meccanismi gencùci ai calcoli empirici. E non vi è ragione che una formula matematica cambi di senso a seconda che la si applichi a dei bovini o a dei gemelli monozigoti. Resta tuttavia che questi coefficienti misurano delle varianze e non delle cause. Non si può stimare la parte relaùva dell'ambiente nella determinazione di un carattere, perché nella formula: Vt = Vg +Va+ Vi+ Vga l'ambiente interviene ovunque. 1. Interviene nella varianza genetica Vg, dal momento che un qualsiasi carattere non può svilupparsi se non in un ambiente. Vediamo un esempio. L'uomo è uno dei rari mammiferi che beve latte in età adulta. Ciò presuppone un'attività enzimatica digestiva che degradi lo zucchero del laue (lattosio). Tale acquisizione è storicamente recente e resta molto variabile nella popolazione umana. Supponiamo che l'alimentazione umana dipenda principalmente da sostanze lattee e supponiamo di misurare questo criterio di digestione; l'enzima considerato giocherebbe allora un ruolo importante nel varianza genetica del carattere. Se invece la specie umana non assimilasse •. Non entriamo nei dettagli dei differenti coefficienti di ereditabilità. Ricordiamo tuttavia che non tutto ciò che è "genetico" è "ereditabile", poiché le inierazioni di dominanza tra geni non sono mai trasmesse. Si utilizzano dunque molte defmizioni, ampie o restrittive, del coefficiente di ereditabilità, a seconda dello scopo.
mai del laue, non ne giocherebbe alcuno. La varianza genetica non misura quantità di geni. Misura le opportunità offerte alle differenze genetiche di esprimersi su di un carauere in un ambiente dato. La distinzione tra Vg (varianza genetica) e Vi (varianza d'interazione geni-ambienti) deriva da con• siderazioni puramente aritmetiche. La prima non è che il residuo della seconda in un ambiente impoverito. Ma in nessun caso l'espressione dei geni è indipendente dall'ambiente. 2. L'ambiente interviene nella covarianza geni-ambienti, Vga, esprimendo il fauo che i geni sono veicolati da esseri viventi e mobili. Vivere alla foce di un fiume tropicale, su un'isola del Pacifico o nella società dei Lagòpodi è compito da specialisti, che richiede una particolare attenzione in ogni istante. Al punto che, se anche i geni, al momento della nascita degli individui, fossero localmente ripartiti a caso (cosa della quale non sappiamo niente, per nessuna specie), non lo sarebbero più dal momento che gli individui hanno iniziato a vivere. 3. Quanto alla varianza ambientale, Va, lungi dal rappresentare l'ambiente, essa è soltanto il residuo delle variazioni non genetiche che l'agronomo, una volta distruue le relazioni tra organismo e ambiente, può considerare come rumore di fondo aleatorio. Ciò che per l'agronomo era un parametro pratico, si riduce alla pane meno interessante dell'ambiente nell'evoluzione delle specie; e la sua denominazione "varianza ambientale" ha l'effetto ingannevole di far credere che l'azione dell'ambiente si riduca a un termine accessorio nello studio della varianza. Nell'uomo, dove le azioni comportamentali traducono in gran parte l'acquisizione di una cultura, non esistono metodi appropriati per separare influenze genetiche e influenze ambientali, perché le formule statistiche disponibili si applicano per definizione a una popolazione omogenea che vive in un universo standardizzato. Ora, il mondo al quale dovrebbero applicarsi le conclusioni di uno studio di questo genere è luogo di sviluppi culturali dalle imponderabili possibilità. Il calcolo della correlazione opera inscrivendosi in un quadro normativo in cui si ammette fin dall'inizio - è un presupposto del calcolo - che ogni progresso dipenda dai geni. Tale calcolo è incapace di prevedere le conseguenze di un cambiamento ambientale, infatti le formule matematiche non considerano quest'ipotesi. L'errore di coloro che credono di misurare l"'ereditabilità dell'intelligenza" nell'uomo è dunque quello di pensare che sia possibile separare scientificamente "cause genetiche" e "cause ambientali". Ora, non soltanto è possibile 0
•. Lagòpodo: genere di Uccelli Tetraonidi, a tarsi e piedi completamente coperti di penne, che vivono di regola su alti monti nevosi. Vi appartiene la pernice bianca (N.d.T.).
55
modificare il vnlore di un cnmttcre nttrnvcrso un'azione sull'ambiente, ma, inoltre, le conseguenze di un cambiamento ambientale sulle differenze genetiche sono imprevedibili. Per quanto riguarda coloro che commettono lo stesso errore nel caso delle specie selvatiche, essi identificano la selezione artilicìale con la selezione naturale, riducendo così l'evoluzione delle specie a un percorso assimilabile alla traiettoria di un corpo in fisica, completamente determinata una volta che siano note le coordinate spaziali e la velocità. In realtà, le "norme di reazione" di un genotipo in un ambiente nuovo, l'orientamento attivo degli individui nello spazio, rendono l'organismo soggetto, almeno quanto oggetto, della selezione naturale, e rendono la sua evoluzione indeterminabile, nel senso che non sarebbe possibile prevederla in un istante dato a partire soltanto dalla ripartizione degli effetti genetici e non genetici. Il discredito che negli anni '70, in seguito alle polemiche sull'ereditarietà dell'intelligenza, si è abbattuto sul calcolo dell'ercditabilità, l'oblio nel quale è caduto il "teorema fondamentale della selezione naturale", che era il gioiello del neodarwinismo fin dal 1930, coronano il terzo scacco, in due secoli di storia, subìto dal concetto di correlazione in quanto "legge". La delusione è tanto più cocente se confrontata con il successo incontestabile del coefficiente di correlazione in biologia sperimentale, o in psicologia, dove non vi è ricercatore che rinuncerebbe a questo potente strumento per verificare le sue inferenze. Divenuto un semplice test di ipotesi, esso rinuncia ormai a rivelarci qualcosa della natura: non misura ormai altro che la nostra stessa perspicacia. 6. Conclusioni
56
Il "concetto pirata" di correlazione è, per eccellenza, il concetto dell'interdisciplinarità assoluta, apolide, autosufficiente, libero da ogni legarne con concetti locali. Per definizione, esso si trova ovunque a suo agio, e la sua applicazione non richiede alcuna giustificazione di sorta. Lo abbiamo visto all'opera in biologia, lo ritroveremo in economia nel capitolo che segue. In ogni dominio in cui esistono grandezze misurabili, esso traccia relazioni tra le cose. Non le scopre tutte, ma ogni relazione scoperta è reale. L'inconveniente è che il coefficiente di correlazione non ha alcuna idea della convertibilità locale dei valori che manipola. Organizza i dati che tratta in una massa informe di associazioni e di rassomiglianze che non saprebbe poi inserire in un lUtto coerente scn1.a l'intervento di un giudizio, senza la posizione dello scienziato sulla finalità della sua impresa. Nel corso della sua storia, il coefficiente di correlazione si è visto associato a impieghi detestabili, al punto che saremmo tentati di dire: "Davvero, questo
concetto non è un conceno neutro!" Ma, anche qui, non bisogna confondere correlazione e causali là ... Nel desiderio di apparire "veri scienziali", i promotori del coefficiente di correlazione hanno anzi fatto mostra di un islinto maniacale di pulizia, tanto più manifesto quanto più sapevano che la materia che li interessava era più incerta. Il conceuo di correlazione è di fatto l'ultimo residuo di quel metodo scientifico del quale possiamo dire, seguendo la ben nota formula: "In sé è neutro, tuno dipende dall'uso che se ne fa ... " È stato accuratamente messo a punto per essere soltanto un'osservazione empirica L'inconveniente è che si è obbligati a fame qualche cosa. Il coefficiente di correlazione si presta a un'infinità di ulilizzazioni empiriche, tecnicistè o giuslificativc. È ipocrita soltanto nella misura in cui pcrmeue allo scienziato di illudersi sul grado di estraneilà del sapere rispcuo al processo di formazione della conoscenza. Creatura di uno scientismo totale, di una fede in una scienza che sarebbe soltanto il resoconto dei falli così come sono, la correlazione mostra per contrasto che quanto essa vorrebbe considerare come un corpo estraneo sia in realtà un fattore irriducibile di conoscenza: l'ingegnosità umana, con i progetti che si dà nella formazione di una cultura scienlifica.
57
NOTE
58
1. G. CUVIER, Discours sur les rlvolutions de la surface du globe, 1815, riedito da O. Bourgois, Parigi, 1985. 2. J. -B. MONET, detto LAMARCK, Philosophie zoologique, Parigi, Dentu, 1809. 3. C. R. DARWIN, The Origin of Species, Londra, Murray, 1859; trad. it. L'origin,, delle specie, Torino, Boringhicri, 1967. 4. P. FLOURENS, Analyse raisonnle des travawc de Georges Cuvier, Prlcldée de son lloge lùstorique, Paulin, 1843. 5. G. CUVIER, Discours sur les révolutions de la surface du globe cit. 6. lbid. 7. F. GALTON, Natural lnheritance, Londra, MacMillan, 1889. 8. C. R. DAR\VIN, L'origine delle specie cit. 9. K. PEARSON, The GrOTNT1ar of Science, Londra, Adam & Charles Blaclc, 1900, II ed. 10. lbid. Il. lbid. 12. V. LENIN, Materialismo e empiriocriticismo; note criliche su una filosofia reazionaria, (1908), Roma. Editori Riuruti, 1970. 13. F. GALTON, Nmural lnherilance cit. 14. K. PEARSON, in Speeches Delivered al a Dinner f/eld in University College, London, in flonour of Professor Karl Pearson, 23 Aprii 1934, Cambridge Uruvcrsity Press (stampa privata), 1934. 15. K. PEARSON, The Gr= of Science ... cit. 16. K. PEARSON, Speeches... cit. 17. F. GALTON, Nmural Jnherilance cit. 18. K. PEARSON, Nmional Life /rom the Standpoint of Science, Londra, Adam & Charles Blaclc. 1905. 19. K. PEARSON, The Grommar of Science cit. Egli precisa: "In verità, sarebbe bello, se fosse possibile, adottare il termine formula ( ... ) per sostituirlo alla parola legge scienl ifica o legge naturale". 20. R. A. ASHER, The Genetica/ Theory of Natural Selection, Oxford University Press, 1930.
LEGGE E CAUSALITÀ
Miche/ Gutsatz Se vi è un termine che circola spesso, è proprio quello di "causa": ogni
scienza presuppone un conce/lo di causalità. Ma, se non si vuole ado11are la visione semplicistica secondo la quale tulle le scienze avrebbero adouato lo stesso concetto di causalità, è importante operare una serie di distinzioni. Da una parte occorre distinguere scienze dure e scienze sociali; quindi, ali' interno di queste ultime, quelle, come la sociologia, che hanno ponderato il loro conce/lo di causa, da quelle, come l'economia, che hanno creduto di poterlo prendere a prestito dalle scienze dure. Simultaneamente, un altro passaggio conceuuale ha seguito il suo corso: quello della correlazione - e di tu/lo l'apparato statistico elaborato dai biometristi inglesi della fine del XIX secolo - di cui certi economisti si sono avvalsi per fondare quella procedura di verifica delle loro leggi che prende il nome di econometria. Lo strumentalismo manifestato da questi economisti doveva condurli alla confusione tra causalità e correlazione: l'assenza di riflessione conce11uale sulla prima facilitava l'adozione della seconda. È stato necessario qualche decennio per abbandonare questa falsa pista e giungere alla ricerca di una definizione della causalità che fosse specifica del/' econometria.L'operazione doveva sfociare su un'altra difficoltà: ali' ombra di uno strumentalismo sovrano, non si è prodol/a la benché minima riflessione epistemologica sui problemi essenziali, come la relazione realtà I modello, la misura delle variabili o la scelta delle variabili pertinenti. La teoria economica esce perdente da questa lunga storia in cui si è vista dapprima proporre un modello di verifica inada110, poi relegata al rango di fornitrice di relazioni da "verificare" o da "irifinnare".
Questa saga di passaggi, ejfelluati auraverso l'economia, poi l'econometria, prova per lo meno /a fragilità del processo. Di fatto, alla fine della storia risorge ciò che si voleva dissimulato fin dall'inizio della scienza economica: il suo formalismo, cheJùnziona lontano da ogni verifica.
59
60
In nessun luogo più che in economia si esprimono le illusioni sul significato delle "verifiche" statistiche delle teorie. Qui, nessuna sperimentazione è possibile. li "corpo sociale", contmriamente ai corpi organici, non si lascia ridurre a oggetto: per coloro che sognano di fare dell'economia una "scienza" valida quanto le scienze "esatte", la sola possibilità è di pensare che delle leggi statistiche oggettive controllino il movimento evolutivo della società, allo stesso modo in cui i biometristi, un secolo fa, pensavano che delle leggi statistiche potessero governare le somiglianze fenotipiche. È questo il terreno predileuo dell'econometria, scienza statistica nata verso il 1930, il cui compito è quello di "testare" la validità di tale o tal'altra relazione (o legge) della teoria economica. Ma legge economica e causalità economica hanno forse qualche relazione con legge e causalità in fisica, scienza di riferimento degli economisti? No: malgrado gli sforzi smisurati di questi ultimi, l'economia resta una scienza in cui ogni forma di sperimentazione è marginale e dove il primato statistico dell'econometria, deputata a sopperire tale mancanza, è privo di senso. Qui, il formalismo regna sovrano. Un esempio recente illustra alla perfezione le contraddizioni nelle quali la "verifica" econometrica può bloccare l'economista. Esistono due teorie del ciclo degli affari•: la prima, quella di Hicks, considera un sistema globalmente instabile, soggetto a perturbazioni aleatorie, mentre l'altra, quella di Schumpeter per esempio, immagina un sistema economico stabile, anch'esso soggetto a perturbazioni aleatorie. Tutti i test econometrici concorrono a convalidare il secondo modello e a rifiutare i primo. Ma, se abbiamo diriuo di porci qualche domanda, è proprio quando si constata che, se si generano dei dati sulla base del modello di Hicks, i test econometrici li considerano come scaturiti da un modello di sistema stabile! È allora evidente che le conclusioni precedenti sono false: lo strumento econometrico adottato è inadeguato. Ma, se questo è il caso, possiamo chiederci quale sia il significato reale dei risultati econometrici ottenuti in generale e perché criteri metodologici ben noti hanno così poco effetto sulla produzione econometrica coniemporanea.
Dm biometristi agli econometristi: una stessa procedura scientifica La procedura che oggi possiamo incontrare presso certi economisti e certi econometristi rimanda a una situazione analoga, in molti punti, a quella che esisteva in biologia al volgere del secolo. I biometristi, come Pearson e Weldon, avevano come obiettivo primario la descrizione delle somiglianze fenotipiche. Rifiutandosi di utiliZ7.are una qualunque teoria sull'ereditarietà,
essi sono partiti da quei lavori di Gallon2 che descrivevano le regolarità statistiche nella relazione tra i caraueri di due generazioni successive (statura, dimensioni degli arti...). I dati raccolti da Galton mostravano che la statura media del discendente era più vicina alla stalllra media della sua generazione di quanto non lo fosse a quella dei suoi genitori: è per questo che egli la chiamò "più mediocre", avendo constatato una "regressione" sulla generazione precedente. In una prospeuiva di questo tipo, le popolazioni biologiche vengono pensate come aggregati di individui, cd è a questi ultimi e ai loro caraueri che si interessavano i biometristi, non al carattere della specie. Questo punto consente già un primo avvicinamento agli economisti: il sistema economico, nella teoria neo-classica, è concepito come la risultante delle azioni di agenti economici che agiscono indipendentemente gli uni dagli altri. Pearson ha formalizzato l'approccio dei biometristi definendo l'ereditarietà come la correlazione (a sua volta definita come grado di rassomiglianza) tra i caraueri osservati nelle diverse generazioni. Per lui, il problema non era quello di formulare una qualunque ipotesi biologica sui meccanismi dell'ereditarietà, ma piuttosto quello di ottenere "un'espressione matematica delle variazioni statistiche che possa applicarsi a numerose ipotesi biologiche" (Forgatt 1971, p. 7). È questo il caso della legge dell'ereditarietà, la quale, attraverso il confronto dei caraueri corrispondenti di molte generazioni, affermava che ciascun antenato contribuisce dipendentemente dalla sua posizione nell'albero genealogico: (1/4) per ciascun genitore, (1/4)(1/4) per ciascuno dei nonni, etc. Questa legge, del tutto empirica, non si fondava su nessuna particolare concezione dei meccanismi di ereditarietà (se non sull'ipotesi dell'esistenza di un meccanismo di diluizione dell'eredità ancestrale) e utilizzava una terminologia del tulio estranea alle concezioni biologiche del tempo'. Si cominciava con lo stabilire delle relazioni statistiche, quindi si tentava di capire quale ipotesi fisiologica fosse in migliore accordo con quelle relazioni. La posizione epistemologica dei biometristi consiste dunque nel rifiuto di ogni teoria a priori. Un simile approccio aveva un vantaggio sicuro: autorizzava la previsione. La retta di regressione in tal modo ouenuta premetteva di prevedere i caratteri della generazione seguente. Questa proprietà quadrava pcrfctw.mente con la concezione operazionale dei biometristi: il loro obiettivo rimaneva la costruzione di un modello descrittivo e predittivo dell'evoluzione che consentisse di •. Al contrario, i mendeliani, come Bateson, che si consideravano prima di tulio biologi (qualifica che negavano ai biometristi), tentavano di interpretare i risultati dei loro esperimenti in funzione di una teoria fisiologica dell'ereditarietà.
61
62
predire l'incidenza globale di un certo carattere all'interno di una popolazione biologica. Ora, previsione e controllo sono legati: si può intervenire a livello di ull3 generazione (sopprimendone gli individui che presentano un certo difetto) e prevedere così lo stato della generazione successiva. Una tecnica di questo tipo era ricercata dagli allevatori e dagli agricoltori allo scopo di migliorare specie animali e vegetali, e fortemente auspicata dagli eugenisti nella prospettiva di un miglioramento della specie umana. La transizione tra i biometristi e gli econometristi moderni va ricercata nei lavori dei primi statistici. Vi si può constatare come la terminologia e le procedure adottate hanno potuto aiutare ad indurre in errore gli economisti. A questo riguardo, l'esempio di Yule, che ha scritto molto nell'Economic Journal. è rivelatore3. Nel 1895, quest'ultimo insiste (quantunque in nota a fondopagina) sul fatto che correlazione non significa causalità: "Ciò non vuol dire né che il basso livello medio di assistenza sia la causa di un basso livello di pauperismo né l'inverso: tali termini dovranno essere evitati quando non si ha a che fare con una catena di causalità". Egli propone di considerare le due variabili in esame come "agenti l'una sull'altra". Purtroppo, Yule apre il suo articolo del 1897 affermando che "lo studio delle relazioni causali tra fenomeni economici presenta delle difficoltà" che la teoria della correlazione saprebbe risolvere. In questo nuovo testo, fin dall'inizio, egli colloca la correlazione sotto il segno della causalità. "Invece di parlare di 'relazione causale'. di 'quantità legate da relazioni di causa/effetto, noi utilizzeremo i termini di 'correlazione'. di 'quantità correlate'". Del resto, l'identificazione tra correlazione e causalità può essere stabilita soltanto da parte di economisti per i quali la categoria di causalità risulti centrale. A questo proposito la discussione che segue l'articolo del 1899 è illuminante: un economista presente dice di aver rimpianto, nel 1897, che l'autore non fornisse un "metodo che permettesse l'associazione (delle variazioni del pauperismo) con le sue cause". E si felicità allorquando il nuovo metodo vi riesce! O modo in cui Yule presenta i suoi risultati lascia altrettanto interdetti: vi si ritrovano tutti gli errori contemporanei. Egli comincia con l'identificare i concetti di "pauperismo" e di "assistenza sociale" con gli indicatori utilizzati per misurarli. Quindi interpreta fedelmente l'equazione della retta di regressione ottenuta con l'aiuto di tali indicatori, ma chiamandola "equazione tra pauperismo e assistenza sociale". Ritroviamo la stessa procedura nell'esempio successivo, in cui egli sostiene che, ad un aumento di uno scellino nel salario degli operai agricoli, "corrisponde" un abbassamento del pauperismo medio di una percentuale equivalente. È la porta aperta all'interpretazione causale, che vorrebbe che un aumento di uno scellino implichi una riduzione equivalente della percentuale
di pauperismo. In un simile uso della correlazione, l'azione e la previsione sono già presenti in embrione. L'articolo di Yule del 1899 è verosimilmente il primo vero articolo econometrico. Si tratta del test di un modello atto a spiegare le variazioni del pauperismo attraverso tre fattori: la modificazione nell'approccio amministrativo del pauperismo stesso, la variazione degli anziani nella popolazione e infine un fattore economico globale. Vi si ritrova un modello metodologico dal qua\e gli economisti non si allontaneranno molto in seguito, infarcito di stivolamenti di senso e di confusioni dei livelli di analisi. Tre di questi, saranno presenti in numerosi articoli econometrici ulteriori: I. Yule identifica correlazione e causalità: all'inizio esita, parlando di "associazione" delle variabili, ma poi, nel corpo del testo, opta risolutamente per: "la variazione di X è dovuta alla variazione di Y". 2. Egli identifica permanentemente il conce/lo studiato e l'indicatore scelto, anche quando riconosce fin dall'inizio l'imperfezione di quest'ultimo. Un esempio, a questo riguardo, è rivelatore: Yule misura l'influenza delle misure amministrative e il pauperismo, ricorrendo a indicatori che integrano le stesse due variabili di base. Di fatto, una di queste (il numero di individui che beneficiano di un'assistenza pubblica) appare al numeratore in entrambi gli indicatori. Quindi, constatando uno stretto legame tra i due, Yule lo interpreta affermando che "la maggior parte della correlazione osservata tra le variazioni del pauperismo e quelle delle misure amministrative è dovuta a un'influenza diretta di una modificazione politica riguardo al pauperismo: i 5/8 dell'abbassamento del pauperismo tra il 1871 e il 1881 è dovuta a una modificazione politica", modificazione che consisteva in una riduzione dell'assistenza pubblica. Questa "conclusione" fu trionfalmente ripresa durante il dibattito che seguì la comunicazione da parte del presidente della seduta, il quale si rallegrò che l'azione amministrativa avesse comportato un abbassamento del pauperismo. Lo scivolamento, in questo caso, è esemplare: il legame individuato è già inscritto negli indicatori scelti, dal momento che le variabili di base compaiono in entrambi! Certo, in seguito a una modificazione dell'assistenza, il numero di individui che beneficiano di assistenza pubblica decresce, e i due indicatori decrescono anch'essi. Purtroppo, ciò che gli economisti e gli uomini politici presenti ricordarono, è evidentemente soltanto il fallo che "5/8, etc."". 3. Quando i coefficienti di correlazione parziale sono quasi nulli, i più significativi non o)trepassando 0,5, i risultati sulle relazioni in questione, studiate
*. Non è il caso di dire qui che Yule fece un errore elementare, un errore che non potrebbe riprodursi ai nostri giorni. La letteratura econometrica cd economica contemporanea abbonda di errori simili.
63
talvolta per molto tempo, non verranno ricordati, se non per memoria. Ma lo strumentalismo regna sovrano: alle domande dell'economista Edgeworlh, che dubita dell'applicazione del metodo quando i dati non sono distribuiti nom1almente, Yule risponde che le medie condizionali "non sono veramente allineate, ma sono in effetti così erratiche che l'aggiustarle lungo una linea non è peggiore di una qualunque nitra cosa"! Queste critiche ci rimandano ad alcuni aspetti generali segnalati più sopra: Yule preconizza un approccio esclusivamente empirico. Stabilendo a priori una lista di "cause" del pauperismo, egli propone un metodo che permette di misurare la rispettiva influenza delle varie variabili esplicative sulla variabile spiegata, e utilizza un metodo che permette di discriminare tra diverse causalità (integrando le diverse cause nella stessa equazione di regressione). Yule concepisce il suo lavoro come un mezzo per verificare direttamente le teorie correnti sull'evoluzione del pauperismo. Non si tratta in nessun modo, quindi, di una teoria del pauperismo, con la necessaria raccolta di dati elabo- · rati nel quadro di quella teoria al fine di provarla. Un secolo più tardi, gli econometristi sono quasi allo stesso punto: sottopongono a test delle relazioni bivariate (tra moneta e prezzo, tra moneta e redditi, etc.), con il pretesto di avere a che fare con "alcune delle ipotesi fondamentali inserite nel corpus della teoria economica"4 • Potremmo rimproverare loro proprio il fatto di estrarre delle relazioni la cui particolarità è appunto quella di essere "inserite" in cene teorie economiche, dunque di non essere isolabili. Ma, se insistono così a lavorare su relazioni isolate, è perché il loro obieuivo essenziale rimane quello di circoscrivere delle causalità. La spiegazione è semplice, e l'introduzione al testo del 1897 di Yule lo attesta: è impossibile non parlare di causalità nelle scienze sociali.
64
Sulla natura della causalità nelle scienze sociali È impanante osservare come la causalità giochi un ruolo privilegiato in queste ultime a causa della natura stessa del loro oggetto, sempre sovradetermi-
nato: ciò che un eventuale modello lascia da parte determina a sua volta (in un altro modo) ciò che vi compare. Dal momento che la realtà sociale è socialmente istituita come realtà di questa società, gli eventi che costituiscono la trama dei fatti sociali sono infinitamente impregnati di significati sociali. Del resto, gli clementi esclusi dal modello rimandano a dei significati per definizione irriducibili a ogni formalismo così come a ogni riduzione del mondo ad insiemi. La scelta di un altro modello sarà verosimilmente altrettanto pertinente e portatrice di nuove conoscenze, ma lascierà fuori dal suo dominio altrettanti elementi e altrettanti significati.
È nel quadro di questa specificità delle scienze sociali, non molto riconosciuta
neppure dagli scienziati s1essi, che occorre ristabilire il posto della causalità. La prima osservazione da fare è che il riferimento alle scienze della natura, alla fisica in particolare, non è più molto in uso. L'utilizzazione della causalità è spesso presentata dai filosofi della scienza come caraueristica di uno
stadio prescientifico, periodo nel quale le relazioni venivano stabilite tra fenomeni concreti, e non tra grandezze astratte. La relazione causale sarebbe dunque del tulio scomparsa dagli enunciati della fisica. Su questa linea, una citazione di Russe!, spesso riportata, 1estimonia due problemi: I filosofi, a qualunque scuola appartengano, pensano che la causalità sia uno degli assiomi o postulati fondamentali della scienza, mentre è abbastanza evidente come nelle scienze avanzate, come la meccanica celeste, il termine
"causa" non appaia mai s.
Innanzitutto, possiamo domandarci se la nozione di causa sia veramente scomparsa dal discorso scientifico. Un'analisi attenta mostra come sussistano almeno due domini in cui la si incontra: 1. Nell'espressione dei modelli soggiacenti al formalismo matematico adottato: il pragmatismo dei fisici li porta ad adottare ogni ipotesi compatibile con la verifica sperimentale. Così, nella teoria fisica, possiamo rilevare numerose ipotesi di strullura (dette causali), che postulano l'esistenza e la forma dei fenomeni inosservabili: quella della teoria cinetica dei gas, quella della struuura elettronica dell'elettricità, quella della struuura atomica della materia, etc. Il fisico, di fauo, presuppone che una causalità esista. Quest'ultima, che autorizza e rende feconda la ricerca, si traduce, una volta che l'investigazione sia giunta a termine, in legge oggettiva {il più delle volte una relazione matematica), per la comprensione o l'utilizzazione della quale non è affauo richiesta una rappresentazione causale. 2. "Nei punti di articolazione di una conoscenza teorica( ... ) con la pratica"6• In quest'ultimo caso, essa "rappresenta in larga misura un adattamento alla pratica immediata e un ritorno al linguaggio comune". Quest'ultimo punto testimonia la pregnanza dei valori antropomorfi della nozione di causalità, come del suo radicamento nell'esperienza immediata: sollo forma di motivazione, di mezzo ICCnico indispensabile, di risultato che si realizza perché ne sono state poste le condizioni. Ciò spiega il "successo" di questa categoria in quel processo di elucidazione del mondo che è la scienza. Tenuto conto delle sue origini empiriche, la nozione di causalità resta legata alla percezione utilitaristica dell'esperienza quotidiana: ogni discorso scientifico, a partire dall'istante in cui tenta di passare allo stadio applicativo, è più o meno vincolato ad adattarsi al senso comune e ad esprimersi in termini di metafore
65
66
causali. Due conseguenze risultano dn questo stnlo di fouo pragmatico, conseguenze che hanno unn certa importanza nelle scienze sociali: da una parte la causa è idenùficata con l'agente, dall'nllra è necessario parlare di causa al fine di fare previsioni. li secondo elemento della citazione di Russell che è importante ricordare è l'opposizione tra scienzinù e filosofi. Russell nega a questi ultimi il diritto di legiferare sulla scienza: a questo proposito, gli esempi di Mili, Jcvons, Popper e Russell (!) sono rivelatori di una tradizione intcrvenùsta. I filosofi, soprattutto quando si inscrivono nella tendenza logicista, hanno l'abitudine di dettare agli scienziaù i canoni della scientificità, e dunque di determinare come la scienza debba essere fatta. Ciò spiega in parte la pregnanza della categoria filosofica di causalità nella filosofia della scienza. In realtà, questi discorsi imperialisù non hanno molto a che vedere con la pratica effeuiva degli seienziaù. Tuttavia la sua persistenza nei discorsi degli economisti sulla fi. sica mostra due cose: I. Da una parte, l'esistenza di una certa seduzione esercitata dai filosofi logicisti sugli economisù neo-classici: si tratta di tutta una concezione della scienza che si afferma, nella quale si privilegia l'aspetto logico delle teorie a discapito del loro adeguamento alla realtà. 2. Dall'altra, ciò conferma come soltanto l'immagine della fisica sia importante, non la sua realtà: gli economisù forgiano di fallo una fisica adeguata alle loro preoccupazioni e alla loro epistemologia, all'interno della quale sia possibile parlare impunemente di causalità. Ma da questa fisica di sogno è stranamente assente l'unica sanzione che il fisico veramente riconosca: la sperimentazione. La concezione logicista della scienza alla quale aderiscono gli economisti neo-classici favorisce la cancellazione della distinzione tra scienza sperimentale e scienza non sperimentale e permette dunque di rendere scienùfica l'economia. Si comprende allora facilmente come gli economisti della fine del XIX secolo abbiano aderito in massa a un'epistemologia di questo tipo7. L'inconveniente è che, senza la sanzione dell'esperienza, qualsiasi "legge" ottenuta resta come sospesa in aria: la nozione di causa diviene quasi metafisica. La lettura logicista dei filosofi della scienza permette quantomeno di fare della fJSica un modello, ossia un "metodo generale" trasponibile ad altre scienze. Al limite si può dire che nessun economista si interessi alla fisica in quanto tale, ma piuttosto alla scientificità che la fisica incarna. Resta che nelle scienze sociali - e in economia in particolare - "il ricorso al ragionamento causale (... ) esprime (... ) l'impossibilità di attenersi fino in fondo al paradigma di una conoscenza per modelli e strutture" (G. Granger 1978, p. 140). Tale impossibilità deriva da due fattori: I. L'evento socioeconomico non può essere ridouo ad alcun modello: è sov-
radcrenninato. 2. L'economista (o il sociologo) elabora una scienza pratica, che privilegia la decisione: si tratta sempre di reperire i fattori straregici, considerati come cause, e dunque manipolabili. La conseguenza di questo stato di fallo è il semplicismo dei modelli e il privilegio dello strumento: "dalla fretta eccessiva di passare dall'analisi delle struuure alla decisione causale, può dipendere (... ) il mediocre successo dellescienre umane" (ibid., p. 142).
Legge e causalità: il confusionismo econometrico La causalità è un conceuo centrale nell'analisi economica, nella misura in cui
compare sistematicamenre legata alla predizione: L'obiettivo essenziale di una legge scientifica è quello di permettere la previsione, auspicata proprio perché permette il controllo dei fenomeni. Cib è evidente, perchi!, a meno di sapere che cosa "causa" un particolare fenomeno, non è possibile ostacolare, ni! favorire la sua realizzazionel,
Ma la causalità pone un problema di definizione. Nessuna definizione ne è
stata data durante tulio il primo periodo di sviluppo econometrico degli anni cinquanta e sessanta. Gli autori, inoltre, non sono stati in grado di definire la relazione esistente tra i modelli econometrici costruiti e le leggi scientifiche che quei modelli dovevano rappresentare. In altri termini, nelle preoccupazioni degli econometristi è assente uno degli aspetti epistemologici essenziali alla comprensione della causalità: la distinzione tra la realtà e i modelli che se ne possono dare. Sembra infatti che gli econometristi definiscano il più delle volte la "relazione causale" come "una relazione in cui, a destra, figura una variabile esogena"9, Un tale enunciato costituisce da sè un problema epistemologico: la causalità è una proprietà del modello soltanto (posizione fonnalista), oppure anche della realtà descritta da tale modello? Gli econometristi non si risolvono, e ciò li porta a proporre delle concezioni della causalità che oscillano continuamente tra le due. Da notare che, talvolta, alcuni di loro, per colmare quesre lacune, fanno riferimento ai filosofi. Ma dobbiamo constatare che malgrado tulio il problema· rimane mal posto. Così Zellner fa appello a Feig110: "Il concetto di causalità (purificata) è definito in termini di prevedibilità secondo una legge (o più precisamente secondo una serie di leggi)". Dove Feigl intende "purificata" nel senso di "purificata da ogni connotazione metafisica". Egli esclude così le
67
cause finali, le concezioni teleologiche, cosl come l'implicazione logica. Ma la posizione di Feigl adottata da Zellner è di seconda mano. Una delle idee fondamentali di questo esegeta di Feigl merita di essere ricordata: l'identificazione di causalità e determinismo. Del rifiuto di Feigl dell'implicazione logica, egli mantiene l'insistenza di quest'ultimo sulla natura induttiva della causalità. Da qui, il quadro - preso a prestito dalla filosofia - nel quale si sviluppa la causalità degli econome/risti è precisamenle quello di una scienza indllltiva in cui "essere la causa di" significa "essere de1erminato da". L'econometrista deve dunque svolgere una "analisi logica induttiva (allo scopo di) fornire informazioni sulla qualità prediuiva delle varie leggi~ (Zellner, 1979, p. 21). · Di fano, constatiamo che gli econometristi affrontano il problema della causalità secondo una doppia dicotomia: a) proprietà del modello/ proprietà della realtà; b) privilegio temporale/ atemporalità: per alcuni, la causalità è un fenomeno temporale (Granger), mentre, per altri, come Herbert Simon, si tratta di eliminare la sequenzialità temporale. Questi due aspetti si intrecciano per generare tre concezioni: - una concezione formalista atemporale; - una concezione formalista temporale; - una concezione realista strettamente determinista e atemporale. a. La ooncezione formalista atemporale
68
Nel constatare come le relazioni di causa/effetto tra i fenomeni siano inconoscibili (posizione cli Hume), H. Simon considera la causalità "una proprietà del modello, proprietà che può cambiare via via che il modello viene modificato per adattarsi a nuove osservazioni"••. La causalità è qui un concetto deduttivo logico che non ha niente a che vedere con il "mondo reale". Simon sconnette la causalità dalla sequenzialità temporale: mette in evidenza l'asimmetria di una relazione, a scapito della cronologia. Così facendo, egli esclude l'ultimo testimone della realtà dei fenomeni studiati, la loro temporalità. Il riferimento obbligato alla fisica compare anche qui nella totale ignoranza dello statuto della causalità in questa scienza: Non vi è legame necessario Ira l'asimmetria di quesla relazione e l'asimme1ria temporale, sebbene un 'analisi de)la strullura causale dei sistemi dinamici in econometria e in fisica mostrerebbe che le relazioni con scarto temporale possono essere generalmente interprclatc come relazioni causali.
Questa concezione pecca anche per un altro aspetto: il problema della scelta delle variabili pertinenti è completamente abbandonato. Se pure la "causalità" nel senso di Simon si basa sulla divisione variabile esplicativa/variabile spiegata, e dunque su una teoria economica soggiacente, quest'ultima non viene mai precisata. Ci troviamo qui di fronte a una concezione formalista della causalità: ma questa è una proprietà dei modelli, non della realtà. È evidente come l'adottare un simile approccio della causalità impedisca ogni invarianza di quest'ultima. Numerosi economisti si sono confrontati con questo problema•. b. La concezione formalista temporale La definizione che i lavori di C. W. Gragner hanno iniziato è molto particolare, e lo conduce a notare: "Sembra poco probabile che i filosofi acceuerebbero totalmente questa definizione; può essere che 'causa' sia un termine troppo potente, ma, dal momento che 'causa' è un termine semplice, noi continueremo ad impiegarlo"12.
Una variabile è causale nel senso di C. W. Gragner se contiene un 'informazione che migliora la predizione di un'altra variabile. Ci si pone in una prospettiva in cui l'ordine temporale diviene centrale e dove si escludono dal campo i fenomeni deterministici. Benché Gragner affermi: "questa definizione è molto generale", in realtà non è così. La scelta delle variabili tra le quali si va a sondare la causalità è in effeui fondamentale. In un primo tempo, al fine di rendere il suo approccio inattaccabile, Gragner sceglie di utilizzare "tutta l'informazione universalmente disponibile": è evidente come ciò sia impossibile e come occorra dunque scegliere un numero limitato di variabili pertinenti. Si verificheranno allora tutte le relazioni tra queste variabili e una certa variabile da spiegare: soltanto quelle variabili la cui presa in considerazione migliora la "predizione" della variabile spiegata saranno chiamate "cause" di quest'ultima. Ora, questa procedura pone un serio problema di teoria economica: non si può far credere, a meno di rifiutare ogni pertinenza alla teoria economica, che la scelta della variabili "pertinenti", cosl come la causalità individuata in seguito, siano solianto di origine statistica. •. Cosl P.-Y. Hl1NIN, "Une é1ude économé1rique de la décision d'investir et dcs slrllclures financières dans renterprise: essai d'analyse 1ypologique et causale", Cahiers de l'ISEA, t. IV, n 7-8, luglio-agosto 1970. Egli constala che, modificando la forma di una sola delle equazioni del suo sistema, la struuura causale cambia: si traila beninteso di una 1au1ologia nel quadro formalista adollalo.
69
Il fatto di sconnettere il modello statistico e la definizione della causalità dal riferimento n una qualunque teoria economica (posizione cara1tcris1ica della causalità secondo Gragncr) può, secondo lo stesso autore, condurre a "risultati idioti" (1977, p. 430). Qualunque scienziato, di fronte a un simile staio di cose, si porrebbe dei problemi metodologici. Ma così non accade: il solo mezzo che egli trova di scartare tali incoerenze è di affermare che queste siano do,'llte ni dati disponibili, che sono insufficienti. La petizione di principio strumentalista gioca qui appieno: dal momento che i nostri risultati dipendono soltanto dai dati, modifichiamo questi ultimi. Si tratta allora di accumulare dati e variabili senza mai porsi la questione, né della loro origine, né del loro significato, né della loro pertinenza rispetto al problema posto. È il caso di domandarsi se vi sia ancora un problema in esame.
c. La concezione realista e detenninista La nozione classica e scientifica di causalità alla quale faremo appello può essere così espressa: supponiamo che il meccanismo studialo possa essere isolato da ogni altra influenza sistematica (non aleatoria); supponiamo che il meccanismo possa essere rimesso in moto molte volte a partire da ogni condizione iniziale ben defirùta; se, ogni volta che il meccanismo parte da condizioni iniziali approssimativamente uguali, percorre approssimativamente la stessa sequenza di eventi, lo si dirà causale13.
70
Ciò viene posto come una posizione di principio, sebbene non sia realizzabile sperimentalmente. Proprio qui sta il problema: si adotta come definizione della causalità quella del determinismo in un sistema meccanico isolato. Ed è proprio perché il quadro filosofico degli economisti resta quello della meccanica classica, che una simile confusione è ancora possibile. Tuttavia, questa petizione di principio ignora superbamente (grazie ai due "approssimativamente" di circostanza) il problema essenziale della precisione nella conoscenza delle condizioni iniziali. Di nuovo, non possiamo fare a meno di constatare come si passi sopra all'esperienza, ossia al confronto con i fatti non appena ciò sia possibile. Il paradosso vuole che una tale concezione si sviluppi facendo simultaneamente appello a una sedicente posizione empirista: ma questa rivendicazione, beninteso, non è seria, dal momento che nessuna riflessione degna di questo nome viene condotta a proposito della misura e della precisione dei dati economici.
d. Sintesi e prospettive Per riassumere le diverse posizioni, possiamo affermare che: 1. Nella maggior pane degli econometristi vi è una confusione persistente tra realtà e modello nella definizione della causalità: non hanno molto chiaro se stanno adottando una posizione induuiva oppure deduttiva. La scelta dei loro riferimenti "filosofici" (quando ve ne siano) è dubbia: farebbero meglio ad interessarsi al lavoro degli storici delle scienze. Ritroviamo qui la propensione degli economisti matematici ad utilizzare delle definizioni extra-economiche soltanto ciò che può essere loro utile, o ciò che può andare nel loro stesso senso. Tutta questa ambiguità è precisamente quella che non preoccupa affalto i fisici ... grazie alla sperimentazione, che permeue di trasfonnare il modello in strumento di interrogazione della realtà. 2. Quando qualcuno vuole circoscrivere questo problema, definisce una causalità che funziona soltanto a livello del modello. Questa può assumere allora fonne to1almen1e arbitrarie; al limite, dal momento che non vi sono più punti di riferimento esterni, ciascun autore può definire la propria causalità . Non è più un problema di leggi economiche ma di lavoro statistico. Comunque, nessuna domanda si pone sui dati necessari al lavoro, come se questi fossero statisticamente immanenti. È come se il problema della misura non li preoccupasse. Al limite, gli econometristi parlano di "misura senza teoria"t 4 • È possibile a contrario parlare di lavoro empirico? Di fauo, qui non vi è più niente di empirico: non bisogna confondere "assenza di teoria" ed "empirismo". Si traila di un lavoro formale in cui le relazioni scoperte non sono nemmeno interpretabili in termini economici (o allora possono dar luogo a interpretazioni contraddillorie): il lavoro statistico su delle variabili, insieme alla definizione di una causalità a livello del modello, conducono a trarre conclusioni economiche del tipo: "A è la causa di B", e questo a livello dei fenomeni economici. Tullo il problema è di sapere se esiste un legame tra la causalità fenomenica e la causalità formale. Ma in assenza di sperimentazione niente può indicarlo. 3. Il problema della scelta delle variabili pertinenti poggia su quello dcli' assenza di teoria. "Il metodo che utilizziamo per identificare il senso della causalità si basa su una versione sofisticata del principio post hoc. ergo propter hoc"tS: sofisticata o assurda? Sappiamo bene che i falli dell'esperienza non sono univoci: esistono soltanto all'interno del quadro di una teoria. "Solo la teoria decide che cosa si può osservare", affermava Einstein. Non si può far finta di credere che esista un
71
mondo di fatti (o di dati) al di fuori da ogni interpretazione scientifica, e al quale noi possiamo comparare le vruie teorie per vedere se risultano falsificate o meno. Questo vale qualunque sia la procedura sofisticata che si utilizza. I dati economici (prezzo, lavoro, salari. .. ) non sono "dati": non è possibile confrontarli ai "dati" utilizzati dai biologi-fisiologi de1la fine del XIX secolo, come la statura, il colore degli occhi, etc., che risultavano dallo strato "naturale" e perceuibile dei fenomeni. Tuttavia una certa concezione empirista e naturalista vorrebbe farli credere tali. Due punti sono degni di nota a questo proposito. Da una parte, questi "dati" sono stn:ttamente legati a dei concetti dc11a teoria economica e vengono spesso presentati soltanto come misure imperfette di questi ultimi, senza che venga elaborata una vera teoria della misura economica. Dall'altra, gli econometristi non si scomodano a scomporre questi "dati" al fine di renderli adeguati ai loro strumenti matematici: non si tratta più di prezzo, neppure dell'indice dei prezzi al consumo, ma del logaritmo della crescita dell'indice dei prezzi al consumo. Questo nei casi più favorevoli: molto spesso, per ottenere dei risultati che non siano troppo deludenti, 1'cconometrista è portato a "filtrare" i suoi dati. Ma il più delle volte gli autori non sono in reciproco accordo sul filtro "migliore": malgrado i loro persistenti riferimenti alla fisica, non si accorgono che manca loro la garanzia della sperimentazione? Scomporre i dati non sostituisce la sperimentazione. Occorrerebbe, una volta per wue, ricordare che in fisica l'esperienza è costruita, che le misure sono elaborate all'interno del quadro di teorie precise, che non si tratta dunque di empirismo. Da qui, nessuna interpretazione economica è più possibile, a meno di supporre che si possa identificare il concetto economico con il risultato di una procedura matematica ad hoc. Non possiamo allora che seguire Pierce quando afferma: ·
72
Tenendo conto di tutti questi problemi, non c'è da meravigliarsi se delle proposizioni incompatibili tra loro possono essere "confermate" dagli stessi dati. compresa la proposizione secondo la quale una certa variabile non dipende da certe altre variabili. Se la ricerca a venire confermerà questo tipo di risultato, potremo concludere a giusto titolo che l'analisi econometrica sia di applicabilità limitata nella verifica di certe relazioni economiche (19TI, p. 21).
4. Si possono "spremere" i dati in modo da adattarli allo strumento. E si deve-·· continuare a spremerli fino a quando lo strumento non fornisca risultati· "buoni": il filtraggio, e le discussioni sul filtro migliore, non hanno altro scopo. Il riferimento permanente alla fisica, per giustificare una pratica di questo tipo, non regge. Cib che gli economelristi ignorano, perché gli approcci logicisti l'hanno sempre negato, è che la singolarità della fisica deriva
dall'esistenza di teorie fisiche che danno un senso ai dati osservabili, che pennettono dunque di spremerli, ceno, ma in modo aperto e riconosciuto.
5. Si rifiuta ogni riflessione epistemologica a vantaggio di uno strumentalismo. Sims16, facendo riferimento al lavoro di Zcllner e ai problemi che pone sulla necessaria unità delle nozioni di causalità tra fisica, filosofia cd economia, affenna: "Non sono sicuro che questo genere di discussione possa essere utile a chicchessia". Keynes, anticipando la reazione di Tinbcrgen alle critiche che egli stesso gli aveva indirizzate, affennava: "Ho la sensazione che il professor Tinbergcn sarà globalmente d'accordo con me, ma che la sua reazione sarà quella di impegnare dieci nuovi calcolatori e di annegare il suo dispiacere nell 'ariunetica" 17• 6. Che ne è della confusione tra causalità e determinismo in cui perseverano certi econometristi? Supponiamo che il sistema studiato ci sia dato attraverso un suo modello,_eventualmenle sotto fonna di una legge matematica di evoluzione o di un insieme di equazioni di stato. Diremo che tale sistema è detenninistico se la conoscenza esatta del suo stato iniziale pennette di predire con certezza il suo futuro. Distingueremo dunque accuratamente tra, da una parte, il modello in cui si applica il principio di determinabilità e, dall'altra, la realtà in cui si considera valico il principio di causalità. Una posizione metafisica comune, adottata dagli cconomelristi, identifica realtà e modello (o teoria). Essa ha la conseguenza di identificare determinismo e causalità. Proprio qui ritroviamo quella concezione in cui l'assenza (o la quasi-assenza) di teoria economica e di sperimentazione si fonda in un empirismo estremo. Se ci limitiamo al dominio dei modelli, va notato un punto estremamente importante, che sfugge agli economisti a causa dell'assenza totale, da parte loro, di una riflessione sul problema della misura. Iniziamo con il definire la predicibilità di un sistema come la possibilità di predire l'evoluzione di tale sistemau. Ora, può accadere che il determinismo non implichi la predicibilità: in effelti, è sufficiente che la nostra conoscenza dello staio iniziale del sistema sia affetta da un minimo errore perché la sua evoluzione ulteriore possa esserne considerevolmente modificata. Si tratta di un fenomeno, ben noto ai fisici, chiamato "sensibilità alle condizioni iniziali". Un sistema detenninistico, del quale conosciamo l'equazione di evoluzione, può dunque avere un comportamento imprevedibile. Può persino mostrare un carattere nettamente alea1oriot9: è il caso di numerosi fenomeni descritti da equazioni del tipo X(l+ 1) = F(a, X(t)). A seconda del valore che assume il parametro a, ed a seconda della precisione della misura (che in taluni casi può essere soltanto dell'un per cento), il sislema presenterà degli aspetti di stabilità oppure
73
di totale instabililà. È evidente come questo sin un problema cenlrnle, del quale gli econometristi dovrebbero essere coscienti: i "modelli" sui quali lavorano possono dar luogo a tr:ùettorie fortemente divergenti a seconda dei valori dei parnmelri in gioco. Inversamente, se si introduce la fondamentale nozione di precisione dei dati disponibili, la tr:ùettoria, che è una serie cronologica, di viene una "banda", che può riunire un'inlinilà di traiettorie associate a modelli deterministici che possono essere anche dilTercnti. In fin dei conti, resta il fatto che l'economia non possa imitare la fisica. Tutto le separa dal punto di vista epistemologico, in primo luogo la sperimentazione, che in economia è assente. Quest'ultima non deve ingannarsi: è una scienza pratica, e come tale deve elaborare le proprie procedure di verifica e la propria epistemologia20. Il secondo insegnamento da trarre è che i metodi statistici non possono essere utilizzati impunemente come se nascondessero al loro interno una qualche verità teorica sul campo di studio: gli strumenti statistici, utilizzati nelle scienze sociali, sono soltanto degli artefatti che permettono di meglio percepire un campo appena dissodato da una concettualizzazione. Non di meno, è importante ricordarsi che i dati sui quali si lavora sono stati elaborati sempre all'interno di un certo quadro concettuale. Per questo, l'empirismo non è più ammissibile e non può sostituire la teoria assente.
74
NOIB
1. I. M. BLAIT, "On lhe Economclric Approach to Business-Cycle Analysis", Oxford Economie Papers, voi. XXX, pp. 292-300.
2. P. PROGAIT, N. C. NEVIN, "The 'Law of Ancestral Hcrcdity' and tbc Mendelian-Ancestrian Controversy in England, 1889-1906", Journal o/ Medicai Gene/ics, voi. VIII, n. I, marzo 1971, pp. 1-36 . .3. W. H. YULE, "On lhe Theory of Correlation", Journol o/ the Royal Statistica/ Society, dicembre 1897, pp. 812-854; "An Jnvestigation in lhe Causes of Changcs in Pauperism in England", ibid., voi. LXII, marzo 1899, pp. 249286; "On lhe Correlation of Tota! Paupcrism wilh Proportion of Out-Relief', Economie Journal, voi. V, pp. 603-611; e ibid., voi. VI, 1896, p. 613. 4. E. FEJGE, D. PEARCE, ''The Causai Relationship Between Money and Income: Some Caveats for Time Series Analysis", Review o/ Economics and Statistics, voi. LXI, novembre 1979, pp. 521-533. 5. B. RUSSELL, "On lhe Notion of Cause", in Mysticism and Logie, 1918, p.
180. 6. G. W. GRANGER, "Logique et pragmatique de la causalité dans les scicnces de l'homme", in Systèmes symboliques, Science et Phi/osphie, Parigi, ~d. du CNRS, 1978, p. 131. 7. M. GUTSATZ, Economie, Physique, Matematiques: de l'lco,wmie politique à
la science lconomique. Essai sur la constitution d'una science (1776-1910), Doctorat d'Etat. Université d'Aix-Marseille 11, 1985. 8. G. J. STIGLER, The Theory o/ Price, New York, Macrnillan, 1949, p. 3. 9. T. SARGENT, "Responso to Gordon and Ando", in C. A. Sims (a cura di), New Methods in Business Cycle Research, Minneapolis, 1977, p. 21. 10. A. ZELLNER, "Causality and Economelrics", in K. Brunncr e A. Meltzcr (a cura di), Carnegie-Rochester Conference Series on Public Policy. Three Aspects o/ Policy and Policymaking: Knowledge, Data and lnstitutions, voi. X, NorthHolland, 1979; H. FEIGL, "Notes on Causality", in H. Feigl e M. Broodbeck (a cura dì), Readings in the Philosophy o/ Science, New York, Applcton Century Crofts, 1953. 11. H. SIMON, "Causai Ordering and ldcntifiability", in W. C. Hood e T. C. Koopmans (a cura di), Studies in Econometrie Method, Cowles Commission Monograph, n. 14, Wiley and Sons, New York, 1953, p. 22. 12. C. W. GRANGER, P. NEWBOLD, Forecasting Economie Time Series, New
75
York, Acadcmic Prcss, 1977. 13. R. BASMANN, ''Thc Causai Intcrprctation of Non-Triangulor Systcms of Economie Rclotions", Econometrica, voi. XJ(XI, 1963, pp. 439-448. 14. O. A. PIERCE, "Rclationships and thc Lock Thcrcof Bctwccn Economie Time Scries", Journal of the llmerican Statistica/ llssociation, voi. 72, 1977, pp. 11-21. 15. C. SIMS, "Moncy, Incomc and Causality", Àmt!rican Economie Review, voi. LXII, 1972, pp. 540-552. 16. C. SIMS, "A comment on the Papcrs by Zcllner and Schwen", llmerican Economie Review, voi. LXII, 1972. pp. 103- I 08. 17. J. M. KEYNES. "Professor Tinbergcn's Mcthod°", Economie Joumal, voi. >..'LIX, 1939, pp. 558-568; resoconto di J. TINBERGEN, /I Method and /ls Application 10 lnvestment Activity, Statistica/ Testing of Business Cycle Tlieories I, Gcnève, Socicté dcs Nations, 1939. 18. D. RUELLE, "Oéterminismc et prédicibilité", Pour la Science, n. 82, agosto 1984, pp. 58-67. 19. R. M. MA Y, "Simple Mathematical Models with Vcry Complicateci Dynamics", Nature, voi. CCLXI, 10 giugno 1976, pp. 459-467; T. Y. LI, J. A. YORKE. "Period Torce Implies Chaos", Àmt!rican Matliematical Monthly, voi. LXXXII. I 975, pp. 985-992. 20. C. SCHMIDT. La Shnantique iconomique en question, Parigi, CalmannLévy, 1985. .
76
IL PARADIGMA DEL CALCOLO
PierreLévy Gli elaboratori giocano un ruolo sempre crescente nei diversi domini della vita sociale. La scienza non fa eccezione in questa tendenza generale. Con l'informatizzazione della ricerca, il movimento della scienza e quello della
tecnica si ripiegano l'uno sull'altro fino a mellere in questione la loro stessa identità. Forti riferimenti segnano tradizionalmente lo spazio della scienza: l'esperienza, la spiegazione, la dimostrazione, l'oggetto, il soggello, etc. Il testo che segue mostra come tu/li questi concetti rassicuranti si trovino all'improvviso vacillanti, dal momento che il paradigma del calcolo ha iniziato a scuotere le fondamenta stesse sulle quali sono radicati. I ricercatori sono provvisti di strumenti nuovi. I/anno linguaggi, capacità e modi pensare sconosciuti dalle generazioni precedenti. Ma sono difronte anche a vincoli formali del tulio inediti. Per quanto poco si possa avere una misura delle mutazioni in corso, non vi è dunque niente di sorprendente nel fatto che essi apprendano il reale in modo nuovo. In effeui, al di là delle istanze metodologiche, l'analisi del paradigma del calcolo ci conduce fino alle frontiere dell'inrerrogazione ontologica. Fino a che punto possiamo assimilare la realtà ad un sistema/orma/e? Vi è modo di distinguere tra l'ordine del calcolo e lo zampillo sfuggente del divenire? Nel corso della nostra indagine sull'informatizzazione degli strumenti e dei modelli della ricerca contemporanea, ritroviamo temi affrontati altrove in questo libro: la nozione di complessità, legata alla pertinenza delle prospettive d'interrogazione, la questione de/l'empirismo, quella dei limiti della formalizzazione, così come l'inevitabile problema del determinismo. Ma tulli questi temi intervengono qui per illustrare la modificazione generale del paesaggio intel/euuale legata a/l'ascesa del calcolo. Le poste in gioco de/l'operazione in corso sono molteplici. Sul versante ontologico, i sistemi fisici, viventi, psichici sono forse macchine che elaborano l'informazione? Su versante metodologico, vi è forse una sola razionalità
77
scientifica, codificabile e applicabile di diritto a tutli gli oggetti? Infine e soprattutto, lo scopo dell'attività scientifica ~ di prevedere e di calcolare sempre meglio oppure di rendere intelligibile e di illuminare il mondo che ci cir-
oonda? Infondo, dal momento che la simulazione numerica tende a sostituire altrettanto bene sia l'esperienza che la dimostrazione, allora, quando il ragionamento lascia il posto agli algoritmi, abbiamo forse ancora a che fare con quanto siamo abi111ati a chiamare scienza? In altre parole, all'interno del "paradigma del calcolo" ,forse non si traila tanto della propagazione di un conce110 quanto di un possibile ribaltamento della conoscenza razionale verso UlliJjigura antropologica ancora ignota.
I concetti del calcolo
78
Una macchina non è necessariamente il motore di un veicolo o comunque una cosa pesante e rumorosa che trasforma la materia applicandole violentemente una forza meccanica. Radio, televisioni, centrali telefoniche, orologi al quarzo e calcolatori ci hanno abituati all'idea che una macchina possa tra/lare dell'informazione, ossia trasformare secondo una legge determinata un messaggio di entrata in un messaggio di uscita. La differenza tra una lavorazione industriale, per esempio, e un trattamento informazionale risiede nella minima quantità di energia messa in gioco nella sfera dell'informazione. Rigorosamente parlando, una lavorazione industriale è anch'essa informazionale, dal momento che si tratta di un processo attraverso il quale delle differenze generano altre differenze (o attraverso il quale una certa forma viene data ad una materia bruta), ma, non di meno, riserviamo la nozione di trattamento dell'informazione a quei processi che utilizzano piccole quantità di energia e che, il più delle volte, servono a conoscere, sorvegliare, ordinare, direttamente o indirettamente, altri processi che avvengono a un livello energetico superiore. Il trattamento dell'informazione per eccellenza è costituito dal calcolo. In senso strettamente matematico, un calcolo è un insieme di operazioni aritmetiche. Ritroviamo qui la nozione di azione organizzata, metodica, mirante alla produzione di un effetto determinato. L'operazione matematica è una combinazione effettuata secondo regole date su oggetti matematici (per esempio numeri, insiemi, etc.) e che ammette come risultato un oggetto matematico ben preciso. Un volta che gli oggetti matematici siano rappresentati in modo opportuno per mezzo di clementi fisici e le regole di combinazione siano perfeuamenie precisate, ci accorgiamo immediatamente della possibilità di meccanizzare o di automatizzare il calcolo.
Possiamo attribuire al icrmine "calcolo" un'estensione più ampia rispetto al suo senso strettamente matemaùco. Chiameremo allora calcolo ogni operazione di cernita, di classificazione, di combinazione, di confronto, di sostituzione, di transcodificazione (traduzione da un codice a un altro). Tale csicnsione del senso della parola "calcolo" è del tutto legittima, poiché ciascuna delle operazioni sopradette può essere ricondotta alla combinazione, più o meno complessa, di due o tre operazioni maicmaùche fondamentali. Ciò può forse apparire strano, perché quando ci impegnamo in classificazioni, cernite, traduzioni da un codice a un altro, noi agiamo, almeno coscientemènic, in modo diretto o globale. Ma va notato che è spesso possibile decomporre delle azioni globali in alcune operazioni elementari ripetute un gran numero di volte e applicate in un ordine determinato agli oggetti sui quali si opera. È cosl che un elaboratore calcola; i suoi circuiti di base possono effettuare soltanto alcune azioni molto semplici, ma tali azioni vengono combinate tra loro e ripetute in modo tale da realizzare, infine, calcoli molto complessi. Affinché l'elaboratore possa effettuare un trattamento, sarà dunque necessario non soltanto che tutte le parole siano tradotte in sequenze di Oe I, ma che l'istruzione globale • "classifica queste parole in ordine alfabetico", per esempio • sia decomposta in istruzioni elementari eseguibili da parte dcli' elaboratore. Ma se, ogni volta che ci sia un calcolo da fare, fosse necessario decomporlo in operazioni elementari convenientemente disposte per far sl che l'elaboratore possa effcuuarlo, sarebbe altrettanto rapido l'eseguirlo a mano. È per questo che le operazioni di uso corrente - addizioni aritrneùca, molùplicazione, etc. - sono il più delle volte già cablate nella macchina, ossia i circuiti di base sono disposti in modo tale da realizzare automaticamente l'operazione richiesta. Ed è anche per questo che si stabiliscono dei piani di calcolo con l'elaboratore non per un trattamento determinato ma per un insieme di trattamenti simili o per una classe di trattamenti. Sono dunque proprio le esigenze di trattamento automatico dell'informazione che conducono gli informatici (o gli utenti della micro-informaùca) ad elaborare algoritmi. Un algoritmo è una sequenza finita (perché occorre che il calcolo non sia infinito, che porti ad un risultato) e ordinata (convenientemente disposta in modo da realizzare il risultato richiesto) di regole (o di istruzioni, o di operazioni) allo scopo di risolvere una classe di problemi (realizzare un ceno tipo di compiti, e non un problema né un compito). Diciamo che un problema da risolvere, un compito da eseguire, è stato algoritrnizzato, quando si sia stabilita la lista di operazioni elementari, quella degli oggetti sui quali si effettuano tali operazioni elementari, e quando si sia determinato precisamente in quale ordine e su quali oggetti debbano effettuarsi le operazioni. La formalizzazione integrale di un compito, di un calcolo,
79
80
necessita l'cspliciUIZione di tutti i suoi aspetti. Vi sono piÌl algoritmi, o piÌl formaliz1A1zioni possibili, di uno stesso calcolo. Gli algoritmi variano in funzione della competenza dell'operatore (le istruzioni "elementari" non sono le stesse) e del fattore ottimizzato nell'esecuzione: maggiore o minore rapidità, maggiore o minore grado di generalità, etc. n debuttante in programmazione è spesso sconcertato dagli algoritmi: una volta fonnalizzatc, le azioni più familiari perdono la loro apparenza abituale. La percezione globale scompare a vantaggio di un estremo rigore nella esplicitazione e nella descrizione; il ritaglio della realtà non vi avviene intorno a poli di significato, ma secondo una logica puramente operazionale. In infonnatica teorica, i termini "macchina" o "automa" designano non tanto il dispositivo fisico che effettua la trasformazione di un messaggio di entrata in messaggio di uscita, quanto la struttura logica di tale dispositivo. La stessa "macchina" (per fare addizioni, ad esempio) può quindi incarnarsi altrettanto bene in una calcolatrice a ruote dentate, in un microprocessore o in una lista di istruzioni che uno schiavo perfettamente obbediente esegua alla lettera Di fatto, una "macchina" è un algoritmo, un programma. Nel 1936, quasi dieci anni prima della costruzione del primo elaboratore, il matematico inglese Alan Turing proponeva un modello estremamente semplice di macchina per trattare l'informazione. La tesi di Turing era la seguente: qualsiasi processo decomponibile in una sequenza finita e ordinata di operazioni su di un alfabeto limitato, che porti a un risultato richiesto in un tempo finito, può essere realizzato da una macchina di Turing; inversamente, qualsiasi cosa che quest'ultima è in grado di realizzare è un algoritmo o procedura effettiva. Turing ha dimostrato che esistono numerosi compiti impossibili da far eseguire a una delle sue macchine. Il funzionamento di queste macchine è il seguente: i dati di partenza sono codificati su di un nastro di carta, di lunghezza indefinita, diviso in caselle. Ogni casella porta soltanto un simbolo di un alfabeto binario (O o 1). La testina di lettura della macchina ispeziona soltanto una casella alla volta. Dopo ciascuna ispezione della casella di fronte alla quale si trova la testina di lettura, la macchina consulta il suo quadro di istruzioni. Quest'ultimo le indica come deve comportarsi in funzione 1) dello stato nel quale si trova (la macchina ha soltanto un numero finito di stati possibili), 2) del simbolo che la testina sta leggendo. Nel suo quadro di istruzioni la macchina legge, per esempio: "Se sci nello stato 12 e stai leggendo il simbolo O, cancellalo, scrivi I al suo posto, scorri di una casella verso sinistra e mettiti nello stato 5." E così via. La testina di lettura non può mai spostarsi per più di una casella verso sinistra o verso destra. Quando la macchina esegue un 'istruzione che termina con "stop", si arresta. Posto che i dati siano stati conveniente-
mente codificati e il quadro di istruzioni ben concepito, il risultato del calcolo verrà infine scritto sul nastro. Ad ogni problema calcolabile corrisponde una macchina di Turing (un quadro di istruzioni) in grado di risolverlo. Turing si è spinto più lontano della definizione rigorosa di calcolabilità. Ha mostrato l'esistenza·di una classe di macchine, le macchine universali, capaci di risolvere ogni problema calcolabile o di realizzare tutte le procedure effettive. Una macchina universale possiede un tale potere perché il suo quadro di istruzioni è stato concepito per farle imitare il comportamento di una qualsiasi macchina particolare. A una macchina universale, dunque, non si forniranno soltanto i dati del problema da trattare, ma anche la descrizione codificata della macchina in grado di traltare tale problema. La descrizione di una macchina si riconduce di fatto alla trascrizione del suo quadro di istruzioni. Siccome quest'ultimo è sempre finito e può essere congegnato secondo un'organizzazione standard, lo si può rappresentare facilmente attraverso una sequenza di simboli sul nastro della macchina universale. Nel 1945, nel "First Draft of a Report on lhe EDVAC", John von Neumann proponeva di costruire degli elaboratori i cui programmi fossero registrati, allo stesso titolo dei dati, in una grande memoria rapidamente accessibile da parte dell'unità aritmetica e logica della macchina. Von Neumann riscopriva così, sul piano tecnico, il principio del nastro della macchina universale di Turing e definiva nello stesso tempo l'architellura dell'elaboratore moderno. La macchina universale è l'antenato astratto dell'elaboratore e la descrizione codificata della macchina particolare prefigura la nozione infonnatica di programma. Quasi tutti gli elaboratori, anche i micro-elaboratori, sono macchine universali. In linea di principio, essi possono effeuuare ogni algoritmo e possono simulare qualsiasi altra macchina calcolatrice. In pratica, però, sono evidentemente limitati dalla loro velocità di calcolo e dalla loro capacità di memoria. Possiamo ugualmente considerare le regole sintattiche di un linguaggio formale (un linguaggio di programmazione, per esempio) come una macchina universale, posto che tutte le procedure effettive possano essere descritte in tale linguaggio. In tal senso, allo stesso titolo di altri linguaggi formali creati dai logici, il Basic, il Fortran o il Logo sono macchine universali.
Il neo-meccanicismo Fin qui, si è trattato del concetto di calcolo e della costellazione di nozioni che vi fanno riferimento. Ora, cene correnti scientifiche tendono a considerare i loro oggetti come macchine e i processi che vi hanno luogo come calcoli.
81
82
Esaminiamo adesso le ragioni dello sviluppo di un tnle meccanicismo calcolatorio. n vecchio meccanicismo, quello dì Descartes, descriveva i suoi oggetti in tennini di ligure e di movimenti, di connessioni geometriche, di urti e di spinte. Una spiegazione era considerata soddisracente soltanto quando faceva appello a cause locali. Si trattava di eliminare dalla spiegazione scientifica l'azione a distanza o l'effetto di principi misteriosi ai quali non era possibile assegnare né una fonna precisa né una posizione nello spazio. Nel XVII secolo, il modello della macchina era l'orologio. Nel XIX secolo, gli succede la macchina a vapore e il meccanicismo si arricchisce del vocabolario dei bilanci energetici. 1 problemi si sposuino; si vuol comprendere il funzionamento dei motori che animano i processi fisici, chimici, biologici e persino sociali; come l'energia si trasfonna e si dissipa. Nel XX secolo, la macchina per eccellenza è l'elaboratore e il meccanicismo supremo, quello che regola tutti gli altri, è il trattamento dell'informazione. A quali problemi risponde il nuovo meccanicismo? In biologia e nello studio di molti sistemi complessi, esso permette di riconciliare la causalità finale con la causalità efficiente, l'unica autorizzata dall'ideale scienùfico. Facendo intervenire l'immagazzinamento, lo scambio e il trattamento dei messaggi, invece di limitarsi alla spinta delle forze o alle trasformazioni dell'energia, divengono proponibili descrizioni razionali dei comportamenti stabili e finalizzati. I meccanismi difeed-back riportano sul sistema l'effetto delle sue precedenti azioni sull'ambiente. Pur sembrando perseguire uno scopo situato nell'avvenire, il dispositivo complesso agisce di fatto soltanto in funzione dei messaggi che riceve. La finalità diviene immanente al sistema. È così che numerosi fenomeni di regolazione, di omeostasi, o ancora di anormalità e di crescita, divengono intelligibili. Nella spiegazione dell'ereditarietà e dell'ontogenesi, le nozioni informatiche di programma, di dati, di codificazione e di traduzione offrono ancora un'alternativa alle spiegazioni vitaliste e finaliste. In neurologia, i concetti di calcolo e di trattamento dell'informazione permettono di assegnare un substrato fisiologico a quanto era tradizionalmente considerato il dominio esclusivo dell'anima, del pensiero o dello spirito. In un ceno senso, la macchina calcolatrice di Pascal aveva già provato come un dispositivo materiale possa realizzare operazioni che sembravano riservate all'intelletto. Ma le calcolatrici disponibili fino all'inizio del XX secolo erano ancora limitate all'aritmetica mentre le macchine pensanti costruite nel XIX secolo, come il "pianoforte logico" di Jevons, figuravano come curiosità. L'incarnazione dei processi mentali, concepita non come un atto di fede materialista, ma come un oggetto di descrizione rigorosa, appare veramente soltanto con i progressi della logica all'inizio del XX secolo. Nel
1910, Russell e Whitehead fonnalizzano il calcolo delle proposizioni. Nel 1931, Glldcl pone in corrispondenza regolata le operazioni della logica e quelle dell'ariunctica. Nel 1936, Turing fornisce la descrizione di un dispositivo fisico in grado di risolvere ogni problema logico e aritmetico a condizione che la soluzione possa ottenersi come esito di una sequenza finita di azioni elementari su dei simboli discreti. Nel 1943, Mac Culloch e Pitts mettono in evidenza l'isomorfismo tra la dinamica degli stati di una rete di neuroni idealizzati, o formali, e il calcolo delle proposizioni nel sistema di Russe!!. Essi dimostrano inoltre che una rete di neuroni formali (ossia un modello semplificato del cervello) possiede le stesse capacità di calcolo di una macchina uni versale di Turing, una volta che la si munisca di un nastro di lunghezza indefinita e di una testina di lettura-scrittura. Quest'ultima condizione sembra ragionevole, visto che la maggior parte degli uomini sanno tracciare dei segni mnemonici su differenti supporti e quindi rileggerli. In breve, degli automi fisici possono realizzare qualsiasi operazione intellettuale descrivibile in modo finito e non ambiguo, e il cervello potrebbe senz'altro essere uno di questi automi. Tutto ciò inaugura il programma di una parte della neurobiologia contemporanea e, nello stesso tempo, quello dell 'intelligcnza artificiale. In informatica, Io svolgimento di un programma di alto livello può essere considerato indipendentemente dall'architettura elettronica dell'elaboratore che Io supporta. L'ipotesi di base dell'intelligenza artificiale e di una forte corrente della psicologia cognitiva è che, nel caso dcli 'intelligenza umana, esista un livello di trattamento dell'informazione relativamente distinto dai dettagli dei calcoli neuronali. Ci si sforza dunque di astrarre gli algoritmi di trattamento dell'informazione situati al livello più elevato e meno legato al materiale biologico, per impiantarli su di un materiale tecnico. Gli algoritmi soggiacenti ai comportamenti intelligenti saranno resi integralmente espliciti. II pensiero, per così tanto tempo restio a lasciarsi comprendere dall'analisi razionale, potrà essere decomposto in operazioni elementari su dei simboli e quindi riprodotto a volontà. Ritroviamo, qui, l'esigenza di precisione e il progetto di eliminazione di ogni principio vago e misterioso dalle spiegazioni scientifiche - che caratterizzano, appunto, il meccanicismo.
Ontologia o metafora? La descrizione dei fenomeni in termini di calcolo o di trattamento dell'informazione ha la natura della semplice analogia, della metafora euristica, della modellizzazione a lini di predizione, ma senza pretese ontologiche, oppure di una vera e propria identificazione degli oggetti studiati con
83
84
delle macchine? A questo riguardo, la situazione è lungi dall'essere semplice e la simulazione numerica su elaboratore di fenomeni di qualsivoglia natura, sempre più frequente nella ricerca scientifica, contribuisce ad annebbiare queste belle distinzioni. È tuttavia possibile cogliere una forte tendenza ncomcccanicista, tras,·crsale a varie discipline, secondo la quale l'uso di concetti infonnatici e cibernetici è realista e non soltanto pragmatico o metaforico. I grandi nomi della cibernetica degli anni quaranta e cinquanta, Norbert Wiener, Warren Mac Culloch e Ross Ashby, non esitavano ad affermare che i sistemi viventi e sociali fossero sistemi di trattamento dell'informazione e l'uomo una specie particolare del genere: macchina. I fondatori dell'intelligenza artificiale, Hcrbert Simon, John Mc Carthy e Marvin Minsky, credono fermamente e pensano ancora che l'intelligen1.a sia un meccanismo, nel senso turinghiano del termine. Sulla scia dell'intelligenza artificiale, un buon numero di sostenitori della scuola di psicologia cosiddetta cognitiva hanno sostenuto proposizioni identiche. Nel dominio della biologia molecolare, un autore eminente come Jacques Monod identifica a tutti gli effetti una cellula con una fabbrica chimica cibemeticamente regolata, il DNA con un programma codificato, etc. E il coNobel di Jacques Monod, François Jacob, non scrive forse, in La logica del vivenle, che d'ora in avanti saranno gli algoritmi del vivente ad essere studiati nei laboratori di biologia'? Ai margini della potente biologia molecolare, anche cene correnti della biologia teorica sostengono un 'ontologia meccanicista del vivente. Heinz Von Focrster, animatore del Biologica! Computer Laboratory• (il nome: Laboratorio di informatica biologica, costituisce già da sè tutto un programma), Henri Atlan o Francisco Varela, sebbene dissimili per i loro approcci e le loro conclusioni, condividono tuttavia il quadro di riferimento fondamentale del neo-meccanicismo. Perseguendo l'orientamento dato alla neurofisiologia da Warrcn Mc Culloch (senza Wttavia essere sempre coscienti della filiazione), ricercatori come Jacques Paillard o Jean-Pierre Changeux identificano decisamente il cervello con
•. Il Biologica! Computer Labora10ry, appartenente al dipartimento del genio eleurico dell'università dell'Urbana (Illinois), ha funzionato dal 1954 al 1976. Hein Von Foerster lo ha diretto dal 1958 fino alla fine. Oltre al suo direttore, numerosi ricercatori hanno contribuilo alla rinomanza del BCL, tra gli altri possiamo citare lo psichiatra cibernetico W. R. Ashby, lo psicologo Gordon Pask, i logici Gothard Gunther e Lars Lofgren e i biologi Humbcr10 Maturana e Francisco Yarela. I lavori del BCL vertevano sulla logica, l'epistemologia, la cibernetica di "second'ordine" (auto-organizzazione) e l'intelligenza artificiale.
una macchina e i neuroni con dei processori d'infonnazione. Beninteso, ciò non significa che il cervello rassomigli punto per punto a un elaboratore. Al contrario ne differisce in gran parte. Ma un sistema di trattamento dell'informazione può pure auto-organizzarsi, funzionare in parallelo, in modo probabilistico e senza distinzione precisa tra logico e materiale, ma non per questo i processi che vi hanno luogo non sono dei calcoli. I successi dell'ontologia compulaZionale sono particolannente sol]lrendenti in biologia molecolare, in neurologia e in psicologia cognitiva. Ma altre discipline, come la fisica, sono ugualmente in causa. Citiamo la conclusione di un articolo recente del fisico Stcphen Wolfram: I ricercatori utilizzano l'elaboratore da non mollo tempo, ma l'infonnatica ha già modificato lo studio dei fenomeni naturali: oggi si studiano fenomeni molto più complessi di quelli che potevamo anche soltanto immaginare nel passalo, e il tipo di concelli e di oggelti studiati è cambiato in ragione dello strumento u1ilizzato: l'elaboratore. Tuuavia, il cambiamento è ancora più fondamenlale, perché una nuova forma di pensiero scientifico è apparsa. Onnai si considerano le leggi scientifiche come degli algoritmi e molti di questi algorilmi vengono studiati sull'elaboratore; d'allra parte, si considerano i sistemi fisici come sistemi informatici che tranano l'informazione alla maniera degli elaboratori.
Il lettore noterà il passaggio dalla metodologia all'ontologia. Come abbiamo visto, il neomeccanicismo è anteriore all'uso massiccio degli elaboratori nella ricerca scientifica e risponde a certe esigenze teoriche di intelligibilità dei sistemi stabili, della vita o dei comportamenti intelligenti. Ma, se il neomeccanicismo non si spiega unicamente con l'uso degli elaboratori, quest'ultimo certamente Io rafforza. Per altro, un universo fisico pensato come un gigantesco trattamento di dati e una cognizione fonnalizzata come un calcolo rinviano l'uno all'altra, offrendo la prospettiva di una filosofia naturale unificata e coerente. Il fatto che il mondo sia conoscibile diviene comprensibile dal momento che un calcolo può simularne un altro, e l'esistenza di sistemi cognitivi perde la sua stranezza proprio all'interno di un universo onnicalcolante.
Riorganizzazioni nelle scienze Benché abbia la vocazione di divenire il paradigma dominante, il neomeccanicismo è evidentemente contestabile e contestato. Sottolineamo che la posta del dibattito non è soltanto metafisica. Implica anche le scelte dei problemi e degli oggetti privilegiati, così come l'uso preferenziale di certi
85
86
fonnalismi matematici. Per quanto riguarda i formalismi matematici, è chiaro che gli strumenti del continuo e della geometria, come quelli proposti dalla teoria delle catastrofi, per esempio, male si inseriscono nel quadro del neomcccanicismo. I metodi di simulazione numerica, per contro, sono molto spesso congruenti con la comprensione dei fenomeni in termini di calcolo, in particolare in psicologia cognith'a. Per quanto riguarda le scelte dei problemi e degli oggetti privilegiati, segnaliamo, per esempio, il relativo declino dell'embriologia a partire dalla Seconda Guerra mondiale, declino che riguarda forse le difficoltà incontrate da questa disciplina, dì tradizione organicista, nel rifonnulare le sue domande nei termini del neomeccanicismo. Se la biologia molecolare ha assunto come oggetto di studio privilegiato il batterio, è proprio perchf il meccanismo cellulare di sintesi delle proteine a partire dall'informazione genetica è universale, essenzialmente identico nell'ameba e nell'elefante. La comparsa del cognitivismo calcolante ha ridistribuito la configurazione teorica così come i rapporti di forza istituzionali in psicologia: declino del behaviorismo e marginalizzazione della Gestalt-Psychologie. Molti classici problemi di psicologia, come l'apprendimento o la percezione, sono stati tradotti in termini di risoluzione di problemi, che si prestano particolarmente bene alla formulazione algoritmica. Il nuovo meccanicismo è spesso sensibile agli argomenti dei suoi avversari, in special modo in psicologia cognitiva; per questo, non deve essere considerato come un insieme di teorie chiuse e fissate che regna incontrastato sulla comunità scientifica. Ciò non toglie che esista senz'altro un programma neomeccanicista. Ed è necessario constatare come il dibattito scientifico e filosofico tenda sempre più a polarizzarsi intorno ai problemi e nel linguaggio che il neomeccanicismo è riuscito ad imporre.
Calcolo e processi Il daJo e il costruito Abbiamo citato sopra la frase in forma di manifesto di Stephen Wolfram: "Si considerano ormai i sistemi fisici come sistemi informatici che trattano l'informazione alla maniera degli elaboratori". Unii simile dichiarazione è senza dubbio l'espressione di una corrente soltanto marginale tra i fisici contemporanei. Ma questo modo di vedere potrebbe espandersi rapidamente, favorito non soltanto dall'uso crescente delle simulazioni numeriche nella ri-
cerca, ma anche dall'emergenza di una cultura in cui gli elaboratori costituiscono il principale riferimento intellettuale. Come non essere tentati, in effe11i, dall'analogia tra la natura, le sue leggi e gli esperimenti montati dagli scienziati, da un lato, e i micromondi numerici, gli algoritmi che li regolano e le simulazioni generate dai ricercatori, dall'altro? Cos'è che distingue la natura, nella quale siamo nati, dal modello informatico, che noi costruiamo? Il mondo reale è, beninteso, più grande e più complicato del micromondo numerico. Ma ha a suo svantaggio il fatto di essere governato da leggi fisse, mentre si possono simulare quanti piccoli ipotetici universi si desideri. In questa visione delle cose, la realtà fisica è percepita come un immenso data processing, un calcolo dalle dimensioni dell'universo. Qual'è lo statuto di questo sequestro del reale? Non si tratta né di un rappono immediato con i fenomeni (i puri e semplici dati dei sensi), né della costituzione di concetti o di oggetti scientifici, operazionali per definizione, e di relazioni riproducibili tra delle misure. Abbiamo piuttosto a che fare con l'immagine delle cose mediata da un'intelligenza culturalmente informata. Si tratta dei fenomeni quali si danno prima della formalizzazione scientifica, ma già organizzati, già messi in scena. Quando Poincaré, per esempio, in la Valeur de la science, scrive che, per dare tutte le condizioni di un fenomeno che si produce all'istante t+dt, occorrerebbe descrivere lo stato dell'intero universo all'istante 1, egli non si pone su un piano strettamente scientifico. La fisica moderna, in effetti, non considera eventi singolari (che implicano la situazione di tutto l'universo a un istante dato), ma classi di fenomeni, le cui proprietà costitutive sono associate a osservazioni riproducibili. Se un fisico dichiara che un fenomeno considerato nella pienezza del suo spessore concreto non ha praticamente alcuna possibilità di riprodursi esattamente una seconda volta, neppure lui enuncia una legge scientifica. L'interazione universale e la singolarità del divenire appanengono a una messa in scena prescientifica dell'essere, ma che si alimenta di rappresentazioni provenienti dalla scienza e controlla in parte la costituzione degli oggetti scientifici. Si tratta di fatto di una metafisica implicita. Un aristotelico non crederà all'interazione regolata di tutte le parti della realtà fisica, uno stoico sarà persuaso dell'eterno ritorno di tutti i fenomeni negli infiniti dettagli della loro complicazione. Questa rappresentazione del mondo qualitativamente determinata corrisponde, se si vuole, ai "principi sintetici della ragion pura" di Kant. Soltanto che il filosofo di KOnigsberg rapportava tutti questi principi a un soggetto trascendentale eterno, mentre noi li attribuiamo a dei soggetti storici immersi nella loro epoca e nella loro cultura. Quando si assume che i sistemi f1Sici trattino dell'informazione, ossia che calcolino, si
87
88
adotta automaticamente una metafisica implicita, una certa rappresentazione di ciò che le cose sono. Per certi nspelli, la metafisica del calcolo è totalmente nuova, sebbene, per nitri, prolunghi un'antica tradizione meccanicista. La nostro ambizione non è di confutare il neomeccanicismo, ma, prendendo sul scrio l'idea che il divenire fisico sia un calcolo, di mettere in evidenza alcune implicazioni della metafisica computazionale. Dopo i lavori di G!idcl, Turing, Church, Kleene e Post, degli anni 193019-i0, disponiamo di definizioni rigorose di che cosa è un calcolo, di ciò di cui è capace e dei suoi limiti. La teoria degli automi, la teoria delle funzioni ricorsive, in pieno sviluppo da qualche lustro, producono ogni anno la loro messe di teoremi. Il calcolo è un ogge110 dalla matematica e dell'informatica fondamentale. La teoria del calcolo è interamente dedu11iva. Notiamo fin da ora l'operazione che consiste nel pensare un dato naturale, per esempio l'aonosfera terrestre e la moltitudine delle sue meteore, nella forma di un oggetto costruito. Lo strato gassoso che circonda il nostro pianeta calcolerebbe i climi, le nuvole, la neve e le isobare in funzione della rotazione della terra, dell'energia ricevuta dal sole e del suo siato anteriore. Ma la meteorologia è forse una scienza deduttiva? Evidentemente no, dal momento che l'osservazione vi gioca un ruolo preponderante. Il dato atmosferico può essere compreso in cento modi differenti, come un insieme di fenomeni immediatamente sensibili (una tempesta, un bel tempo chiaro) o come una combinazione di misure di pressione, di temperatura e di igrometria. Può essere considerato a breve termine (passaggio di una perturbazione) o nel lungo periodo (clima oceanico). I calcoli necessari alla previsione del tempo possono essere eseguiti su tutte le scale di precisione immaginabili, e potrebbero in linea di principio integrare un'enorme quantità di falli e di misure, dalla configurazione astronomica fino al volo di una libellula passando per la superficie variabile delle foreste, dal momento che ogni evenlO dell'universo ha un suo ruolo possibile nell'evoluzione del tempo. Se affermiamo che l'atmosfera calcola, allora su quale scala tale calcolo si svolge? La computazione, in senso streuo, definisce una scala di descrizione unica: quella dei simboli e delle operazioni elementari. Per questo, anche se raffiniamo la precisione dei dati quanlO si vuole, troveremo sempre un livello di descrizione più serrato. Per esaustivo che sia il nostro algoritmo, potremmo sempre costruirne uno che tenga conto di nuovi de11agli. Si dirà allora che la "compulaZione naturale" è il limite all'infinito di una serie di algoritmi sempre più precisi ed esaustivi? Supponendo che tale limite esista, ciò implicherebbe un salto nel continuo che farebbe perdere al calcolo proprio la sua essenza discreta e finita. Cosl, la discontinuità fissata del calcolo lascia cadere dalle sue maglie gli infiniti dettagli della realtà naturale. Ma questa realtà sfugge alla sua algoritmizzazione anche verso l'alto, lungo
la scala graduata dei livelli di descrizione. Douglas Hofstadter confronta l'atmosfera terrestre alla struttura "materiale" di un elaboratore e il tempo che ra, alla struttura logica. li movimento simultaneo delle molecole gassose è
identificato al "linguaggio-macchina", ossia al livello di descrizione più decomposto e più fine possibile, mentre nebbie, cumulonembi, uragani, stagioni e alisei vengono assimilati al "linguaggio-evoluto", ossia a un livello di descrizione più globale e composto. Hofstadter suggerisce che l'utilizzazione di un livello di descrizione intermedio (piccole trombe, raffiche, etc.) permetterebbe di meglio prevedere il tempo. Il confronto del celebre filosofo dell'intelligenza artificiale soffre di due difetti che toccano la distinzione e l'omogeneità dei livelli. I linguaggi di programmazione di differenti gradi di composizione sono relativamente isomorfi, si traducono e si inglobano l'un l'altro. Un filo deduttivo lega un'istruzione in Basic a un trasferimento di bits in qualche registro della macchina. Ù\ spiegazione dei tornadi e quella dei periodi glaciali, per contro, riguardano parametri e meccanismi affatto eterogenei; non vi troviamo l'omotetia interna, il conglobamento ricorsivo di strutture similari così caratteristici dei rapporLi tra linguaggi di programmazione. Inoltre, i livelli dei linguaggi di programmazione sono perfettamente distinti e compartimentali, cosa che non sembra accadere nei fenomeni atmosferici. I due, tre, quattro o cinque piani interconnessi di un calcolo automatico sono evidentemente costruiti da noi in ogni parte e sono dunque i livelli reali. Al contrario, i livelli di descrizione dei fenomeni naturali vengono scelti tra lo sfogliamento infinitamente differenziato di tutte le scale possibili, lungo una gradazione continua di livelli, oppure, il che è praticamente lo stesso, vengono ritagliati all'interno di un 'unità naturalmente indivisa. Si potrà comunque affermare che il grado al quale scegliamo di focalizzare la nostra visione non è totalmente arbitrario. I vortici, le nuvole, gli anticicloni o i climi impongono un certo aggiustamento della nostra percezione su una scala particolare, attraverso la loro permanenza nel tempo e la loro connessione interna nello spazio. Ma, dal momento che ciascuno di questi fenomeni definisce il proprio livello, esiste una quantità indefinita di potenziali livelli "oggettivi". E soprattutto non esiste alcuna compartimentazione a separare le differenti scale, ogni fenomeno immerge propaggini più o meno importanti negli stadi inferiori e superiori, può nascere e morire in conseguenza di piccolissime perturbazioni. Il volo di una farfalla provoca uno spostamento d'aria che influenzerà un anno più tardi la totalità del tempo sulla terra. Il metereologo Lorenz ha battezzato questa sorprendente scoperta "effetto farfalla". Così, i processi naturali non possono ricondursi a un insieme di livelli costrUiti e ben distinti tra i quali intervengono algoritmi di traduzione che fanno in modo che quanto accade in allo possa dedursi da quanto avviene in basso e
89
vìce,•ersa. Occorre tentare dì pensare una continuità potenziale di livelli di descrizione quali1ativruncntc eterogenei in cui i fenomeni tracciano delle zone più o meno dense e attraverso le quali si propagano certi effetti, senza che sia possibile s1abilire chiaramente la loro appartenenza a 1alc o a tal'altra scala.
Tempo, determinismo, instabilità
90
Un calcolo consiste essenzialmente nella manipolazione e nella ricombinazione di simboli atomici. Una volla fissato l'alfabeto - e tale alfabeto è necessariamente finito -. non è possibile considerare alcun nuovo simbolo a metà strada tra due simboli iniziali. Per altro, le operazioni su questi simboli sono anch'esse discrete. Le tappe del calcolo sono discontinue. Tra uno stato del calcolo e lo stato immediatamente successivo, non è possibile determinare alcuno stato intermedio. La differenza con il semplice movimento di una molecola di ossigeno, evidentemente continuo, colpisce a prima vista. Se pure adottassimo una metafisica discontinuitista, saremmo per lo meno forzati ad ammettere che molti processi fisici si lasciano descrivere adeguatamente solo da funzioni matematiche continue. Ora, la continuità suppone l'esistenza di differenze infinitamente piccole. Sappiamo, almeno fin da Maxwell e Poincaré, che una variazione piccola a piacere nelle condizioni iniziali di una dinamica fisica può avere delle ripercussioni estremamente grandi sul suo corso ulteriore. Dal momento che una misura infinitamente precisa è fisicamente inattuabile, i processi instabili o sensibili alle condizioni iniziali sono praticamente indeterminati, come l'auditore dei bollettini metereologici ha spesso potuto accorgersi. L'algoritmo e i dati che determinano il corso di un calcolo, per contro, possono essere conosciuti con precisione infinita. Lo svolgimento di un calcolo è interamente e praticamente determinato dal l'ordine delle istruzioni e dalla serie di caratteri inscritti fin dall'inizio sul nastro della macchina. Ciò non significa che sia sempre prevedibile. Conoscendo il programma e l'insieme di simboli sui quali esso deve operare, non è sempre possibile, per esempio, predire dopo quanto tempo il calcolo terminerà, o addirittura se mai terminerà. Ciononostante esso è praticamente determinato perché, dato un calcolo, è sempre possibile programmarne un secondo che si comporta esallamente come il primo. È proprio questa riproduzione delle "stesse cause" per ottenere gli "stessi effetti" che non può essere sempre ottenuta nel caso dei processi instabili. Occorre distinguere chiaramente determinismo e predicibilità. Il determinismo postula che, dato lo stato di un sistema (generalmente: l'universo) ad un
istante t, lo stato di tale sistema in ogni istante successivo risulti detenninato. La prcdicibililll riguarda la possibilità di prevedere effettivamente l'evoluzione di un sistema qualunque. Le due nozioni sono relativamente indipendenti. Supponiamo, per esempio, che il libero arbitrio esista realmente, o che un universo parallelo esattamente analogo al nostro si metta improvvisamente ad evolvere in modo diverso. Le stesse cause potrebbero allora produrre effetti differenti. Dunque non vi sarebbe determinismo assoluto, o meglio non vi sarebbe determinismo affatto. Ciò non ci impedirebbe di prevedere il ritorno del sole per domani mattina. Supponiamo, al contrario, di vivere in un universo veramente detenninista. Certi fenomeni, come il tempo che fa, resterebbero comunque imprevedibili, non perché sarebbero fondamentalmente indeterminati, ma perché, se volessimo determinarli praticamente, occorrerebbe una conoscenza infinitamente precisa su un numero gigantesco di variabili, dunque umanamente inaccessibile. La conoscenza pratica dovrebbe allora distribuire i sistemi in funzione della loro instabilità, distinguere le zone di prevedibilità variabile, differenziare i domini a seconda che l'imprecisione implichi maggiori o minori conseguenze. Di fatto, non sappiamo se l'universo sia detenninista o meno, e nessun dispositivo sperimentale immaginabile è in grado di decidere tra l'una e l'altra ipotesi. Né il determinismo né l'indeterminismo assoluto sono quindi proposizioni scientifiche. Per contro, l'indeterminismo pratico dei sistemi instabili resta in entrambi i casi inerente alla finitezza umana. Se si pretende che un sistema fisico tratti l'infonnazione, e dunque che il processo di cui tale sistema è sede sia assimilabile a un calcolo, ci schieriamo, che lo si voglia o meno, sotto l'insegna metafisica del determinismo, poiché la macchina di Turing è detenninista per costruzione. Beninteso, dal fatto che sia possibile concepire una macchina interamente detenninata, non ne segue in alcun modo che tutta la realtà possa essere legittimamente pensata nei termini del suo modello. NeJl'ordine deJla computazione, ciò che intuitivamente si avvicina di più ali 'instabilità dei processi naturali è il calcolo irriducibile. Ricordiamo che la successione degli stati di un automa che effettua un simile calcolo può essere conosciuta soltanto attraverso la simulazione integrale del calcolo stesso. Non esiste alcun algoritmo "più rapido" che permetta di prevedere l'evoluzione dell'automa. Ma, quando diciamo: "più rapido", va inteso: "che comporta un numero inferiore di passi si calcolo". Non si tratta di velocità fisica ma logica. Naturalmente, se lo stesso algoritmo irriducibile fosse eseguito su una macchina lenta e su una macchina rapida, l'osservazione deJl'automa veloce pennellerebbe di prevedere una parte sempre più ampia
91
dell'evoluzione dì quello tardivo. Notiamo come un simile confronto sia assolutamente impensabile nel caso dì un sistema fisico instabile, dal momento che nessun :irtilicìo potrebbe accelemre il processo naturale senza nello stesso tempo trasformarlo. Ma è dal punto dì vista della produzione d'informazione che la dìITercn1~'\ diviene più radicale. Che un calcolo sia riducibile o meno, esso sì limita comunque a condensare, sviluppare, svolgere, spiegare o esprimere l'informazione già contenuta nell'algoritmo e nei dati che Io comandano. Dal punto dì vista della teoria dcli' informazione, un calcolo non produce il seppur minimo bit d'informazione. (Anche se può eliminarne: è più improbabile 2 + 3 + 4 che 9.) Il calcolo traduce o distrugge il messaggio veicolato da un insieme di simboli secondo le istruzioni di un programma. Il processo naturale, invece, allunga senza posa, in ogni istante, incs:111ribilmente, il testo di un messaggio infinito. Lo scano seletti,·o di svariate dimensioni dei fenomeni naturali che sempre accompagna la costituzione degli oggelli scientifici è una cosa. La metafisica secondo la quale potremmo pensare il divenire fisico come computazione è un'altra. La prima è inevitabile, la seconda può essere Iegi11imamente rifiutata. Chiamare trattamento dell'informazione un processo naturale, significa appiattire il dato sul costruito; significa postulare la traduzione trasparente da un livello di descrizione all'altro quando invece tulio ci indica un 'eterogeneità da esplorare; significa ritornare surrettiziamente al determinismo Iaplaciano quando invece la scienza contemporanea ci invita al discernimento delle instabilità e alla scoperta di un tempo creatore.
Calcolo e metodo Un nuovo rapporto con r esperienza 92
La pratica della simulazione su elaboratore si estende nei campi più diversi:
matematica, fisica nucleare, astrofisica, cosmologia, metereologia, sismologia, chimica, avionica, gestione, economia, demografia, storia, etc. Uno dei primi effetti dell'uso della simulazione numerica è quello di conferire un ca-
rau.cre sperimentale a discipline che non Io possedevano, come la cosmologia o la demografia. II cambiamento è essenzialmente pratico. In effetti, niente avrebbe impedito ai ricercatori in astrofisica o in storia economica di formalizzare insiemi di relazioni logiche esplicite tra variabili, di far variare sistematicamente i differenti parametri per studiare il comportamento del modello, quindi di confrontare i risultati con il fenomeno osservalO. Ma prima della comparsa degli elaboratori, questa possibilità urtava su una impraticabilità di fatlO, il minimo calcolo appena più complicato poteva occupare per anni
un 'equipe di provetti matematici.
Naturalmente, le simulazioni numeriche non sono veri e propri esperimenti, poich6 non vertono sui fenomeni ma soltanto sui loro modelli. Occorre tuttavia notare che già l'esperimento scientifico classico opera una forma di idealizzazione, di purificazione e di costruzione artificiale del suo oggetto. Possiamo dunque considerare la simulazione numerica come un grado supplementare nell'artificio orienlato al controllo e alla purificazione del fenomeno. La simulazione numerica permette di testare delle ipotesi molto più facilmente che auraverso la semplice osservazione dei fenomeni, sui quali il ricercatore scientifico è incapace di agire. La pratica della simulazione pone il modellista nella necessità di esplicitare e di giustificare le scelte delle sue variabili oltre che di formulare una descrizione quantitativa precisa delle supposte relazioni di causa-effcuo. La "testabilità" delle ipotesi e la formalizzazione rigorosa dei modelli avvicina fonementc la psicologia, l'economia, la sociologia e la storia alle scienze esatte, almeno sul piano metodologico. Nelle discipline, come la fisica, che hanno tradizionalmente accesso alla sperimentazione, la simulazione numerica aggiunge un terzo termine alla teoria e ai risultali empirici. In questa nuova configurazione, l'attività teorica consiste non tanto nel rendere conto di tuui i risultati, quanto nel selezionare quei modelli che possono avere un significato fisico. Qui, il reale viene compreso praticamente come un modello tra una proliferazione di modelli possibili, mentre la vecchia fisica doveva partire unicamente da risultati reali per rintracciare un modello soggiacente che li rendesse coerenti. Certamente, l'esperimento teorico e l'immaginazione di modelli possibili hanno sempre fatto parte dell'attività scientifica. Ma resta il fallo che l'elaboratore trasforma l'esperimento teorico, da bricolage artigianale quale era, in impresa sistematica su vasta scala. Una delle modificazioni più curiose legate all'uso delle simulazioni numeriche è quella che si può osservare oggi in matematica. Considerata tradizionalmente come il regno della deduzione, essa sta assumendo a sua volta un carattere sperimentale. Simulazioni numeriche di oggetti matematici possono infirmare, confermare o far nascere delle congetture. La congettura tuttavia diviene teorema soltanto una volta che sia stata dimostrata. Proprio qui incontriamo i limiti del calcolo, dal momento che i dimostratori automatici non hanno ancora dimostralo alcun teorema significativo che non sia stato già dimostrato da un matematico in carne cd ossa. Ora, in matematica, soltanto la dimostrazione chiarisce e rende ragione a un teorema. Il calcolo lascia prevedere, suscita ipotesi, da maggior peso a certe congeuurc, ma non spiega. La straordinaria potenza di calcolo statistico e di analisi dei dati offerta dal! 'informatica si coniuga alla simulazione per rafforzare il carauere empirico e induttivo della ricerca informatica. L'analisi delle corrispondenze,
93
l'analisi in componenti principali, l'analisi fauoriale, i programmi di classificazione automatica, così come numerosi altri metodi statistici nati con l'infonnaùca, consentono trattamenti estremamente complessi su masse enormi di d:lù che resterebbero muti senza gli elaboratori. Alla potenza del calcolo staùstico propriamente dello occorre aggiungere gli sforzi di messa in scena visuale dei risultaù attraverso le immagini sintetiche, che perrneuono al ricercatore di comprendere in forma sensibile immensi tabulati di cifre altrimenù illeggibili. limiti della sinudazione munerica
94
In che modo un calcolo, per essenza discreto, può simulare adeguatamente un processo continuo'? In Le Ca/cui, l'lmprévu, Ivar Ekeland porta l'esempio dell'uno di alcune palle su un tavolo da biliardo. Se immettiamo in un elaboratore le posizioni e le velocità iniziali di tutte le palle e aspettiamo in uscita le loro posizioni e velocità a un tempo successivo, il risultato della simulazione rischia di perdere rapidamente qualsiasi significato. Questo, per due ragioni principali. In primo luogo, l'elaboratore può lavorare soltanto con un numero finito di decimali trascurando così i decimali supplementari. In ogni nuova operazione, gli errori di arrotondamento si amplificano fino a snaturare in gran pane il risultato finale. Secondariamente, il sistema rea.le è souomesso a una moltitudine di penurbazioni, che vanno dalla respirazione dello sperimentatore nella stanza fino al movimento di un nucleo d'idrogeno su AHa Centauri. Ora, queste penurbazioni divengono presto significative, al punto che il risultato del calcolo, seppure esatto, sarà nondimeno molto lontano dal risultato osservato. Sappiamo che le traiettorie delle navicelle spaziali che viaggiano verso la Luna devono essere correue ad intervalli ravvicinati in funzione della loro velocità e della loro posizione reale. Gli ingegneri della NASA sanno perfettamente che gli elaboratori, per altro estremamente potenti, di cui dispongono non possono calcolare la traiettoria esatta dei veicoli spaziali unicamente a partire dalle condizioni astronomiche e astronautiche iniziali. Un altro tipo di limite delle simulazioni numeriche riguarda la scelta del linguaggio di descrizione. Nel caso di una simulazione, le decisioni su quanto può essere pertinente per l'evoluzione del sistema studiato vengono prese tutte insieme, al momento della formalizzazione del modello. L'esperimento reale, al contrario, può sempre lasciar apparire l'importanza di un fattore al quale non si era pensato al momento della sua messa a punto. Ciò non significa che una simulazione numerica sia incapace di sorprendere il ricercatore, ma soltanto che il genere di sorprese che possono offrire la simulazione
e l'esperimento reale non sono dello stesso ordine. Il risultato di una simulazione, se pure sorprendente, era logicamente contenuto in un insieme di possibili prccodificati dall'algoritmo e dai dati. Le sorprese che sopraggiungono nel corso di un esperimento reale, al contrario, possono provocare un cambiamento nel modo di comprendere il fenomeno e condurre il ricercatore e ridefinire l'oggetto stesso del Sl(O studio. La sorpresa "reale" è in grado di aprire un nuovo campo di virtualilà. Vi sono delle discipline, come la storia, dove la legittimilà della simulazione è problematica. Una scuola di storia economica americana, la New Economie 1-/istory, ha proposto l'utilizzazione di modelli formali precisamente quantificati e simulati sull'elaboratore per studiare questioni del tipo: "Nel Sud, prima della guerra di Secessione, la schiavitù era realmente un intralcio allo sviluppo economico?" oppure: "Possiamo davvero considerare l'estensione delle ferrovie come un fattore fondamenlale della crescita americana nel XIX secolo?". I modelli messi a punto, allora, tentano di prevedere ciò che sarebbe accaduto se i proprietari terrieri avessero utilizzato salari agricoli e se si fossero svuotati dei canali per costruirvi strade piu11os10 che stendere la rete ferrata. Secondo alcuni storici tradizionali, simulazioni di 131 genere non hanno alcun senso, poiché suppongono che sia possibile far variare soltanto i fauori dei quali si vuol pesare l'importanza storica, mantenendo invariato tutto il resto. Ora, dicono gli storici tradizionali, nella storia il "mantenere invariato tulio il resto" non ha alcun senso. Sarebbe al contrario molto ragionevole pensare che, se il Sud non fosse stato schiavista, o se le ferrovie non si fossero sviluppate, un 'enorme quantilà di altri fauori di mentalità, di socielà e di economia sarebbero anch'essi stati differenti. Ciò toglie ogni valore alle conclusioni dei simulatori. I nuovi storici dell'economia rispondono che quasi Lulti gli storici utilizzano implicitamente il "condizionale irreale" ogni volla che tentano di determinare le cause di un fenomeno storico. (Se il naso di Cleopatra fosse stato più corto, allora il vallo del mondo ne sarebbe stato modificato). Invece di farlo in modo implicito, essi giudicano molto più conforme alla procedura scientifica utilizzare il "condizionale irreale" in maniera esplicita e formalizzata. È soltanto a questa condizione che le ipotesi sul peso causale di tale o tal'altro fauore storico possono essere testate. Il dibauito sull'uso della simulazione in storia maschera un fatto più profondo. Esiste un'omogeneilà di diritto delle procedure metodologiche e dei modi di spiegazione legittimi da una disciplina all'altra? Dobbiamo riconoscere un solo metodo scientifico, pronto ad essere adattalo a oggetti diversi, oppure, al contrario, bisogna ammettere un 'eterogeneità fondamentale tra gli approcci razionali a oggetti tanto diversi come l'universo fisico e il mondo storico? Se decidessimo per un'accezione unica e rigorosa del concetto di
95
cnusalità, per esempio, allora nessuno storico, economistn o psicologo potrebbe parlare di causa senza fonnalizzarc un modello quantitnti vo in cui la causa in questione si incarnerebbe nel legame funzionale lr'J alcuni parametri. Vediamo subito il rischio di sterìlìtà che una tale esigenza potrebbe far correre a molte discipline. Come quantificare il ruolo dell'immaginario sociale, per esempio? Ciò non vuol dire che la modellizzazione non sia spesso utile e legittima localmente, soltanto sarebbe nefasto fame una condizione di scientificità a priori. Gli elaboratori permettono di utilizzare strumenti statistici sofisticati, danno accesso alla simulazione di modelli numerici e contribuiscono largamente alla formalizzazione delle procedure della ricerca. Possono anche conferire un carattere inedito di rigore e di esattezza alle scienze umane. L'informatica sarebbe dunque più che uno strumento scientifico. Nel dibattito epistemologico in corso, l'elaboratore rafforza il campo del metodo scientifico unico proprio perché gli fornisce per la prima voltn i mezzi delle sue ambizioni.
Spiegare, calcolare
96
Per valutare correttamente il ruolo della simulazione numerica, è necessario distinguere accuratamente la algoritrnizzazione e la modellizzazione numerica da una parte, la matematizzazione e la teoria dall'altra. La simulazione mira innanzitutto a prevedere o a riprodurre il comportamento del sistema studiato. In intelligenza artificiale, per esempio, il calcolo serve spesso a ottenere una certa performance cognitiva, senza pretendere di ottenerla attraverso gli stessi mezzi usati dalla mente umana. Il modello soggiacente al calcolo è dunque strumentale, o operazionale, piuttosto che esplicativo. La matematizzazione di un fenomeno, per contro, ha l'obiettivo primario di elucidarc la sua struttura fondameniale, di renderla intelligibile, di mettere in evidenza i parametri pertinenti in grado di renderne conto razionalmente. La capacità prediuiva giunge qui soltnnlo come un sovrappiù, per confermare la giustezza della teoria matematica. In un certo senso, la teoria fisica di Aristotele era predittiva: il fuoco sale, la terra scende, i movimenti della sfera celeste sono regolari, etc. La teoria newtoniana, anch'essa predittiva, scopre un'altra struuura del reale: spazio omogeneo, corpi che si attraggono in funzione della loro massa e della loro distanza. La formula matematica della legge di gravitazione esprime in ogni caso la natura delle interazioni in gioco, inoltre permette persino di predire il comportamento dei sistemi semplici. Dal momento in cui tre corpi sono in gioco, la teoria matematica, benché proponga uno schema corretto, non per-
mette più di calcolare precisamente l'evoluzione del sislCma a partire dalle sue condizioni iniziali. La differenza tra calcolo e matematica riguarda anche il confronto classico tra la fisica di Newton e quella di Einstein. Sul piano del calcolo, ossia sullo sfondo di un punto di vista operazionale, la teoria newtoniana può essere considerata come un caso particolare di quella di Einstein, a meno di una piccola approssimazione. Per contro, sul piano del modello matematico che descrive la struttura della realtà fisica, le due teorie sono radicalmenlC differenti. Diciamo che, in generale, una teoria matematica non consente necessariamente di predire, e che dei calcoli, anche utilizzati e corretti a fini di predizione, possono perfcttamenlC effettuarsi senza teoria o con l'aiuto di una teoria falsa. Esiste generalmente un gran numero di algoritmi capaci di giungere allo stesso risultato. L'uso dell'elaboratore favorisce la simulazione operazionale su larga scala, la predizione e il calcolo. Anche qui, l'ideale scientifico è in gioco. Le teorie matematiche sono forse soltanto utili finzioni per faciliiare i calcoli, delle quali potremmo al limite liberarci a vantaggio di algoritmi competitivi? La scienza, invece, deve forse mirare a rendere intelligibile, a spiegare la realtà, mentre il calcolo si limiterebbe a giocare un ruolo strumentale? Il fine ultimo della scienza è l'operazione o l'interpretazione?
La formalizzazione del ragionamento scientifico L 'algoritmizzazione del ragionamento scientifico può essere considerata da due punti di vista, normativo e descrittivo. L'approccio normativo è materia della scuola logicista nelle scienze umane. Quello empirico e descrittivo è generalmente sostenuto dagli informatici. Sotto la penna di archeologi, storici o econom1su incontriamo spesso dichiarazioni del tutto esplicite sull'ideale del logicismo: ogni operazione intellettuale attraverso la quale uno scienziato passa da una collezione iniziale di dati alle sue proposizioni finali deve poter essere effettuata da un automa calcolatore. Il ragionamento è qui inteso come quell'insieme di tecniche per il trattamento dell'informazione utilizzate dal ricercatore. Per valutare il rigore di un ragionamento, la sua programmabilità è un criterio essenziale. I logici deplorano il fatto che, in numerosi lavori di scienze umane, le proposizioni presentate dai ricercatori come conclusioni valide non risultano in realtà né deduzioni logiche delle quali fossero note chiaramente le premesse, né ragionamenti induttivi probabilistici corretti a partire da serie definite di dati d'esperienza o d'osservazione.
97
98
La programmazione del ragionamento scientifico presuppone l'esplicitazione di tutte le sue tappe. Impone la tmSparcnzn, In pubblicità dei mezzi impiegati dal ricercatore. La possibilità di discussione razionale è aumentata, mentre molti errori possono essere evitati. Il criterio della programmabilità, infine, dissuade dal pubblicare quegli autori che, per convincere il leuore, contano su artifici retorici piuttosto che sulla coerenza dei loro ragionamenti e la verificabilità delle loro conclusioni. Anche la definizione dei dati iniziali può essere oggetto di una procedura formalizzata. In archeologia, per esempio, ci si guarderà bene dall'annoverare immediatamente un artefatto scoperto in uno scavo in tale o tal'altra categoria (ascia, raschietto, etc.) in funzione di un riconoscimento informale immediato. Si preferirà scomporre l'oggetto in caratteristiche elementari e . quindi affidare la sua classificazione a un programma tassonomico, o la determinazione della sua identità a un algoritmo di riconoscimento di forme. Un algoritmo non opera su dati appresi nel loro significato immediato e informale. Esso elabora soltanto i simboli della descrizione dei dati, nel senso tipografico del termine "simbolo". È per questo che la programmazione del ragionamento implica sempre, a monte, la codifica uniforme di tutte le descrizioni dei fatti. Siccome devono essere verificabili, le conclusioni dovranno, anch'esse, essere espresse in un linguaggio congruente con il codice di descrizione dei fatti. L'esigenza di un certo tipo di rigore provoca quindi una forte pressione verso la standardizzazione del linguaggio scientifico. Allo stesso modo, l'utilizzazione crescente delle banche dati e dei linguaggi documentari propende verso la normalizzazione degli idiomi scientifici, ma per ragioni diverse dal rigore logico. Una comunicazione migliore tra i gruppi, un uso ottimale delle reti teleinformatiche, la trasportabilità dei programmi, tutti argomenti in favore della standardizzazione dei linguaggi, nella prospettiva di una razionalizzazione del lavoro scientifico. La normalizzazione dei linguaggi può entrare in conflitto con la stretta logica della ricerca. Supponiamo che la proposizione ottenuta al termine di una catena di calcoli simbolici venga infirmata dai fatti. Il ricercatore dovrà allora supporre, sia che la collezione di fatti a fondamento delle sue induzioni è insufficienie, sia che una o più premesse delle sue deduzioni sono scorrette, sia, infine, che il linguaggio di descrizione utilizzato non riflette adeguatamente i parametri pertinenti per il problema da risolvere. Un linguaggio implica una teoria. Ancor più che l'uso della simulazione numerica dei fenomeni, l'esigenza di una algoritmizzazione programmabile del ragionamento scientifico accompagna una presa di posizione epistemologica in favore dell'unità del metodo scientifico. Uno degli obieuivi principali del logicismo è la metamorfosi
delle scienze umane in "vere" scienze. Quanto hanno da guadagnare le scienze umane da una formalizzazione delle loro operazioni intelleuuali? È dubbio, in particolare, che la dimensione ermeneutica o inicrprctativa della ricerca possa ricondursi interamente a dei calcoli induuivi e deduuivi, o a dei test programmabili. La formalizzazione del ragionamento scientifico può essere però considerata in un modo molto più descrittivo e pragmatico. Questa seconda via è quella
in generale adottata dagli informatici specialisti di intelligenza artificiale che cercano di costituire dei sistemi esperti che riproducano fedelmente i ragionamenti dei ricercatori. In questo caso, l'informatico non tenta di imporre una norma di scientificità allo storico o all'archeologo, ma piuuosto li conduce a rendere il più possibile esplicite un gran numero di abilità implicite e di operazioni sottintese. È raro come, attraverso questi mezzi, si giunga alla costruzione di sistemi formali decidibili e completi. Le strutture ad hoc e le regole euristiche alle quali i programmatori pervengono non garantiscono contro gli errori, le contraddizioni o le circolarità logiche, ma permettono forse di scoprirli più facilmente. Anche se i sistemi ouenuti non sono del Lutlo coerenti, la 'messa a terra' delle procedure intelletluali autorizza la loro automatizzazione effettiva, la loro moltiplicazione e la loro esportazione. Inoltre, l'esperienza della formalizzazione delle loro abilità è spesso l'occasione per una riflessione epistemologica feconda da pane dei ricercatori. Nello stato delle scienze umane, come la storia e l'archeologia, gli specialisti in intelligenza artificiale constatano che i ragionamenti sono formalizzabili soltanto a tratti, e non da un capo all'altro della catena della ricerca. Resta il fatto che rendere calcolabili zone locali del lavoro intellettuale impone gradatamente, a monte e a valle di tali zone, un accrescimento del rigore formale e una pressione verso la codificazione uniforme dei dati. Nella simulazione del ragionamento scientifico, l'intelligenza artificiale incontra lo stesso tipo di problemi teorici che nelle altre applicazioni. Affinché i programmi siano autonomi, occorrerà che essi siano capaci di apprendere e che possano rendere operante una gerarchia indefinita di conoscenze sulla conoscenza (meta-conoscenza), cosa che nessun programma è ancora in grado di fare. Per altro, le simulazioni automatizzate dei ragionamenti scientifici funzionano all'interno di una problematica fissa. Non ne conosciamo nessuna che sappia porre nuove domande, sebbene proprio questo sembra essere la principale vocazione del ricercatore. Il paradigma del calcolo porta un progetlo di "indurimento" delle scienze umane e anche di discipline come la fisica. Nel corso di una studio sulla co-
99
100
municazìone tra fisici e informatici in un centro di cnlcolo del CNRS•, Philippe Brcton ha osservato come gli informatici rimproverino implicitamente ai fisici le loro esitazioni, i loro brico/ages e le loro procedure passo-pcrpasso. Può accadere allora che gli informatici riescano a "rovesciare" un fisico, per convertirlo alle virtù dei metodi formali e generali. -Gli elaboratori possono essere utilizzati a qualsiasi scopo e, di per se stessi, non impongono alcuna filosofia particolare. Ma l'infonnatizzazione della ricerta scientifica favorisce di fatto una filosofia della scien1.a che è a un tempo induttivista, perché offre straordinarie possibilità di trattamento dei dati, snumentalista, per il ruolo crescente della simulazione numerica, e logicista, a causa delle nuove possibilità di meccanizzazione effettiva della maggior pane delle tappe del lavoro scientifico. Si dirà che l'operazionalismo non caratterizza adeguatamente questo paradigma dal momento che esiste un'ontologia computazionale e dunque un realismo del calcolo. Potremmo rispondere che tale realismo è precisamente il sequestro di una realtà integralmente operante, psichismo compreso. Bisogna dunque ammettere, a lato dello strumentalismo metodologico, un operazionalismo ontologico. Sarebbe tuttavia vano volere a tutti i costi far coincidere il paradigma del calcolo con una qualche preesistente filosofia della scienza. Il fenomeno in corso è nuovo e deve essere percepito come tale. Il neomeccanicismo, l'uso di simulazioni numeriche, la algoritmizzazione dei ragionamenti, la normalizzazione dei linguaggi e la diffusione dell'informazione attraverso banche di dati progrediscono insieme e si rafforzano l'!lUtuamentc. Per l'estensione del neomeccanicismo, il calcolo è dalla parte dell'oggetto. Per i risultati della biologia, della neurologia, della psicologia cognitiva e dell'intelligenza artificiale, il calcolo oggettiva il soggetto. Per gli effetti epistemologici dell'informatizzazione, infine, esso struttura la comunità scientifica in quanto soggetto collettivo. La mutazione propriamente epistemologica è largamente supportata dalle trasformazioni che riguardano piuttosto la sociologia della scienza. Dalla fine della Seconda Guerra mondiale, si è costituito un ciclo dinamico in cui la scienza, la tecnica, l'industria e gli armamenti sono di volta in volta fini e mezzi sull'orizzonte di una corsa planetaria alla potenza. La ricerca è sempre più programmata da istanze economiche, militari e amministrative alle quali il paradigma del calcolo fornisce il necessario strumento di decisione. Nella competizione scatenata che osserviamo nei laboratori dei paesi industriali, il · deposito di un brevetto, la scoperta di una molecola o la concezione di un
•. CNRS = Centre National de la Rcchcrchc Scicntifiquc (N.d.T.).
nuovo prodotto prima degli al1ri, dipendono spesso dalla razionalità del sistema di documentazione automatica, dalla potenza di calcolo o dalla sotti_gliezza delle strutlure logiche di simulazione di cui si dispone. L'espansione del paradigma del calcolo si appoggia su un'evoluzione sociale e istituzionale che gli è favorevole. Se allarghiamo 11ncora il noslro campo di visione, ci 1roviamo costretti a constatare che l'algoritmizzazione delle abilità individuali o collettive, la simulazione di por.doni del reale a fini di previsione e l'uso di linguaggi codificati per l'alimentazione e la consultazione delle reti di documentazione automatica non riguardano soltanto il dominio della ricerca scientifica. Senza dubbio, l'emergenza del paradigma del calcolo è soltanto il momento epistemologico di una più vasta mutazione. Con il progresso dell'informatizzazione, la predetenninazione dei possibili si sostituisce ai giochi della virtualità e dell'inventiva locale, l'ordine del calcolo e delle operazioni effettive tende a governare la sfera del senso e dell'interpretazione. Tutti segni di una biforcazione culturale fondamentale verso l'attrattore del calcolo.
101
NOTA BIBLIOGRAFICA
/02
D. ANDLER, "Le cognitivisme orlhodoxe cn question", in Cahiers du CREA, n. 9. 1986. R. ANDRÉANO, J. HEFFER (a cura di), La Nouvelle Histoire économique, Parigi, Gallimard. 1977. H. ATLAN. Enlre le cristal et la fumée, Parigi, &!. du Scuil, 1979; trad. it. Tra il cristallo e il fumo, Firenze, Hopcful Monstcr, 1986. H. ATLAN, L'OrganisaJion biologique et la Théorie de l'information, Parigi, Hermann. 1972. J.-P. BENZECRI, L'Analyse des données, Parigi. Dunod, 1973. M. BORILLO. /nformatique pour le sciences de l' homme, Bruxelles, Picrre Mardaga, 1984. P. BRETON. "DéprofessioMaliser l'informatique", Esprit, n. 8/9, settembre 1983. J.-P. CHANGEUX, L'homme neuronal, Parigi, Fayard, 1983; trad. it. L'uomo neuronale, Milano, Feltrinclli, 1985. P. DIACONIS, B. EDFRON, "Mélhodes de calculs sta1istiques intcnsifs sur ordinatcurs", in L'lntelligence de l'informatique, Parigi, Bibliothèque "Pour la Science", 1984. J.-P. DUPUY. "L'essor de la prerniùe cybemé1iquc", in Cahius du CREA, n. 7, 1986. I. EKELAND, Le Calcul, L'/mprévu. Les Figures du temps de Kepler à Thom, Parigi. Éd. du Seui!, 1984. J.-C. GARDIN, Un archéologie théorique, Parigi, Hachelle, 1979. D. R. HOFSTADTER, Gòdel, Esher, Bach: an Eternai Golden Braid, New York, Basic Books, 1979; trad. il Gòdel, Esher, Bach: un'Eterna Ghirlanda Brillante, Milano, Adelphi, 1984. F. JACOB. La Logique du vivant, Parigi, Gallimard, 1970; trad. iL La logica del vivente, Torino, Einaudi, 1971. P. LÉVY, "L'univcrs du calcul (calculer, pcrcevoir, pcnscr)", in J.-L. Lcmoigne (a cura di), Question vive: /ntelligence artificielle et Science de la cognition, Nouvelle Encyclopédic, Fondation Didcrot, Parigi, Fayard, 1986. P. LÉVY, La Machine Univers, Parigi, La Découvcrlc, 1987. P. LÉVY, "L'a:uvrc dc Warren Mac Culloch", in Cahiers du CREA, n. 7, 1986. P. LÉVY, "Willgcnstcin cl la cybcmétiquc", in Cahiers du CREA, n. 7, 1986.
P. LÉVY, "Analysc dc contcnu dcs travaux du Biologica! Computer Laboratory", in Cahiers du CREA, n. 8, 1986. P. LÉVY, "Le théatre dcs opérations", in Cahiers du CREA, n. 8, 1986. M. MINSKY, Computation: Finite and Infinite Machines, Londra, Open Univcrsity Set Book, I 972. J. MONOD, le 1/asard et la Necessité, Parigi, Éd. du Seui!, 1970; trad. it. // caso e la necessità, Milano, Mondadori, 1976. D. RUELLE, "Déterminisme et prédictibilìté", Pour la Science, n. 82, agosto 1984, pp. 58-67.
M. SERRES, 1/ermès /. La Traduction, Parigi, Éd. dc Minuit, 1974. M. SERRES, 1/ermès N. La Distribution, Parigi, Éd. dc Minui~ 1977. I. STENGERS, "Lcs généalogics de l'auto-organisation", in Cahiers du CREA, n. 6, 1986. R. THOM, Parabole e Catastrofi, Milano, Il Saggiatore, 1980. F. VARELA, Princip/es of Biologica/ Authonomy, New York, Oxford, Elsevier North-Holland, 1979. B. WALLISER, Systèmes et Modèles, Parigi, Éd. du Seui!, 1977. J. WEIZENBAUM, Puissance de l'ordinateur et Raison de l'homme, Éd. d'lnformatique, 1981. N. WIENER, Cybernétique et Societé, Parigi, UGE, 1964. In italiano, si veda Introduzione alla cibernetica, Torino, Boringhieri, 1976. S. WOLFRAM, "Les logicicls scicntifiques", Pour la Science, n. 85, novembre 1984. Segnaliamo inoltre la rivista Techno-Logos del Laboratoire d'informatique pour Ics sciences de l'homme (LISH-CNRS).
103
PROBLEMA Una chiave universale?
Daniel Andler Il conce/lo di problema dà luogo a un doppio ejfeuo di propagazione. Si propaga dapprima ali' interno delle scienze, passando dalla scienza assolutamente formalizzata - la matematica - fino ai saperi meno formalizzati (la storia per esempio, o la filosofia); nello stesso tempo, dall'essere una figura tra le tante del/' allività scientifica, il problema si trasforma in figura esclusiva o per lo meno paradigmatica: la "problematizzazione" delle scienze è in parte una realtà, in parte un ideale metodologico. Per altro, il conce/lo si propaga, indurendosi, in alcuni domini studiati dalle scienze. È così che l'intelligenza artificiale da un lato, Popper dall'altro, prendendo come oggetto di studio rispettivamente la cognizione e l'impresa scientifica, spiegano ogni attività di conoscenza in/unzione di problemi puramente oggellivi, anteriori agli sforzi impiegati per risolverli. Analogamente l'organismo e, per gli adattazionisti (si veda "Selezione naturale"), la Natura stessa, non farebbero altro se non risolvere problemi. Infine, le nostre auività pubbliche e private si riconducono anch'esse alla risoluzione di problemi. Naturalmente, una caratterizzazione del/' allivitàfondata sulla nozione di problema può essere completa soltanto in presenza di un concetto di soluzione. Ora, nel suo movimento verso una formalizzazione sempre più spinta, il pensiero al/uale tende a ridurre la soluzione, e la risoluzione, al calcolo (risultato e attività), riservandogli appena una certa diversità -quella dei modi di calcolo o di trattamento dell'informazione (si veda "Il paradigma del calcolo"). Queste concezioni, almeno nel caso dell'uomo, non sono prive di effetto autorealizzatore. Da qui la particolare importanza di una valutazione delle diverse/orme di "panproblematismo". Ma I' oggeuività o la predeterminazione del problema è solo rela"tiva; considerata come assoluta, è soltanto un'illusione. li problema sembra inaggirabile soltanto nel contesto che esso stesso ha creato; la sua pertinenza è assicurata solo in modo tautologico, misurata con il metro di pertinenza che
105
esso stesso instaura. Ciò non implica affatto e/re l'atto di porre un problema sia interamente arbitrario: il contesto anteriore può, in una certa, persino grande misura, preparar/o, istituendo un ordine, creando un'intelligibilità portatrice di certe anticipazioni (vedi: "Ordine"). Ma/' adeguamento del problema ali' oggetto in questione non è garantito, ed è proprio quando manca che è passibile parlare di effetti di complessità (vedi "la complessità: effe/lo di moda o problema?"). Dobbiamo allora constatare e/re la risoluzione di problemi, per quanto difficili essi siano, non è sufficiente a far luce sul'oggetto considerato. Si potrebbe pensare che sia un altro problema, il "meta-problema" della scelta del "buon" problema, ad aver ricevuto una soluzione inadeguata. Ma la lezione della scoperta della complessità sta precisamente ne/fatto di esserci convinti e/re non esiste il "buon problema", o per lo meno che non ne esiste uno e/re sia unico o privilegiato. La scelta del problema non è un problema; resta irriducibilmente una scelta. Proporre il problema oggellivo come concetto esplicativo fondamentale equivale in fin dei conti a prendere il comportamento come istanza significativa esclusiva. Il problema oggellivo diviene l'ambiente nel quale si tra/la di studiare il comportamento dello scienziato, o del/' intel/ello, o de/l'organismo, o della Natura, o dell'uomo nella sua pratica - comportamento che si riconduce alla ricerca di soluzioni. Così, si compie, una volta ancora (vedi: "Comportamento" e"Transfert" ), l'operazione di eliminazione della soggellivitd.
106
Sia che si tratti delle scienze, della filosofia, della politica o della vita quotidiana, i problemi giocano un ruolo essenziale. Dovremmo, per questo, ammeuere che "soltanto i problemi contano", come spesso sentiamo dire? Tuuo dipende da cosa si intende per "problema". Esiste un "panproblematismo" puramente verbale, che consiste nell'impiegare il termine "problema" in modo vago, per indicare indifferentemente la difficoltà, l'ostacolo, la resistenza incontrata, o semplicemente il compito da svolgere. La massima in questione riveste allora l'aspeuo di un truismo, o forse di una professione di fede vagamente hegeliana. Non mi interesserò di questa forma di panproblematismo, non più di quanto decreterò le regole del buon uso della parola "problema". Scorrendo le pagine di questo volume la si incontrerà, più volte, nel suo senso più lato; intorno a sè, ognuno può continuamente trovarne degli esempi. Senza dubbio ciò è sintomatico di un certo stato di spirito. Ma niente sarebbe più vano che voler legiferare in materia, dal momento che la posta in gioco tanto epistemologica che pratica, a questo livello, resta inafferrabile. Accade altrimenti quando si voglia conservare alla parola "problema" un
senso preciso, attribuendole un 'estensione che sia, da un ceno punto di vista, naturale. In questo caso abbiamo a che fare con un panproblematismo sostanziale. Per misurarne la portata, occorre dapprima caratterizzare l'impiego ristretto del termine, quello sul quale non vi sono dubbi, poi esaminare a quali aspetti di tale carauerizzazione bisogna sorvolare quando si voglia far svolgere al problema un ruolo preciso, infine valutare il valore delle descrizioni dei domini o delle attività nelle quali esso gode di uno statuto di esclusività. Cominceremo dunque con il tentare di precisare le condizioni di applicazione del concetto di problema preso in senso stretto: un conceuo metodologico legato a una figura particolare di soggettività, inscritta tanto nella temporalità di un progresso razionale e quanto nella spazialità di un contesto fissato, prestandosi con ciò ad una oggettivazione e ad una riproduzione senza residui. Vedremo come l'orizzonte nel quale si sviluppa naturalmente il problema sia una rappresentazione esplicita a carattere formale - un orizzonte che tende a costituirsi in ideale epistemologico. Suggeriremo che le branche del sapere, puro come pratico, siano implicitamente gerarchizzate in funzione della loro distanza da tale ideale: le più problematizzate figurando da modello. Evocheremo a tale proposito una forma di panproblematismo metodologico che consiste nello sforzo di ricondurre l'attività scientifica alla risoluzione di problemi, per stimolare i ricercatori e favorire la discussione critica. In un secondo tempo, esamineremo i tentativi fatti nei differenti domini di attribuire alla nozione di problema, o di problem-solver, un ruolo esplicativo privilegiato: la cognizione umana (nel programma dell'intelligenza anificiale e della psicologia cognitiva), lo scienziato e l'organismo (nell'epistemologia oggettivista di Popper e nell'epistemologia evoluzionista), l'evoluzione stessa (nel programma adattazionista), infine l'uomo nella sua pratica pubblica e privata sono visti come tanti problem-solvers. Tenteremo di mostrare i limiti di tali prospettive, evocando la possibilità di un'altra concezione, secondo la quale, in ognuno di questi domini o per ciascuna di queste funzioni, l'attività interpretativa prevale sulla risoluzione di problemi.
Ciò che è proprio del problema Caratterizzazione del problema Ba/lein, gettare. Il problema è ciò che si getta davanti (pro) a sè, come il pallino delle bocce, il tema proposto alla discussione, la questione che si pone, il compito che si assegna. Il problema è dunque fondamentalmente soggettivo, è immediatamente problema-per-me. Sulla mia strada è posto
107
108
l'ostacolo, poiché sono io che ve l'ho posto; meglio, ho definito la mia strada come quella che deve passare per l'ostacolo. Avrei potuto lanciare la pallina altrove, o non lanciarla nlTauo: il problema deve la sua esistenza alla mia decisione di crearlo, o di riconoscerlo come tale. In modo non meno immediato che dalla soggettività, il problema è caratterizzato dalla temporalit.'1: il problema chiama una soluzione, che non può essere soluzione se non giunge dopo. Prima la pallina, poi la boccia. La freccia del tempo è inscritta nel problema. Lo abita, anche la soluzione non esiste, a condizione tuttavia che tale inesistenza non appaia fin dall'inizio: non si pone un vero problema domandando un cerchio quadrato - si crea soltanto una difficoltà, si provoca un dramma. Il vero problema porta in sè la premessa o la speranza di una soluzione. Il tempo si inscrive nell'intervallo tra la promessa e il suo esaudimento, tra l'apparizione del problema e la sua scomparsa sotto l'effetto della soluzione. Questo intervallo resta indefinito fintanto che la soluzione resta da trovare, ma è orientato, è un ritardo. Dallo stato in cui mi trovo quando l'ostacolo è di fronte a me a quello a cui pervengo quando lo lascio alle mie spalle, la trasformazione è irreversibile. Di tale irreversibilità, è testimone un altro fenomeno. Un problema ammette, se non una soluzione unica, almeno un unico insieme di soluzioni (insieme che costituisce, in un ceno senso, la sua unica soluzione). Una soluzione è, al contrario, sempre soluzione di un'infinità di problemi. Quando, nella foresta, si gilmge a un crocevia, difficilmente si può ritornare sui propri passi: visto dal crocevia, il sentiero dal quale siamo sbucati non si distingue più dagli altri. Il terzo tratto distintivo del problema è ciò che potremmo chiamare, per riguardo all'etimologia, ma forse in maniera un po' ingannevole, la sua spazialità. (Cosa di più spaziale di un geuo, di un pro-getto, di una proiezione?) Il problema non nasce dal nulla, ma da uno spazio. Nell'immagine della pallina, questo spazio non sarebbe tanto l'area del gioco quanto piuttosto l'insieme delle regole del gioco, insieme all'interpretazione che ne viene data nell'ambiente di giocatori in questione. In modo generale, un problema sopraggiunge soltanto in un contesto fissato. Cambiare contesto - che può verificarsi ad esempio nella ricerca di una soluzione - comporta la riformulazione del problema, ossia la posizione di un problema differente, sebbene senz'altro connesso. Questa - la presenza di un contesto determinato - è senza dubbio la meno apparente delle tre caratteristiche che, a mio parere, connotano in modo congiunto la nozione di problema intesa in senso stretto. Tuttavia, mi sembra non soltanto giusta ma di un'importanza capitale. È grazie al contesto che il problema, inizialmente soggettivo per essenza, acquisisce un'esistenza oggettiva; inizia ad esistere in quanto oggetto osservabile indipendentemente
dal soggetto che ne provoca la comparsa. L'ostacolo che quest'ultimo aveva posto lungo la propria strada può, nel contesto, essere interpretato da chiunque, ovvero posto da chiunque sulla propria strada. Così, se consideriamo il problema del mio dentista - guarire il mio dente-. è chiaro che ogni altro dentista può appropriarsi dei suoi tennini, se pure unicamente nel contesto delle finalità e delle tecniche dell'arte dentaria. La catena virtuale dei dentisti costituisce così il problema i cui termini sono: guarire il mio dente; è un'entità intersoggettiva nella quale il problema iniziale viene riassorbito senza residui. Non è questo il caso della mia sofferenza, di cui resta, in mia assenza, soltanto una pallida descrizione, un riflesso poco fedele. Inversamente, un problema oggeuivato fa nascere a sua volta dei problemi (soggettivi), che sono quelli incontrati dai soggeui quando vogliano appropriarsene. La sua esistenza dipende d'altronde da questa possibilità di appropriazione. Il mio dente da guarire diviene il problema del dentista che ho consultato, e il "da guarire" contraddistingue il ruolo del dentista; i miei denti, al contrario, o la loro lenta distruzione, non dipendono da alcuna appropriazione soggettiva (almeno quando ci si attenga al realismo del senso comune). Vi è dunque una tensione pennanente, un potenziale di conversione bilaterale tra problema oggeuivato e problema soggettivo. La stessa dualità si stabilisce su un piano temporale, e per le stesse ragioni. Se il problema soggeuivo nasce e muore, in un decorso unico e irreversibile, il problema oggettivato ritorna eternamente, si ripete indefinitamente. Infatti, se, dalla soluzione, sappiamo risalire al problema, niente impedisce di ripartire dal problema come se la soluzione non fosse ancora comparsa. In tal senso, possiamo dire che il problema, soggettivamente abolito dalla soluzione, le sopravvive oggettivamente'. Ed è proprio perché il problema può essere afferrato, formulato, indipendentemente dal fallo che si sia posto inizialmente a me, che esso sopravvive alla sua soluzione: nella misura in cui è anche oggeuivo, o intcrsoggettivo, esso è anche ripetibile o atemporale. Il problema è dunque, in fin dei conti, affeuo da una doppia ambivalenza: oscilla tra soggettività e oggettività, tra temporalità e atemporalità. Combinando i due aspcui, potremmo parlare di storicità e di astoricità del problema, cosa che tra l'altro aprirebbe la porta a una moltitudine di possibilità, dal soggeuo unico e dall'evento singolare a un estremo, lino al soggeuo univer-
•. In un allro senso, siamo tentati di dire precisamente l'inverso: il problema può essere oggeuivamente "regolato" - per esempio, una congeuura matematica risolta da una prova della sua validità - pur continuando a sussistere soggettivamente - per esempio perché la dimostrazione è troppo complessa per essermi pienamente comprensibile.
/09
sale ed nlln trnccin etemn nll'nltro estremo, passando per i gradi crescenti di intersoggetùvità e di nstrnzione temporale. La lingua rifiuta di risolversi: non vi sono due termini dei quali l'uno corrisponderebbe nl problema soggeuivo, al problema-domanda, e l'altro al problema oggctù\'O, al problema-enunciato; dove quest'ultimo indica, secondo i casi, l'equazione, la congcuura, l'insieme delle ipotesi e dei fatti di osservazione; mentre il primo, l'equazione che devo risolvere, la congettura da chiarire, la spiegazione coerente che mi resta da scoprire. La lingua si mantiene alla biforcazione, non sceglie tra il problema latente e il problema patente, attivato. Ciò spiega la facilità con la quale l'uso scivola verso una nozione epurata da ogni oggettività ("Ho un problema con il mio datore di lavoro", o "con la musica elettro-acustica", o "con la matematica"}, oppure, inversamente, verso un concetto puramente oggettivo (il "problema curdo", il "problema dei quattro colori"). Diversamente per la soluzione. La lingua disùngue nettamente la soluzioneprocesso (risoluzìone,problem-solving, ricerca di soluzioni), dalla soluzionerisultato, o soluzione tout court (risposta, scopo perseguito, valore dell'incognita, sistemazione cercata). Il fauo è che la soluzione si può immaginare soltanto dopo aver posto il problema, momento a partire dal quale esso si apre all'oggettività. La soluzione si inscrive dunque fin da subito su due piani: prende la forma del cammino che ho seguito, cammino che è anche quello che ciascuno può a sua volta seguire. Vi è comunque una sfumatura: la risoluzione effettiva passa attraverso deviazioni, retrospettive che si rivelano inutili una volta che lo scopo sia stato ouenuto; io sono dunque condouo, in una seconda tappa, a "ripulire" la mia soluzione, a semplificare il mio percorso; ed è questo secondo iùnerario che presenterò all'altro come la mia soluzione, quello sul quale lo inviterò a seguirmi. llO
Il problema in azione a Pertinenza globale e perùnenza locale
Il problema si colloca all'arùcolazione di due domini di pertinenza, o di due contesti. Il primo è quello all'interno del quale il problema si pone, è il contesto determinato di cui abbiamo parlato sopra, che permette l'interpretazione univoca dei termini del problema, dunque la sua appropriazione intersoggettiva. La perùnenza che istituisce questo contesto generale può essere qualificata come globale. Nello stesso tempo in cui si inscrive in questo dominio, il problema crea il suo proprio souo-contesto, il dominio di pertinenza locale nel quale procede
la risoluzione, e dove la soluzione finirà per inscriversi se viene scopena
Il problema è dunque immerso in un ambiente, e crea il proprio ambiente interno. Al punto che il suo appono è duplice. Esso pone - o conferma - lo spazio nel quale si inscrive, indicando - il più delle volte in maniera implicita - le regole d'interpretazione dei suoi termini e quelle della sua potenziale soluzione. E determina o reperisce, tra tutti i percorsi possibili all'interno del dominio in cui è inscri110, un percorso panicolarc. Ponendo il problema, noi scegliamo, nell'infinità di ciò che ignoriamo, un'equazione, un enunciato. Lo facciamo passare da ciò che ignoriamo senza saperlo a ciò che sappiamo ignorare. Senza dubbio il lcuore non sa se Kant amava la scorzobianca, ma, ponendosi e ponendoci la questione, egli fa sorgere una conoscen7.a, quella della possibilità di una simile domanda, insieme a un ostacolo, quello della nostra ignoranza: egli mostra un cammino che non avevamo ravvisato e ci invita nello stesso tempo ad intraprenderlo. Tale è il contenuto esplicito del suo atto. Le sue conseguenze implicite sono di instaurare (o di confermare) un certo tipo di pertinenza: se il contesto è quello della storia dell'alimentazione in Europa, esso lo conferma e lo arricchisce sollecitando una testimonianza alla quale non si sarebbe senza dubbio mai pensato fino a quel momento; se si tratta della storia della filosofia, esso instaura - congeuura, per esempio una corrispondenza tra i gusti alimentari e le inclinazioni filosofiche, o ancora un rapporto causale tra l'assorbimento di una certa quantità di scorzobianca e la formazione di certi concetti. b. Connessioni locali e connessioni globali Dal momento della sua concezione, il problema si connette, in virtù del campo locale di pertinenza che inaugura, a una o più reti di problemi. Tale connessione può essere vaga, può restare implicita o divenire leggibile soltanto nel contesto della scopena, oppure all'interno dei commenti. Non è irrevocabile: la riformulazione, evento frequente e cruciale nella vita di Wl problema, può avere l'effeuo di integrarlo - eventualmente modificato - in una nuova rete. In ogni caso, il problema è un animale gregario, può vivere soltanto se collegato ad altri problemi. Nello stesso tempo, in virtù del dominio globale di pertinenza nel quale si trova immerso, il problema tende a connc11ersi a una disciplina. Il più delle volte, tale connessione va da sè: il contesto è in partenza quello di una disciplina, la rete di problemi associati è immersa in questa disciplina. Ma accade anche che non sia così: il problema con la sua o le sue reti fluuua tra diverse discipline. Ciò vuol forse dire che la nozione di disciplina sia parassita o lit-
111
tizia, che non abbia nlcunn realtà epistemologica e neppure metodologica, che non abbia altra utiliuì, come pensa per esempio Poppcr 1• che quella di semplific:irc il compito dell'runministrazione universitaria, e che dovrebbe dunque scomp.'.lrire? Non è questo il luogo per esaminare una domanda così generale; contentiamoci di osservare che le discipline hanno vita dura; e che le reti cercano di radicarsi in una disciplina, quando già non lo siano. Una rete sufficientemente stabile finisce per cristallizarsi in sotto-discipline. È veramente notevole che, contrariamente alle discipline, il cui numero resta trascurabile, niente sembra limitare la proliferazione delle sotto-discipline. Bisogna inoltre notare che una rete di problemi non costituisce immediatamente una sotto-disciplina. Fortunatamente, una selezione "naturale" opera tra le costellazioni teoriche: i "programmi di ricerca degenerati" di cui parla Lakatos, per esempio2, sono votate alla scomparsa, o al riassorbimento in una o più problematiche concorrenti. Un esempio attuale, mollo interessante, ci è fornito dalle scienze cognitive, che, malgrado il loro nome, sono ancora soltanto una rete poco omogenea di problemi, e il cui avvenire è molto incerto: saranno assorbite da una disciplina esistente, smembrate tra varie discipline (il che evidentemente non impedirebbe il mantenimento di legami interdisciplinari), oppure, fatto eccezionale, faranno nascere una nuova disciplina? Ciò dipenderà in gran parte dalle soluzioni ai diversi problemi della rete - dalla loro esistenza innanzitutto, in seguito dalla loro natura. c. L'effetto del problema
JJZ
Possiamo classificare i problemi secondo l'effetto che hanno sulla disciplina o la sotto-disciplina alla quale si connettono. Si stabilisce così una gerarchia, certamente precaria, ma che, in ogni disciplina, costituisce una delle carte più utili che gli scienziati possano orienlare a proprio uso (anche riaggiomandola frequentemente). Al venice - o sarebbe meglio dire: alla base? -, troviamo naturalmente i problemi fondatori, per esempio quello del modo di trasmissione dei caratteri ereditari, o quello della prova della non-contraddizione in aritmetica. Una volta risolto, un problema fondatore diviene senza dubbio il cuore di ciò che Kuhn chiama un paradigmaJ. Poi vengono i problemi motori, che orientano la disciplina sui lunghi periodi - per esempio quello delle cause della caduta dell'Impero romano, quello della fluttuazione dei tassi d'interesse o quello dell'insolubilità delle equazioni di grado superiore a quattro attraverso radicali. In seguito vengono quelli che potrebbero essere chiamati problemi confermatori: per il loro numero, per il loro interesse proprio, per la loro va-
rictà, essi confermano la vitalità del campo al quale si riferiscono. Pressappoco allo stesso livello si pongono generalmente i problemi applicativi (essendo l'applicazione una nozione eminentemente relativa), che possono arrivare a svolgere un ruolo motore, o, al contrario, cadere nella categoria dei problemi oscuri. Quest'ultima categoria è la meno conosciuta, sia dal pubblico, che .non sospetta neppure dell'esistenza di questi battaglioni dell'ombra, sia dagli epistemologi, che riservano le loro cure soltanto ai grandi problemi, allo stesso modo degli storici che per così tanto tempo non hanno avuto occhi che per i grandi del mondo. Gli scienziati stessi restano talvolta colpiti dalla messe di problemi oscuri, quando questi ultimi vengono fatti sfilare nelle riviste o nei congressi. Se il loro ruolo psicologico è manifesto, il loro ruolo contributo oggettivo alla disciplina è spesso meno evidente. Tuttavia, sappiamo quanto è difficile valutare la fecondità di un problema aperto. Un cambiamento di prospettiva può in ogni momento farlo apparire come un sotto-problema di un problema maggiore. O ancora la sua soluzione metterà in gioco un metodo, un concetto che condurrà, più o meno direttamente, alla risoluzione di una vecchia congettura. I numeri di Fibonacci, un 'antica curiosità senza grande interesse matematico, hanno fornito l'anello mancante alla soluzione del decimo problema di Hilbert, settanta anni dopo la sua formulazione! E si conoscono fin troppi esempi e commenti dcli '"effetto Serendip" perché sia necessario soffermarvisi qui, se non per ricordare che è sempre cercando qualcosa che si finisce, talvolta, su un tesoro che non stavamo cercando. Per concludere su questo punto notiamo che, se esistesse un metodo generale per eliminare i problemi minori, i cammini della conoscenza sarebbero, in larga misura, tracciati in anticipo: avremmo in quel caso, senza dubbio, una ben misera conoscenza. Collettivamente, i problemi si comportano come le api: si disseminano ogni volta che sia raggiunta una massa critica. In termini meno metaforici, la loro . moltiplicazione conduce in modo quasi meccanico alla formazione di ramificazioni che rendono la classificazione più fine, a meno che non diano luogo ad una suddivisione principale che prende posto a lato delle altre. L'effetto inverso di tale germogliazione si produce con il problema insolubile. Il problema che resiste a tutù gli attacchi, che non si lascia intaccare, è causa di crisi, larvale o aperta. Simone Weil osserva nelle sue "Notes écrites à Londres" (1943): "Il metodo proprio della filosofia consiste nel concepire chiaramente i problemi insolubili nella loro insolubilità, quindi contemplarli, nient'altro, fissamente, instancabilmente, negli anni, senza alcuna speranza, nell'attesa". Ma subito aggiunge: "Dopo questo criterio, rimangono ben pochi filosofi. E pochi è ancora dir molto"4 • Nelle scienze, il problema che resiste ostinatamente pone prima o poi la questione della sua insolubilità: un meta-problema risulta formulato, in ter-
JJ3
mini più o meno precisi secondo le circostanze, ma che consistono sempre nel mostrare come il problema, apparentemente ben posto, in realtà non lo sia. In matemaùcn, la nozione logica di insolubililà pcrmcuc di conferire al meta-problema una formulazione precisa. Un esempio celebre è quello del primo problema di Hilbert', che consisteva nello stabilire l'ipotesi del continuo. Il fallimen10 di ogni lentativo di provare, come di confutare, quest'ipotesi condusse Glldel a porre il (meta• )problema della sua indipendenza rispetto agli assiomi della teoria degli insiemi comunemente adottata, quella di Zcrmelo-Fraenkel (ZF). Questo nuovo problema, senza per altro liquidare quello di Hilbert- che conservava la possibilità di ricevere una soluzione, mentre l'altro restava aperto -, faceva comunque pendere su quest'ulùmo una pesante minaccia. La liquidazione vera e propria fu pronunciata quando il meta-problema fu completamente risolto: completando i lavori di Glldel, Paul Cohen ha stabililo (nel 1962) che l'ipotesi del continuo non è né provabile né confutabile all'interno di ZF. Ed è tutta la disciplina chiamata teoria degli insiemi che, quel giorno, fu in un certo senso liquidata. Tuttavia essa è rinata dalle sue ceneri, ma profondamente trasformata, al punlo che potremmo parlare, a proposito della teoria post-coheniana, di una nuova disciplina. Le geometrie non-euclidee di Bolyai, Lobatchevski e Riemann faranno subire una sorte analoga alla geometria (ormai "euclidea"), la teoria della relaùvil.à ristretta alla meccanica (newtoniana), etc. Queste teorie, che confutano, ma in un ceno senso conservano, una teoria anteriore sufficientemente generale e completa, nascono sempre da un problema che, una volta risolto, si rivela come il liquidatore della prima teoria.
114
Tutti gli effetti che sono stati esaminati riguardano l'aspetto oggettivo del problema. Dal lalO soggettivo, le cose si presentano diversamente. I pro. blemi che, sul piano oggettivo, formano una gerarchia, portano qui lo stesso chepì: sono tutti motori, ma, questa volta, agitano i ricercatori piuuosto che
•. Nel 1900, durante il Secondo Congresso mondiale dei matematici, David Hilben propose ai suoi colleghi una lista di ventitrè problemi che egli reputava decisivi per lo sviluppo della loro disciplina. Lo straordinario apporto di quella lista. l'influenza che ha esercitato durante 1u110 il corso del XX secolo sui matematici, invitano a una riflessione inesauribile sulle questioni appena sfiorate in questo testo (ed anche su altre). Il primo problema di Hilbert consisteva nel dimostrare l'ipotesi del continuo, ossia che non esiste un numero cardinale superiore al numerabile e inferiore al continuo (un'altra formulazione, meno esoterica, è data più avanti).
le discipline. In effetti, un problema esiste soltanto quando desta la curiosità di qualcuno, come souolinea Michael Polanyis. Ora questa curiosità può a sua volta nascere per le ragioni più svariate. Lo stesso problema, pedagogico per l'uno, sarà iniziatico per l'altro; faticosamente fonnulato da uno sianco direttore di laboratorio, susciterà in qualcuno dei suoi studenti un 'autentica passione. Il problema è irriducibilmente apertura dello spirito, anche se è parte di uno strcllo dctenninismo psicosociologico. Si aggiunga che, per ogni ricercatore, soltanto il problema può creare tensione, quel campo in assenza del quale resterebbe immobile, prigioniero della domanda faiale: "Che cosa ho io da dire?" Ma per svolgere questo ruolo, il problema non deve essere né troppo facile né troppo difficile, altrimenti il ricercatore non giungerà a farlo proprio, a "coinvolgersi emozionalmente", come osservava Kurt Lewin (citato da Polanyi). Questo fenomeno ha una conseguenza. Il problema "ordinario" è - quasi per definizione - il pane quotidiano del ricercatore "medio". E il ricercatore "medio" è indispensabile alla scienza. Da qui la futilità di ogni tentativo di separare il secondario dall'essenziale, sia che si traui di problemi che di ricercatori, nello spirito di controllare quanto può apparire come una proliferazione malsana. Gli uni come gli altri godono di una fonna di diriuo alla vita che poggia, sia su un principio di solidarietà, sia su un calcolo pragmatico di utilità: solo raramente è possibile affcnnare con certezza che un ricercatore che un problema - resterà eternamente accantonato in un ruolo trascurabile.
d. L'apporto della soluzione Niente di più semplice, in apparenza, della soluzione: non è forse ciò che colma il vuoto indicato dal problema, la risposta alla domanda sollevata? Tuttavia, limitandosi a questo, trascureremmo due su tre delle sue dimen• sioni: la spazialità e la soggettività. La metafora dell'ostacolo sulla strada lo indica chiaramente: la soluzione deve inscriversi tanto nel paesaggio quanto sul tragiuo segnato dal problema. In altri termini, essa deve confonnarsi ai criteri di peninenza, locali e globali, istituiti dal problema e dal suo contesto. Ciò sia detto per la spazialità. Quanto alla soggeuività, essa impone alla soluzione di essere accessibile a colui al quale è stata destinata. Possiamo amalgamare i due imperativi di pertinenza e di accessibilità e parlare di intelligibilità. Tale intelligibilità può, nel contesto della scoperta, allo stadio della risoluzione, rimanere privata, tacita, implicita. Ma, nel contesto della giustificazione, quando la risoluzione si oggeuiva in soluzione, l'intelligibilità deve divenire patente, pubblica, anche se resta tributaria del contesto e
115
116
dell'utilizzatore. La soluzione ha la funzione di indicare all'altro come pervenire alla risposta p:irtendo dalla domanda, e come assicurarsi che si traili proprio della risposta auspicata. Ora, si traua di un ideale elevalo, per due tipi di r:igioni. Da una p3r1e, il cammino da indicare dipende dal paesaggio concettuale, almeno qll!lnto le indicazioni dipendono dalla familiarità dell'altro con tale paesaggio: necessarie e sufficienti per quest'ultimo, per il primo rischiano di non essere né l'uno né l'altro. Inoltre, l'adeguamento della risposta alla domanda è relati\'O alle disposizioni, alle intenzioni dell'altro, che dipendono in p3r1icolar modo dalle finalità ultime e dalle sue conoscenze generali. D'altra p3r1e, pur supponendo che una soluzione, sia, per un certo individuo, perfettamente accessibile e pertinente, niente garantisce il suo consenso ultimo: occorrerebbe una serie infinita di meta-istruzioni (del tipo: "Leggi attentamente la seguente frase''). Tutto ciò a cui si può tendere, è di ridurre lo sforzo richiesto all'altro confidando su un implicito sapere comune, su una pratica condivisa, sull'ipotesi di uno scopo comune. Naturalmente, qui si trova coinvolta l'intera concezione della spiegazione (in particolare quella scientifica). Una delle funzioni della disciplina, in quanto tale e non come semplice collezione di problemi, è precisamente quella di imporre dei vincoli che permettano di eliminare, almeno in parte, l'indeterminazione che grava sulla nozione di spiegazione - si pensi al numero di opere intitolate la spiegazione in ... (psicologia, economia, storia, fisica, etc.). Ma la soluzione di ogni problema comporta un'esigenza supplementare, confrontabile all'esigenza di "cooperazione" nella comunicazione verbale definita da Grice con le sue celebri massime - "Fai in modo che il tuo contributo sia il più informativo possibile", "Fai in modo che non sia più informativo del necessario", ''Che sia pertinente", "Che sia breve", etc.6 o, ancora. confrontabile con l'unico "principio di pertinenza", tramite il quale Spcrber e Wilson pensano di poter rendere conto di tutti gli effetti del contesto nella comunicazione7: ogni ano comunicativo deve accompagnarsi alla garanzia che i fatti trasmessi siano sufficientemente pertinenti per giustificare lo sforzo necessario a trattare lo stimolo, e che lo stimolo sia il . mezzo più efficace per trasmettere tal i fatti. Nel caso della soluzione di problemi scientifici, l'esigenza d'intelligibilità acquisisce forme particolari, legate alla natura del problema. Esaminiamone qualcuna a tiLOlo di esempio. Accade di frcq1_1ente che un problema P condensi un'infinità di problemi · particolari Pi. E ragionevole esigere soluzioni che si rassomiglino - più precisamente: che esista un meLOdo generale in grado di ottenere la soluzione di Pi a partire da i. Se il contesto è matematizzalo, cercheremo un algoritmo che accetti i in entrata producendo la solu;done in uscita. Ma un simile algo-
ritmo non esiste sempre: ci scontriamo qui con I' indecidibilitd. Un 'altra esigen1.a riguarda la maniera, più o meno effeuiva, più o meno concreta, in cui la soluzione viene compresa. In matematica, si preferiscono soluzioni costru/live, più informative e, secondo certuni, più reali - o addirittura, secondo il punto di vista intuizionista, le sole reali. Ma, anche qui, incontriamo dei limiti: certi problemi non ammellono una soluzione costruttiva. In altre situazioni, si parlerà di approssimazioni della soluzione, che appare allora come il limite ideale di un processo infinito. Accade spesso che una soluzione sia data in funzione di altre entità. La sua intelligibilità dipende allora dal tipo di conoscenza che abbiamo di queste ultime. La più piccola radice dell'equazione: xl1 7 - 7xJJ + 1987 = O, non è (verosimilmente) nota a nessuno, ma, da una parte, si può avvicinarvisi tanto precisamente quanto si voglia, dall'altra pu6 essere identificata come tale, per ri-conoscimenti futuri. La somma della serie :Elht2, per contro, è perfettamente nota (è rt2/6), sebbene 1t non sia mai dato con esatta precisione - se non sotto la forma stessa di 7t. Questa difficoltà appare in tutù i campi. Identificare l'autore del quadro Y come il "maestro di X", vuol dire risolvere il problema della sua identità più o meno bene a seconda che il maestro di X sia noto da molto tempo, senza che però si conosca il suo nome, oppure che non si sappia gran cosa di lui oltre al fatto che ha dipinto il quadro in questione. Un altro criterio spesso impiegato per valutare una soluzione è la purezza. Una soluzione è pura se non me11e in gioco, fosse pure implicitamente, nessuna nozione che non compare già nella formulazione del problema. Hilbert voleva mostrare che ogni proposizione vera inerente oggetti matematici "concreti" (grosso modo: finiti) poteva essere stabilita attraverso una dimostrazione "concreta". (Il secondo teorema di incompletezza di GOdel mise fine a tale speranza.) Bachelard chiedeva che non si tentasse, in nessuno modo, di spiegare "il fiore con il fertilizzante". Fodor (tra gli altri) difende l'idea di una spiegazione dei fenomeni psicologici che non faccia appello ad alcuna nozione di neurofisiologia8. La questione della purezza è intimamente legata a quella della riduzione inter-teorica, ovvero all'operazione di traduzione (con o senza residui) del vocabolario di una teoria T nel vocabolario di una teoria T'. I difficili problemi della riduzione, oggetto di numerosi dibattiti nell'epistemologia contemporanea, non possono essere affrontati in questa sede.
Allo stesso modo, ci limitiamo a menzionare gli altri attributi quali l'ottimalità, il carattere canonico o naturale, la semplicità, l'eleganza, che sono tutte maniere di rendere una soluzione qualcosa di più che una semplice risposta a una domanda, più che la soddisfazione di un bisogno
Jl7
d'infonnazione.
Rappresentazione e formalizzazione
JJ8
Cosa intcrtOrte tra il momento in cui una resistenza si fa sentire, o l'ostacolo si rivela, e quello in cui il problema si formula? Viene istituito, o attivato, uno spazio di rappresentazione, all'interno del quale possono inscriversi i termini del problema. Dallo scarto esistente tra gli oggeui da sistemare e l'agente nasce la necessità di inscrivere tali oggeui in uno spazio astrailo interno all'agente stesso; dallo scarto tra la situazione di fallo e la situazione auspicata dall'agente nasce la necessità di inscrivere quest'ultima in uno spazio - in un certo senso - fittizio. Ed è in questo spazio che, tra la formulazione del problema e quella della soluzione, si effettuano le operazioni della risoluzione. Queste alTennazioni, nella loro generalità, non sollevano molte obiezioni nel caso dei domini ormai pervenuti a un grado elevato di astrazione. Non di meno, anche in questo caso è interessante, e talvolta difficile, sviscerare gli elementi che generano la rappresentazione associata a un problema dato - ciò è d'altronde uno dei compiti principali della storia delle scienze e dell'epistemologia. Riprendiamo l'esempio del primo problema di Hilbert, consistente nel dimostrare l'ipotesi del continuo: ogni parte infinita dell'insieme R dei numeri reali può essere posta in corrispondenza biunivoca, o con R, o con l'insieme N dei numeri naturali. La rappresentazione associata comprende, tta l'altro, gli elementi seguenti: il conceuo di insieme astrailo, quello di parte astratta, quello di numero reale, quello di funzione biettiva L'oggeuo "numero reale", per esempio, è rappresentato da una serie di Oe 1 scissa da una virgola; il fenomeno di uguaglianza quantitativa di due insiemi astraili è rappresentato dall'esistenza di una biiezione tra tali insiemi. E, beninteso, questa rappresentazione del problema di Hilbert è immersa nell'universo matematico quale si è costituito all'alba del XX secolo: un universo di rappresentazioni. Analogamente, il problema della caduta dei gravi fa appello a rappresentazioni dei corpi fisici (attraverso "punti malerialij, del movimento (attraverso funzioni sufficientemente "lisce" che associno a una rappresentazione dell'istante una rappresentazione del luogo in uno spazio astratto), etc. (Non possiamo che rimanere vaghi fintanto che non sia precisato in quale orizzonte - quello di Aristotele, quello di Galileo, quello del liceale del 1987 - ci si ponga.) Nelle scienw umane, non soltanto le rappresentazioni sono onnipresenti, ma il loro adeguamento è costantemente al centro della discussione. Non soltanto non si fa economia senza una rappresentazione del mercato, dell'agente eco-
nomico, del produttore, del consumatore, né storia senza una rappresentazione della nazione, del popolo, della classe sociale, dell'universo mentale o cognitivo degli attori, del potere, etc. - ma continuamente si pone la questione dell'interpretazione di queste nozioni. Ciò ci aiuterà tra un istante a precisare la differenza tra scienze csaue e scienze umane, ma, riguardo a queste ultime, ci garantisce nell'immediato che le rappresentazioni non rischiano di passare inosservate o di rimanere sullo sfondo. In domini più concreti, la necessità di un passaggio alla rappresentazione è meno evidente. Il meccanico che cerca un bullone frugando a caso in una scatola che ne contiene mille ha forse costruito una rappresentazione del suo problema? In questo caso si tratta senza dubbio di un caso limite. Sarà pur necessario tuttavia che il meccanico abbia in mente una rappresentazione del bullone di cui ha bisogno, sia per poterlo riconoscere quando gli capiterà in mano, malgrado le "trascurabili" eccezioni che non esiterà a fare per qualche altro bullone che possa fare al caso suo, sia per integrare il pezzo mancante all'interno di una strategia globale di costruzione o di realizzazione del piano. Insieme allo scalatore in difficoltà, che cerca con la mano l'appiglio della salvezza, insieme al fuggitivo che cerca una via di uscita, noi siamo su una frontiera: da un lato vi è ancora, forse, una rappresentazione dell'appiglio-sulquale-la-mano-può-far-presa, dello squarcio-nella-rete-per-accedere-al!'esterno, dall'altro vi è il corpo che, in un'anticipazione che non può essere dell'ordine della rappresentazione, auende l'istante in cui ri-conoscerà istantaneamente il cammino da prendere - come l'animale che balza sulla preda, come la preda che si precipita verso la tana. Siamo al limite estremo di ciò che, a mio parere, è il dominio proprio del problema. Se il problema trasporta nella sua scia una rappresentazione, ogni rappresentazione implica una formalizzazione, almeno fintanto che sia oggettiva o che possa diventarlo. In effeui, da un lato, i simboli che rappresentano gli elementi del problema (inteso nel senso più ampio) non ne hanno le proprietà (la parola "cane" non morde). I vincoli che si esercitano sulla loro disposizione dipendono dunque dalla loro forma. (Se la parola "cane" si accosta alla parola "morde", è perché possiede la forma richiesta; naturalmente, questo vincolo è tale che la costruzione "cane" + "morde" rappresenta uno stato del mondo - reale o fittizio, ma le parole stesse ne sono responsabili.) Tuttavia, da un'altro lato, affinché si possa parlare di leggi generali del funzionamento dei simboli, dunque della formalizzazione, occorre che la rappresentazione abbia la stabilità e il carauere esplicito richiesti dall'oggettività del problema. Il contesto nel quale quest'ultimo si pone ci evita, ci impedisce di ritornare ogni volta agli oggetti stessi per sapere se siamo autorizzati a postulare una tale relazione tra i simboli: se non fosse così, la rappresentazione perderebbe tutta la sua efficacia, il problema, propriamente parlando, non sarebbe stato
119
posto. Ciò è evidente (qualcuno direbbe oggi: tautologico) nel caso della matematica: che farsene degli insiemi, delle parti, delle funzioni astratte se non si forniscono le regole del loro concatenamento? Ma è anche il caso dei domini poco "formalizzati" nel senso stretto del termine. A che serve porsi il problema del ruolo della classe contadina nella Rivoluzione cinese se non ci basiamo, almeno implicitamente e senza dubbio provvisoriamente, su delle regole atte a determinare l'uso del concetto di ruolo storico, di classe sociale, die\'ClltO? È chiaro comunque che la formalizzazione comporta una questione di grado; essa è tanto meno completa quanto più le regole rimangono implicite, vaghe, deboli, e quanto più il frequente ritorno agli oggetti si rivela necessario. Nella ricerca della soluzione, questi ritorni fanno intervenire una procedura interpretativa caratteristica della fase anteriore, quella della formulazione del problema. Quando tale procedura prevale sulla ricerca di una soluzione all'interno di un quadro formale stabile, cos1 che l'essenziale dell'attività provocata dal problema merita il nome di e/ucidazione più che di risoluzione, ci troviamo di nuovo lontani dal problema strictu sensu. Ma, anche nel caso di problemi altamente teorici di fisica o di matematica, la formalizzazione non è sempre data subito interamente: molti anni furono necessari, per esempio, dopo il Congresso di Parigi del 1900, per pervenire a una teoria formaliz.zata degli insiemi che rendesse pienamente inlelligibile la possibililà di una dimostrazione o di una confutazione dell'ipotesi del continuo.
Il grado di problemalizzazione
120
Cominciamo a capire, in particolare a proposito della rappresentazione e della formalizzazione, come la questione di sapere se una "situazione", uno "stato di cose" (per essere il più vaghi possibile) sia un problema o meno, non ammetta come uniche risposte un si o un no. Se la soggettività e la temporalità sono invariabilmente presenti nel problema (in senso stretto), la condizione di esistenza di un contesto determinato è susccltibilc di modulazione: più il contesto è vincolante, più si è prossimi alla situazione problematica tipica Così concepita, la nozione di problema instaura una sorta di gradiente, di colorazione dell'attività, che indicherei sotto il nome di problematizzazione. La problcmatizzazione di una disciplina, e, molto più in generale, di un'area di attività, è