Mente umana, mente artificiale 8807101238, 9788807101236

"La tesi della relativa autonomia del mentale incontra oggigiorno serie difficoltà. [...] Vi è la possibilità reale

282 13 5MB

Italian Pages 376 Year 1989

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Mente - 0001_1L
Mente - 0001_2R
Mente - 0002_1L
Mente - 0002_2R
Mente - 0003_1L
Mente - 0003_2R
Mente - 0004_1L
Mente - 0004_2R
Mente - 0005_1L
Mente - 0005_2R
Mente - 0006_1L
Mente - 0006_2R
Mente - 0007_1L
Mente - 0007_2R
Mente - 0008_1L
Mente - 0008_2R
Mente - 0009_1L
Mente - 0009_2R
Mente - 0010_1L
Mente - 0010_2R
Mente - 0011_1L
Mente - 0011_2R
Mente - 0012_1L
Mente - 0012_2R
Mente - 0013_1L
Mente - 0013_2R
Mente - 0014_1L
Mente - 0014_2R
Mente - 0015_1L
Mente - 0015_2R
Mente - 0016_1L
Mente - 0016_2R
Mente - 0017_1L
Mente - 0017_2R
Mente - 0018_1L
Mente - 0018_2R
Mente - 0019_1L
Mente - 0019_2R
Mente - 0020_1L
Mente - 0020_2R
Mente - 0021_1L
Mente - 0021_2R
Mente - 0022_1L
Mente - 0022_2R
Mente - 0023_1L
Mente - 0023_2R
Mente - 0024_1L
Mente - 0024_2R
Mente - 0025_1L
Mente - 0025_2R
Mente - 0026_1L
Mente - 0026_2R
Mente - 0027_1L
Mente - 0027_2R
Mente - 0028_1L
Mente - 0028_2R
Mente - 0029_1L
Mente - 0029_2R
Mente - 0030_1L
Mente - 0030_2R
Mente - 0031_1L
Mente - 0031_2R
Mente - 0032_1L
Mente - 0032_2R
Mente - 0033_1L
Mente - 0033_2R
Mente - 0034_1L
Mente - 0034_2R
Mente - 0035_1L
Mente - 0035_2R
Mente - 0036_1L
Mente - 0036_2R
Mente - 0037_1L
Mente - 0037_2R
Mente - 0038_1L
Mente - 0038_2R
Mente - 0039_1L
Mente - 0039_2R
Mente - 0040_1L
Mente - 0040_2R
Mente - 0041_1L
Mente - 0041_2R
Mente - 0042_1L
Mente - 0042_2R
Mente - 0043_1L
Mente - 0043_2R
Mente - 0044_1L
Mente - 0044_2R
Mente - 0045_1L
Mente - 0045_2R
Mente - 0046_1L
Mente - 0046_2R
Mente - 0047_1L
Mente - 0047_2R
Mente - 0048_1L
Mente - 0048_2R
Mente - 0049_1L
Mente - 0049_2R
Mente - 0050_1L
Mente - 0050_2R
Mente - 0051_1L
Mente - 0051_2R
Mente - 0052_1L
Mente - 0052_2R
Mente - 0053_1L
Mente - 0053_2R
Mente - 0054_1L
Mente - 0054_2R
Mente - 0055_1L
Mente - 0055_2R
Mente - 0056_1L
Mente - 0056_2R
Mente - 0057_1L
Mente - 0057_2R
Mente - 0058_1L
Mente - 0058_2R
Mente - 0059_1L
Mente - 0059_2R
Mente - 0060_1L
Mente - 0060_2R
Mente - 0061_1L
Mente - 0061_2R
Mente - 0062_1L
Mente - 0062_2R
Mente - 0063_1L
Mente - 0063_2R
Mente - 0064_1L
Mente - 0064_2R
Mente - 0065_1L
Mente - 0065_2R
Mente - 0066_1L
Mente - 0066_2R
Mente - 0067_1L
Mente - 0067_2R
Mente - 0068_1L
Mente - 0068_2R
Mente - 0069_1L
Mente - 0069_2R
Mente - 0070_1L
Mente - 0070_2R
Mente - 0071_1L
Mente - 0071_2R
Mente - 0072_1L
Mente - 0072_2R
Mente - 0073_1L
Mente - 0073_2R
Mente - 0074_1L
Mente - 0074_2R
Mente - 0075_1L
Mente - 0075_2R
Mente - 0076_1L
Mente - 0076_2R
Mente - 0077_1L
Mente - 0077_2R
Mente - 0078_1L
Mente - 0078_2R
Mente - 0079_1L
Mente - 0079_2R
Mente - 0080_1L
Mente - 0080_2R
Mente - 0081_1L
Mente - 0081_2R
Mente - 0082_1L
Mente - 0082_2R
Mente - 0083_1L
Mente - 0083_2R
Mente - 0084_1L
Mente - 0084_2R
Mente - 0085_1L
Mente - 0085_2R
Mente - 0086_1L
Mente - 0086_2R
Mente - 0087_1L
Mente - 0087_2R
Mente - 0088_1L
Mente - 0088_2R
Mente - 0089_1L
Mente - 0089_2R
Mente - 0090_1L
Mente - 0090_2R
Mente - 0091_1L
Mente - 0091_2R
Mente - 0092_1L
Mente - 0092_2R
Mente - 0093_1L
Mente - 0093_2R
Mente - 0094_1L
Mente - 0094_2R
Mente - 0095_1L
Mente - 0095_2R
Mente - 0096_1L
Mente - 0096_2R
Mente - 0097_1L
Mente - 0097_2R
Mente - 0098_1L
Mente - 0098_2R
Mente - 0099_1L
Mente - 0099_2R
Mente - 0100_1L
Mente - 0100_2R
Mente - 0101_1L
Mente - 0101_2R
Mente - 0102_1L
Mente - 0102_2R
Mente - 0103_1L
Mente - 0103_2R
Mente - 0104_1L
Mente - 0104_2R
Mente - 0105_1L
Mente - 0105_2R
Mente - 0106_1L
Mente - 0106_2R
Mente - 0107_1L
Mente - 0107_2R
Mente - 0108_1L
Mente - 0108_2R
Mente - 0109_1L
Mente - 0109_2R
Mente - 0110_1L
Mente - 0110_2R
Mente - 0111_1L
Mente - 0111_2R
Mente - 0112_1L
Mente - 0112_2R
Mente - 0113_1L
Mente - 0113_2R
Mente - 0114_1L
Mente - 0114_2R
Mente - 0115_1L
Mente - 0115_2R
Mente - 0116_1L
Mente - 0116_2R
Mente - 0117_1L
Mente - 0117_2R
Mente - 0118_1L
Mente - 0118_2R
Mente - 0119_1L
Mente - 0119_2R
Mente - 0120_1L
Mente - 0120_2R
Mente - 0121_1L
Mente - 0121_2R
Mente - 0122_1L
Mente - 0122_2R
Mente - 0123_1L
Mente - 0123_2R
Mente - 0124_1L
Mente - 0124_2R
Mente - 0125_1L
Mente - 0125_2R
Mente - 0126_1L
Mente - 0126_2R
Mente - 0127_1L
Mente - 0127_2R
Mente - 0128_1L
Mente - 0128_2R
Mente - 0129_1L
Mente - 0129_2R
Mente - 0130_1L
Mente - 0130_2R
Mente - 0131_1L
Mente - 0131_2R
Mente - 0132_1L
Mente - 0132_2R
Mente - 0133_1L
Mente - 0133_2R
Mente - 0134_1L
Mente - 0134_2R
Mente - 0135_1L
Mente - 0135_2R
Mente - 0136_1L
Mente - 0136_2R
Mente - 0137_1L
Mente - 0137_2R
Mente - 0138_1L
Mente - 0138_2R
Mente - 0139_1L
Mente - 0139_2R
Mente - 0140_1L
Mente - 0140_2R
Mente - 0141_1L
Mente - 0141_2R
Mente - 0142_1L
Mente - 0142_2R
Mente - 0143_1L
Mente - 0143_2R
Mente - 0144_1L
Mente - 0144_2R
Mente - 0145_1L
Mente - 0145_2R
Mente - 0146_1L
Mente - 0146_2R
Mente - 0147_1L
Mente - 0147_2R
Mente - 0148_1L
Mente - 0148_2R
Mente - 0149_1L
Mente - 0149_2R
Mente - 0150_1L
Mente - 0150_2R
Mente - 0151_1L
Mente - 0151_2R
Mente - 0152_1L
Mente - 0152_2R
Mente - 0153_1L
Mente - 0153_2R
Mente - 0154_1L
Mente - 0154_2R
Mente - 0155_1L
Mente - 0155_2R
Mente - 0156_1L
Mente - 0156_2R
Mente - 0157_1L
Mente - 0157_2R
Mente - 0158_1L
Mente - 0158_2R
Mente - 0159_1L
Mente - 0159_2R
Mente - 0160_1L
Mente - 0160_2R
Mente - 0161_1L
Mente - 0161_2R
Mente - 0162_1L
Mente - 0162_2R
Mente - 0163_1L
Mente - 0163_2R
Mente - 0164_1L
Mente - 0164_2R
Mente - 0165_1L
Mente - 0165_2R
Mente - 0166_1L
Mente - 0166_2R
Mente - 0167_1L
Mente - 0167_2R
Mente - 0168_1L
Mente - 0168_2R
Mente - 0169_1L
Mente - 0169_2R
Mente - 0170_1L
Mente - 0170_2R
Mente - 0171_1L
Mente - 0171_2R
Mente - 0172_1L
Mente - 0172_2R
Mente - 0173_1L
Mente - 0173_2R
Mente - 0174_1L
Mente - 0174_2R
Mente - 0175_1L
Mente - 0175_2R
Mente - 0176_1L
Mente - 0176_2R
Mente - 0177_1L
Mente - 0177_2R
Mente - 0178_1L
Mente - 0178_2R
Mente - 0179_1L
Mente - 0179_2R
Mente - 0180_1L
Mente - 0180_2R
Mente - 0181_1L
Mente - 0181_2R
Mente - 0182_1L
Mente - 0182_2R
Mente - 0183_1L
Mente - 0183_2R
Mente - 0184_1L
Mente - 0184_2R
Mente - 0185_1L
Mente - 0185_2R
Mente - 0186_1L
Mente - 0186_2R
Mente - 0187_1L
Mente - 0187_2R
Recommend Papers

Mente umana, mente artificiale
 8807101238, 9788807101236

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Campi del sapere/Feltrinelli

Mente umana mente artificiale A cura di Riccardo Viale

Testi di M.A. Boden, D.C. Dennett, D. Davidson, K. Wilkes, D. Marconi, G. Lolli, R. Viale, K.H. Pribram, C. Blakemore, V. Braitenberg, G. Palm, V. Somenzi, G. Gava, R. Cordeschi, F. Di Trocchio, A. Fasolo, M. Minsky, T. Poggio, P.N. Johnson-Laird, P. Morasso, V. Tagliasco, B.G. Bara, A. Carassa, G. Geminiani, D. Parisi.

Campi del sapere/Filosofia Mente umana, mente artificiale a cura di Riccardo Viale Importanti contributi della ricerca teorica ed empirica si sono andati accumulando in questi ultimi anni, smentendo lo scetticismo con cui era trattato il progetto multidisciplinare della scienza cognitiva. Nata sul dogma dell’uomo elaboratore di informazioni, in stretta analogia al calcolatore, tale scienza si è occupata di studiare i meccanismi, le procedure, le regole di elaborazione del messaggio informativo dal momento in cui entra nel corpo umano a quando ne esce, si è occupata cioè di svelare il tabù comportamentista del contenuto della misteriosa “scatola nera”. Diversi sono stati i livelli e gli angoli visuali con cui si è cercato di raggiungere l’obiettivo: filosofico, linguistico, psicologico, biologico e informatico. A questi differenti livelli è stata collegata anche l’iniziale contrapposizione tra due programmi di ricerca per lo studio della mente, a prima vista inconfrontabili: da una parte il riduzionismo neurobiologico e cibernetico, dall’altra il programma linguistico-materialistico e informativo. Oggi la multidisciplinarità di un tempo tende a diventare sempre di più interdisciplinarità e anche la vecchia contrapposizione tra i due programmi si può considerare in parte superata. Significativa, al riguardo, è una famosa metafora di David Marr: come è impossibile capire il volo di un uccello esamindandone le penne delle ali soltanto, ma è necessario conoscere i vincoli e le limitazioni cui è sottoposto e come esso riesca a neutralizzarli nel superare la gravità e volare, così per capire la mente non è sufficiente avere conoscenza di un solo livello, ma si deve essere capaci di descrivere le risposte dei neuroni, di predire i risultati degli esperimenti di psicologia e di scrivere un programma al calcolatore che analizzi e interpreti i risultati ottenuti precedentemente. Il volume Mente umana, mente artificiale compie un ulteriore passo in avanti in questa direzione.

ISBN 88-07-10123-8

Lire 40.000

9 788807 1 01 236

Campi del sapere/Feltrinelli

Mente umana mente artificiale A cura di Riccardo Viale Testi di M.A. Boden, D.C. Dennett, D. Davidson, K. Wilkes, D. Marconi, G. Lolli, R. Viale, K.H. Pribram, C. Blakemore, V. Braitenberg, G. Palm, V. Somenzi, G. Gava, R. Cordeschi, F. Di Trocchio, A. Fasolo, M. Minsky, T. Poggio, P.N. Johnson-Laird, P. Morasso, V. Tagliasco, B.G. Bara, A. Carassa, G. Geminiani, D. Parisi.



Feltrinelli

Traduzione dall'inglese di GIAN ALDO ANTONELLI © Giangiacomo Feltrinelli Editore Milano Prima edizione in "Campi del sapere" novembre 1 989

ISBN 88-07-101 23-8

Prefazione di Riccardo Viale

Dall'anno 1986, data in cui è iniziata la preparazione di questo volume, la scienza cognitiva è andata relativamente caratterizzandosi come "tradizione di ricerca" (à la Laudan). In essa l'attività di soluzione di problemi empirici e teorici, le tecniche e gli standard metodologici, le ipotesi teoriche centrali, le leggi e le generalizzazioni empiriche sono andate costituendosi, in una certa misura, in "unità globale", carat­ terizzata da una relativa coerenza e integrazione tra i vari li­ velli. Vi è stato inoltre anche un interessante ampliarsi dei confini d'indagine della scienza cognitiva a campi disciplina­ ri che sembravano distanti come le scienze sociali ed econo­ miche (si pensi alle recenti ricerche di economia sperimenta­ le sul comportamento razionale del consumatore) o la meto­ dologia della scienza (si faccia riferimento agli studi empiri­ ci di psicologia cognitiva della scienza sulle caratteristiche deduttive e induttive, sui pregiudizi e sulle fallacie del "com­ portamento metodologico" dello scienziato). Rimane però sempre vivo nella scienza cognitiva un dua­ lismo di fondo ben evidente fin dalle origini. Si ricordi infat­ ti che quella che è considerata la data di nascita di questa di­ sciplina è il 1948 con il famoso seminario della Hixon Foun­ dation al California Institute of Technology su "I meccani­ smi cerebrali nel comportamento" che vide la partecipazione di importanti ricercatori come von Neumann, McCulloch e Lashely interessati ad analizzare il problema dei rapporti tra calcolatore e cervello e quello del cervello come elaboratore di informazione. La scienza cognitiva iniziò quindi con un'i­ potesi teorica centrale di tipo "hardwarista" (e bottom-up) mirante alla riproduzione dei processi cognitivi umani attra­ verso tentativi di modellizzazione, tecnologicamente realizzaVII

bili, dell'architettura neuronale del sistema nervoso centra­ le. L'ipotesi teorica centrale poteva essere riassunta nell'as­ serzione condizionale seguente: "Se l'intelligenza è espressio­ ne dell'attività neuronale, allora 'se è possibile la riproduzio­ ne artificiale di questa attività essa sarà in grado di produr­ re un comportamento intelligente' ". Negli anni seguenti assi­ stiamo però a un progressivo abbandono di questa ipotesi non tanto per una negazione dell'"antecedente" del condizio­ nale, quanto per la constatata impossibilità teorica e tecno­ logica a realizzare la riproduzione artificiale dell'attività neuronale (da cui però, come ci insegnano le condizioni di verità dell'implicazione, non è possibile dedurre né la nega­ zione dalla possibilità che un'architettura neuronale artifi­ ciale possa realizzare un comportamento intelligente né quella che l'intelligenza sia espressione dell'attività neurona­ le). Infatti, attraverso varie tappe esemplificate dal semina­ rio del 1956 al Darthmouth College con la partecipazione di Newell, Simon, Minsky e McCarthy, in cui venne coniato il termine Intelligenza Artificiale, dal simposio del 1956 sulla "teoria dell'informazione" al MIT con la partecipazione di Chomsky, Miller e Simon e dal Cognitive Science Project del 1975 della Sloan Foundation, la scienza cognitiva, pur non rinnegando la premessa teorica del programma "hardwari­ sta", si è concentrata fino a un recente passato nello studio da un punto di vista simbolico e computazionale dell'elabo­ razione dell'informazione, del software, senza preoccupazio­ ni per la somiglianza o meno dell'hardware utilizzato con l'architettura del sistema nervoso centrale umano e utiliz­ zando un modello topdown di studio delle attività mentali (si parte da funzioni simboliche di livello superiore e si tenta di scomporle in sottofunzioni di livello inferiore e così via). Oggigiorno assistiamo però a un impetuoso ritorno del pro­ gramma "hardwarista" rappresentato dal "connessionismo". Pur non rifiutando la validità, in alcuni domini, dell'approccio simbolico e computazionale, il "connessionismo" propone di superare molti dei problemi che affliggono l'Intelligenza Arti­ ficiale, come la difficoltà di soluzione dei problemi "aleatori", non strutturati e non definibili algoritmicamente (ad esempio, il riconoscimento di un oggetto irregolare come un albero o un'impronta digitale) attraverso la costruzione di hardware che riproducano l'architettura delle reti neuronali. Questo cal­ colatore neuronico sarebbe dotato di apprendimento sponta­ neo, che gli consentirebbe di stabilire per ciascuna soluzione del problema una configurazione univoca di collegamenti neu­ ronici e non avrebbe quindi bisogno di un programma che defi­ nisca formalmente il problema stesso e la sua soluzione. VIII

Il presente volume, pur non affrontando l'attuale contro­ versia nell'Intelligenza Artificiale tra approccio "connessioni­ sta" e simbolico, di fatto si inserisce in questo dibattito ana­ lizzando la validità delle premesse epistemologiche e metodo­ logiche dei due programmi rivali. Nell'analisi del rapporto tra mente, cervello e calcolatore si è assistito in questi anni a due principali tipi di riduzioni­ smo: della mente al calcolatore e della mente al cervello. Nel primo tipo di riduzionismo (tema conduttore della pri­ ma parte del volume) il calcolatore da metafora, analogia e modello della mente è diventato, per alcuni autori, "la" teoria della mente. Tralasciando le molte analogie negative, il calco­ latore è diventato teoria idealizzata degli stati mentali. L'uso delle idealizzazioni è una caratteristica costante della metodo­ logia della scienza. Per astrarsi dai dettagli della realtà e per introdurre entità non descrivibili empiricamente, la scienza utilizza idealizzazioni nella costruzione di teorie, leggi e con­ cetti. Lo iato tra idealizzazioni e realtà viene colmato, nel mo­ mento della spiegazione e predizione, dall'introduzione di con­ dizioni iniziali e di regole di corrispondenza o principi ponte. Le difficoltà sorgono quando ci troviamo di fronte a idealizza­ zioni inadeguate e/o quando non riusciamo a definire comple­ tamente tutte le condizioni iniziali e i principi ponte necessari a colmare il gap tra astrazione e realtà empirica. Nel caso del calcolatore come teoria della mente, ci si imbatte in questo ge­ nere di difficoltà. Si cerca infatti di ridurre tutte le operazioni mentali a operazioni primitive semplificate del tipo "controlla se c'è una corrispondenza" oppure "muovi l'elemento dall'ne­ simo all'mesimo posto". Le uniche attività mentali concesse da tale idealizzazione sono quelle cognitive. Le competenze psico­ logiche diventano solo quelle che ammettono l'elaborazione di rappresentazioni simboliche. Le capacità emozionali, motiva­ zionali, sensorie e motorie vengono di conseguenza relegate ai margini, in quanto la teoria della mente come calcolatore ha grosse difficoltà a spiegarle. Non si riesce a rendere conto del­ le caratteristiche olistiche o quasi olistiche della dimensione psicologica, non soltanto percettiva. Alcuni gravi problemi dell'Intelligenza Artificiale dimostrano in maniera evidente l'inadeguatezza della teoria della mente come calcolatore. Ad esempio le difficoltà legate al frame problem evidenziano l'in­ capacità del calcolatore a manipolare ciò che per l'uomo è as­ sunto tacitamente e implicitamente come la conoscenza del senso comune e quella di sfondo o quella che dipende dallo scopo e dal contesto problematico. Paradossalmente, se un ruolo importante il calcolatore ha avuto nello studio della mente umana, questo è stato, oltre IX

che nella simulazione di alcune attività mentali più specifi­ camente simboliche, come il ragionare deduttivo, soprattut­ to nel focalizzare l'attenzione su funzioni psicologiche "sem­ plici" che non venivano considerate degne di eccessivo inte­ resse scientifico. Ad esempio chi avrebbe mai detto che fosse così complicato il riconoscimento delle configurazioni, del linguaggio naturale, la soluzione di problemi "aleatori", la coordinazione occhi-mano, ecc . ? I tentativi, spesso fallimen­ tari, di simulazione al calcolatore di queste, che si credeva­ no, semplici attività mentali dell'uomo, hanno messo in evi­ denza la loro estrema complessità teorica. Alla teoria della mente come calcolatore è legata anche la risposta data nella scienza cognitiva a un altro problema fondamentale (tema conduttore della seconda parte del li­ bro): che tipo di hardware ha bisogno la mente? I teorici del­ la mente come calcolatore in genere sono a favore di una re­ lativa autonomia della mente dal substrato neurofisiologico del cervello. Si propende a sostenere (come fa Fodor) soltan­ to un'identità token-token - tra stati mentali e cerebrali. Ogni stato mentale si identifica nell'uomo con uno stato ce­ rebrale, ma questa identità non è generale - type-type- ma contingente e singolare. Non è quindi la proprietà mentale che si identifica con la proprietà cerebrale. E possibile che altri substrati materiali e dispositivi fisici possano produrre l'attività mentale come, ad esempio, il calcolatore. Di conse­ guenza le neuroscienze non hanno da dire molto riguardo le generalizzazioni della psicologia. La tesi della relativa autonomia del mentale incontra og­ gigiorno serie difficoltà. Si tende a riconoscere che lo studio dell'attività mentale presenta diversi livelli di analisi e di de­ scrizione e non è ancora chiaro quale sia il livello in cui le caratteristiche del substrato materiale risultino indifferenti. Ad esempio, l'importanza del substrato materiale potrebbe cominciare a essere fondamentale a un livello molto più "mi­ ero" (ad esempio, intraneuronale) di quanto creda il sosteni­ tore di un'identità token-token. Vi è la possibilità reale che le spiegazioni psicologiche affondino le radici nella struttura neurofisiologica e che la simulazione di alcune capacità men­ tali dipenda non tanto dal modo in cui il meccanismo è pro­ grammato quanto da quello in cui il programma è meccaniz­ zato. È possibile quindi che l'unica riduzione interessante sia proprio quella negata dai cognitivisti cioè quella del men­ tale al cerebrale. Una teoria neurofisiologica della mente non sarebbe però scevra da pericoli e difficoltà, soprattutto se avesse la prete­ sa "eliminatoria" di sostituire ogni concetto e termine psix

cologico con concetti e termini primitivi neurofisiologici. In­ fatti il linguaggio funzionale della psicologia (ad esempio ter­ mini funzionali come desiderio, volontà, emozione, tristezza, ecc.) è difficilmente riducibile e scomponibile. Potrebbe però essere più abbordabile una riduzione di tipo "derivativo" in cui si cercasse di trovare una corrispondenza tra stati psico­ logici e stati neurofisiologici particolari. Per conseguire una tale riduzione derivativa sarebbero però necessarie due con­ dizioni: l) è necessario avere due teorie esplicitamente e pre­ cisamente formulate, sufficientemente corroborate, con ter­ mini con significato non ambiguo; 2) è necessario stabilire dei principi ponte, delle identità tra termini dell'una e termi­ ni dell'altra. Una riduzione di questo tipo è però attualmente impossibile per mancanza sia della prima come della secon­ da condizione data l'arretratezza delle conoscenze a disposi­ zione in campo neurobiologico e psicologico. Collegato a questo approccio bottom-up di riduzione della psicologia alla neurofisiologia troviamo l'attuale programma "connessionistico". Esso muove dall'ipotesi che l'elaborazio­ ne delle informazioni sia svolta essenzialmente dall'intera­ zione di un gran numero di unità semplici e che la computa­ zione sia una questione di connessioni appropriate piuttosto che di trasmissione di informazioni simboliche. I modelli "connessionistici" sono quindi modelli esemplificati delle re­ ti neuronali. Il Parallel Distributed Processing di Rumelhart e McClelland è alla ricerca della "microstruttura della cogni­ zione" da cui poi la "macrostruttura" potrebbe essere inferi­ ta come insieme di proprietà emergenti. In definitiva viene operata un'inversione nell'uso del calcolatore. Esso non vie­ ne utilizzato (in senso top-down) per la simulazione dell'atti­ vità mentale, ma come modello reale dell'architettura neuro­ nale che sia in grado di simulare le microstrutture cognitive del cervello. Ciò si inserisce nel tema conduttore della terza parte del volume: quali sono le vie per l'analisi computazionale delle attività mentali ? Come abbiamo visto prima, ogni tentativo di riduzione radicale presenta serie difficoltà. Come è impos­ sibile, secondo Marr, capire il volo di un uccello esaminando solo le penne delle ali, ma è necessario analizzare i vincoli e le limitazioni della gravità al volo e come l'uccello riesca a superarli, così, per capire la visione, non è sufficiente occu­ parsi solo della neurofisiologia della visione, ma è necessa­ rio individuare una teoria che renda conto delle limitazioni, dei vincoli che si oppongono alla visione e di come è possibi­ le neutralizzarli. Non è sufficiente avere conoscenza di un solo livello, ma si deve essere capaci di descrivere le risposte XI

dei neuroni, di predire i risultati degli esperimenti di psicofi­ sica e di scrivere un programma al calcolatore che analizzi e interpreti gli input visivi nel modo desiderato. In definitiva sembra si possano individuare tre principali livelli di spiegazione della mente: il primo, quello della "teo­ ria computazionale" in cui si cerca di rispondere a domande di "cosa" e "perché" viene computato, ad esempio del modo in cui nella visione un'immagine a due dimensioni è in rap­ porto con un mondo tridimensionale; il secondo, quello "al­ goritmico" che specifica "come" una computazione viene ese­ guita, come si passa da un dato input a un dato output, ad esempio al modo in cui viene eseguita la stereoscopia; il ter­ zo, quello dell"'implementazione" dell'algoritmo cioè del substrato materiale, del meccanismo che produce la compu­ tazione, ad esempio il substrato neurofisiologico della visio­ ne stereoscopica. Questo volume, pur nella pluralità delle voci, rappresenta e descrive questa evoluzione delle ricerche nella scienza co­ gnitiva verso una maggiore attenzione, integrazione e inter­ disciplinarità dei vari livelli di analisi dell'attività mentale, opposta a qualsiasi pretesa imperialistica di riduzione "eli­ minatoria" di un livello rispetto agli altri. Il volume Mente umana, mente artificiale deriva princi­ palmente dalle relazioni tenute al convegno "Mente umana, mente artificiale" organizzato a Torino nel 1 985 dall'Istituto di Metodologia della scienza e della tecnologia di Torino e dall'Assessorato alla Cultura della Regione Piemonte. Le re­ lazioni hanno subito in alcuni casi profonde modifiche e in altri casi sono state sostituite da saggi scritti appositamente per questo volume. Le versioni definitive sono state presen­ tate entro febbraio del 1988. Si ringraziano gli autori per la collaborazione data al curatore. Un riconoscimento particolare per il contributo dato alla realizzazione del Convegno va a Maria Todaro, Marcello La Rosa e Angelo Petroni dell'Istituto di Metodologia della scienza e della tecnologia di Torino e a Maria Antonietta Ric­ chiuto e a Alberto Vanelli dell'Assessorato alla Cultura della Regione Piemonte. Un sentito ringraziamento va a Filippo Macaluso che ha promosso e permesso le prime fasi del progetto editoriale e a Salvatore Veca che ha compreso il valore scientifico del vo­ lume e ne ha sostenuto la pubblicazione. Il volume è pubblicato con un contributo dell'Assessorato alla Cultura della Regione Piemonte.

XII

Parte prima

Epistemologia della mente e simulazione

La simulazione della mente al calcolatore è socialmente dannosa? di Margaret A. Boden

Tre secoli fa, Spinoza fece la sconvolgente affermazione (resa nota solo dopo la sua morte) che una psicologia scienti­ fica, pienamente coerente con la nostra conoscenza del mec­ canismo corporeo, fosse in linea di principio possibile. Egli accusava i propri oppositori di sottovalutare le potenzialità del modello meccanico: "Essi non sanno che cosa possa fare il corpo, né quali deduzioni si possano trarre dalla sola con­ siderazione della sua natura." L'Illuminismo vide la pubbli­ cazione, da parte del conte de la Mettrie, di un libro (L 'ho m­ me machine) dal titolo altrettanto scandaloso, allora, quanto certi titoli a sensazione dei nostri quotidiani. E un centinaio di anni dopo l'eccentrica lady Ada Lovelace (figlia del fami­ gerato lord Byron) sostenne che dalla Macchina Analitica di Charles Babbage si potesse far derivare un dispositivo capa­ ce di svolgere anche computazioni diverse da quelle matema­ tiche: ad esempio quelle richieste per "comporre elaborati scientifici e brani di musica, di qualsivoglia grado di com­ plessità o estensione" . È chiaro, quindi, che non vi è nulla d i nuovo nel conside­ rare, da un punto di vista filosofico, la mente simile a un meccanismo. La novità risiede invece nel fatto che quest'idea oggi non è più riservata a pochi intelletti audaci, ma permea il lavoro quotidiano di molti psicologi teorici, impegnati nel­ lo sviluppo di precise teorie, computazionalmente specifica­ te, della visione, del linguaggio e del pensiero. Simulando al calcolatore i processi psicologici, essi usano la tecnologia dell'ultimo scorcio del ventesimo secolo per verificare la lun­ gimirante intuizione di lady Lovelace che un meccanismo per il trattamento dell'informazione "potrebbe operare su oggetti diversi dai numeri, se si trovassero oggetti le cui rela3

zioni reciproche fondamentali fossero esprimibili per mezzo di quelle della scienza astratta delle operazioni, oggetti che dovrebbero essere inoltre adattabili all'azione della notazione operativa e del meccanismo della macchina". Ciononostante, tali idee vengono ancora ampiamente per­ cepite come sconvolgenti. Il fatto che persino sulla rivista "Playboy" siano comparsi articoli intitolati La mente della macchina indica come quest'ultima espressione sia ancora in grado di provocare un certo brivido. La maggior parte delle persone è profondamente scettica sulla possibilità che i cal­ colatori possano simulare la mente umana; per molti già la semplice idea è chiaramente assurda. Per di più, il loro scet­ ticismo e il loro scherno sono di solito accompagnati dal ti­ more. Oggi le teorie che assimilano la mente a un meccani­ smo appaiono anche più minacciose di quanto apparissero secoli fa simili riflessioni: e questo proprio perché sono ora disponibili risultanze più convincenti. Naturalmente, la maggior parte delle persone non cono­ sce nei particolari le teorie psicologiche che si fondano su idee computazionali. In verità, dopo i primi tentativi di simu­ lazione della mente al calcolatore (verso la fine degli anni quaranta), e per tutti e tre i decenni successivi poco trapelò al grande pubblico; e anche gli studenti di psicologia assai difficilmente potevano entrare in contatto con queste idee. Negli ultimi due o tre anni, tuttavia, la simulazione al cal­ colatore di funzioni mentali è diventata improvvisamente di dominio pubblico. Vi sono ancora manuali di psicologia che non ne fanno menzione (ma corsi sull'argomento fioriscono un po' in tutto il mondo); è comunque difficile, ora, ignorar­ la, almeno come progetto tecnologico, se non come teoria o metodologia psicologica esplicitamente sostenuta. La tecnologia in questione è quella dell'Intelligenza Artifi­ ciale; essa ha lo scopo di mettere i calcolatori in grado di fa­ re lo stesso tipo di cose che riesce a fare la mente dell'uomo. L'attenzione del pubblico si è destata dopo la sfida commer­ ciale e politica del progetto giapponese per i calcolatori di "quinta generazione", annunciato per la prima volta nell'ot­ tobre del 1981; ma gli inizi devono essere fatti risalire a più di trent'anni fa, a quello stesso gruppo di scienziati che ori­ ginariamente sviluppò modelli psicologici al calcolatore. Sia da un punto di vista concettuale, sia da un punto di vista sto­ rico, quindi, l'Intelligenza Artificiale è strettamente connes­ sa con le teorie psicologiche che pongono una similitudine fra la mente e la macchina. In forza di queste connessioni, alcune delle paure che questa nuova tecnologia ha fatto sorgere sono ugualmente ri4

volte alla psicologia teorica che fa uso di simulazioni al cal­ colatore. Qui possiamo tranquillamente trascurare la paura di applicazioni in stile "Grande Fratello" o di altri abusi, così come gli effetti potenziali sulla qualità e la quantità dell'oc­ cupazione di manodopera. Ciò che conta è che l'uomo della strada, nella grande maggioranza dei casi, crede che l'Intelli­ genza Artificiale sia la negazione dei tratti specifici e delle peculiarità essenziali dell'essere umano, e ciò a causa delle conseguenze teoriche di tale disciplina a proposito della na­ tura della mente umana. In altre parole, la maggioranza te­ me che, se permettiamo che l 'immagine dell'uomo sia forgia­ ta a somiglianza del calcolatore, i valori umani debbano pas­ sare in secondo piano o essere del tutto negati. Questa reazione culturale all'Intelligenza Artificiale, ben­ ché forse eccezionalmente risentita, non è nuova: la scienza e la tecnologia sono state spesso considerate essenzialmente disumanizzanti. Gli psicologi e i filosofi "umanisti", in gene­ rale, non ritengono che le scienze (o, almeno, le scienze natu­ rali) siano uno strumento adatto all'indagine della mente. Dal loro punto di vista, ammesso che la psicologia sia una "scienza", non lo è certo nello stesso senso in cui lo sono la fisica la neurofisiologia. Questa reazione affonda le radici nel cuore della filosofia europea di tradizione continentale. Max Weber, Wilhelm Dil­ they e Jiirgen Habermas sono solo alcuni dei pensatori che hanno posto una netta distinzione tra il comprendere inter­ pretativo (o Verstehen), da essi considerato necessario per le scienze ermeneutiche o per quelle sociali, e l'atteggiamento oggettivo, esternalizzato, tipico delle scienze naturali. È una linea di pensiero che ha avuto un'influenza profonda anche su quanti non avevano mai nemmeno sentito nominare l' "er­ meneutica", l' "empirismo", o alcuno di questi pensatori. La versione vulgata di queste distinzioni filosofiche ha animato la "controcultura" antiscientifica dei primi anni settanta. Opere assai lette e discusse come il libro Where the waste­ land ends, di Theodore Roszak, hanno propugnato (in modo alquanto indiscriminato) valori umanistici e religiosi come forma d'opposizione alla razionalità tecnologica che costitui­ sce il fondamento della società industriale. Nell'ambito della psicologia teorica, l'adesione a questo tipo di idee non è stata universale, e tanto meno esse sono condivise quanto più ci si avvicina a una concezione "scienti­ fica" della psicologia. Il comportamentismo ha preso a mo­ dello le scienze naturali, manifestando una netta avversione per concetti di tipo mentalistico. Persino Freud, che indub­ biamente propugnava un metodo ermeneutico, credeva che 5

in ultima istanza, a livello filosofico, termini imbarazzanti come "scopo" e "scelta" potessero essere ridotti a eventi ce­ rebrali descrivibili con la terminologia oggettiva della neuro­ logia. Vi sono tuttavia anche psicologi, come quelli di orienta­ mento fenomenologico, esistenziale o etogenico, che non han­ no espunto dalle loro teorie i concetti soggettivi, e molti di essi hanno criticato la crescente influenz� della scienza e della tecnologia nel mondo moderno. Si tratterebbe, secondo costoro, di un problema immediatamente pratico, non di una sottigliezza filosofica che si possa ignorare senza danno: le teorie nelle scienze del comportamento stanno in una rela­ zione costitutiva, e non semplicemente descrittiva, con la realtà sociale. Le teorie sociali influenzano il modo in cui concepiamo noi stessi e il nostro potenziale umano: cambian­ do l'immagine che abbiamo di noi stessi, esse ci cambiano. Le ipotesi, spesso inconfessate e largamente inconsce, ri­ guardo a quel che gli esseri umani sono e possono essere, contribuiscono a determinare la nostra vita quotidiana per l'intima connessione che le lega alla nostra morale e al no­ stro morale. Nel 1 959, nel corso di una conferenza sulla psicologia esi­ stenziale, lo psicologo Rollo May riferì che i problemi dei suoi pazienti erano in gran parte dovuti al fatto che essi non si consideravano capaci di scelta e di azione coscientemente diTetta a un fine. Secondo Rollo May ciò era da imputare al­ la diffusa tendenza scientista che porta a paragonare l'uomo alla macchina. Certo May non poteva riferirsi all'influenza dell'Intelligenza Artificiale, che allora era ai suoi inizi, nota solo a un piccolo gruppo di iniziati. Se scrivesse oggi, tutta­ via, quasi certamente May la criticherebbe e, così come fece allora, ricondurrebbe i problemi psicologici dei suoi pazienti "agli aspetti disumanizzanti della scienza moderna che tra­ sformano l'uomo a immagine della macchina, a immagine delle tecniche con cui lo studiamo". Non è necessario istituire un paragone esplicito fra l'uo­ mo e la macchina, benché naturalmente ciò avvenga spesso. Il messaggio implicito nelle scienze naturali è abbastanza chiaro: poiché nella fisica non c'è posto per concetti come quelli di scopo, scelta, credenza, azione e, soprattutto, sogget­ tività, essa implicitamente incoraggia teorie dell'uomo e del mondo in cui tali concetti sono ugualmente banditi. Denunciando la tendenza della scienza a "minare l'espe­ rienza che l'uomo ha di se stesso come essere responsabile, a corrodere alla base la sua capacità di decisione e il suo vole­ re", May non sosteneva un'istanza puramente teorica; al con6

trario, riferiva conseguenze largamente diffuse che egli ave­ va avuto modo di osservare nei suoi pazienti. Insidiosamente incoraggiati dalle convinzioni scientifiche prevalenti a consi­ derarsi indifesi, questi si erano rivolti a lui per avere un aiu­ to concreto. Del resto non è necessario origliare al lettino dello psicoterapeuta per rendersi conto degli effetti umani (o inumani) di una visione del mondo apertamente "razionale" e strettamente "scientifica": li possiamo constatare facilmente in certe istituzioni politiche, o in certi ambienti di lavoro. Sappiamo che qualunque persona diventa sempre meno di­ sposta ad accettare responsabilità se non le si dà mai l 'occa­ sione di scegliere, se la si porta a credere di non esserne ca­ pace, o a pensare che qualunque decisione abbia preso risul­ terà indifferente. Sappiamo bene, inoltre, quanto risentimen­ to possa provocare l'essere trattati "come una macchina", o quanta frustrazione derivi dal mancato riconoscimento o va­ lutazione del proprio potenziale umano. Non deve sorprendere, allora, che le teorie psicologiche fondate sull'analogia con il calcolatore non ispirino alcuna fiducia: esse instillano il timore di un impoverimento del­ l 'immagine dell'uomo, ne indeboliscono lo spirito e lo fanno sentire impotente di fronte alle sfide della vita. Se la psicolo­ gia teorica ci dice che "non siamo altro che macchine", ne se­ gue, o almeno così sembra, che le pratiche sociali e gli atteg­ giamenti personali che conferiscono valore alle qualità speci­ fiche del genere umano non sono altro che illusioni senti­ mentali. Quanto più la psicologia computazionale guadagna terreno nell'ambiente accademico e l'Intelligenza Artificiale si afferma come tecnologia, tanto più, sembra, tali pratiche e atteggiamenti ne risultano svalutati. La diffusione dei modelli della mente al calcolatore deve necessariamente avere questa influenza sociale negativa? Nel chiedercelo dobbiamo ricordare l'avvertimento spinozia­ no a non sottovalutare le potenzialità del meccanismo: la di­ sumanizzazione tanto temuta è inevitabile solo se le teorie computazionali risultano in linea di principio incapaci di spiegare l'origine di proprietà mentali a partire dal mecca­ nismo. Rispetto ai tempi di Spinoza, oggi certo riteniamo che un "meccanismo" possa fare assai di più. Già alla metà del ven­ tesimo secolo, una concezione fondamentalmente materiali­ stica del corpo umano e delle sue funzioni biologiche e psico­ logiche si era affermata fra le persone meno scientificamen­ te sprovvedute. Gli anni trenta e quaranta, in particolare, avevano visto Alan Turing e Norbert Wiener gettare semi che avrebbero ben presto fruttificato. Wiener aveva definito 7

la cibernetica come la scienza "del controllo e della comuni­ cazione nell'animale e nella macchina": quest'espressione, che avrebbe deliziato l'autore settecentesco dell'Homme ma­ chine, era il sottotitolo del libro di Wiener. Turing, per par­ te sua, con i suoi risultati sulle "procedure effettive" astrat­ tamente considerate, aveva dimostrato la praticabilità dell'i­ dea di lady Lovelace secondo cui un meccanismo avrebbe potuto effettuare anche calcoli non numerici a condizione che "si trovassero oggetti le cui relazioni reciproche fonda­ mentali fossero esprimibili per mezzo di quelle della scienza astratta delle operazioni, oggetti che dovrebbero essere inol­ tre adattabili all'azione della notazione operativa e del mec­ canismo della macchina". La generalizzazione della cibernetica alla psicologia com­ piuta da Wiener era, tuttavia, più una promessa che una teoria scientifica compiuta. E chi dubita può non lasciarsi convincere nemmeno da dimostrazioni astratte, se queste si fondano su asserti condizionali (come quello appena citato) che sono in se stessi problematici. Solo se le procedure ef­ fettive possono svolgere computazioni non numeriche è pos­ sibile, in linea di principio, la meccanizzazione del pensiero. La difesa del potenziale del meccanismo in generale risulta più efficace se è sostenuta dalla dimostrazione che un parti­ colare tipo di macchina fornisce effettivamente certe presta­ zioni, che possono venire spiegate dallo scienziato. Mentre i neurofisiologi sperano di riuscire a fornire pri­ ma o poi questo tipo di dimostrazioni per quanto riguarda le varie funzioni del cervello, gli informatici dedicano atten­ zione alle proprietà computazionali dei calcolatori elettroni­ ci, e gli psicologi che fondano le loro teorie su modelli al calcolatore, infine, usano questa macchina per illustrare le proprie affermazioni sulle funzioni psicologiche del cer­ vello. Le critiche alla simulazione della mente mediante calco­ latore sono principalmente rivolte contro quest'assunto fon­ damentale. Secondo lo spirito di queste critiche, se a Ger­ trude Stein fosse mai capitato di dire "una macchina è una macchina, è una macchina. . . ", si sarebbe sbagliata. Il cervel­ lo è una macchina di tipo assai particolare, e il fatto che possa compiere funzioni psicologiche non prova che anche i calcolatori ne siano capaci. Invero (così prosegue l'obiezio­ ne), quasi certamente non lo sono, essendo fondamentalmen­ te diversi dal cervello. I calcolatori, compresi quelli usati per la simulazione della mente, sono dispositivi digitali, se­ riali, generali, mentre il cervello è una macchina analogica, parallela, specializzata. 8

È ancora una questione aperta se le funzioni della mente umana richiedano necessariamente il cervello, ovvero possa­ no essere compiute anche da modelli per calcolatore che del cervello condividono certe proprietà essenziali. Nella pratica della ricerca il pendolo oscilla fra la prima risposta e la se­ conda, e viceversa. Come vedremo, fra le ragioni di quest'o­ scillazione ve ne sono alcune che possono far luce su quelle tematiche della "disumanizzazione" e della "soggettività" che costituiscono l'oggetto principale di queste pagine. Il più chiaro esempio di quest'oscillazione è costituito dalla simulazione al calcolatore della visione. Mentre agli al­ bori della ricerca sulla visione si tentava di riprodurre il funzionamento parallelo del cervello umano, in seguito que­ sto tipo di ricerca cadde in disgrazia e si preferì, per qualche tempo, seguire un'impostazione del tutto differente. Recente­ mente, tuttavia, si è tornati a studiare con attenzione alcuni dei tratti caratteristici del cervello umano, tanto nell'ambito della psicologia teorica quanto in quello dell'Intelligenza Ar­ tificiale. Infatti, il tecnico, così come lo psicologo, ha bisogno di sapere come un sistema visivo riesca a formare descrizio­ ni accurate degli oggetti del mondo esterno, avendo in in­ gresso solo la luce, o l'immagine. Com'è possibile, ad esem­ pio, vedere qualcosa come un cubo o come un orsacchiotto, oppure percepire un oggetto in quanto lontano un paio di

metri, lungo circa trenta centimetri, avente una superficie on­ dulata, chiazzata, inclinata rispetto al terreno? I primi tentativi di simulazione della visione mediante calcolatore, ancora in gran parte ispirati a una concezione del cervello risalente agli anni cinquanta, produssero dispo­ sitivi di elaborazione in parallelo simili a una semplice rete neuronale. Ciascuno di questi programmi (in grado di rico­ noscere configurazioni semplici) era composto da diverse unità indipendenti per il trattamento dell' informazione, det­ te "demoni", coordinate da un "demone-capo". Ogni demone di basso livello sovraintendeva a una singola parte della con­ figurazione, con il compito di inviare un messaggio al demo­ ne-capo in caso ne rilevasse la presenza. Un demone era libe­ ro di "urlare" o "bisbigliare" , a seconda della probabilità e dell'importanza del proprio messaggio, ma non aveva alcun modo di influenzare il volume del messaggio dei suoi vicini. Compito del demone-capo era quello di individuare la confi­ gurazione generale, sulla base dei messaggi in arrivo dai vari demoni subordinati. Se tali messaggi, ad esempio, avessero rilevato la presenza di due linee orizzontali e una verticale aventi determinate relazioni spaziali reciproche, sarebbe sta­ ta segnalata la presenza di una "F". 9

Vi è una chiara analogia fra questi demoni monofunzio­ nali e le cellule per la "rilevazione di caratteri" della cortec­ cia visiva, che reagiscono (ad esempio) solo a una linea con un certo orientamento o a un profilo in moto lungo una par­ ticolare direzione. Furono proprio questi primi modelli al calcolatore a suggerire ai neurofisiologi la possibilità che si­ mili rilevatori di caratteri esistessero, stimolandone così la ricerca. E ciò mostra come i modelli computazionali di pro­ cessi psicologici possano qualche volta portare un contribu­ to allo studio del cervello, ponendo l'accento più sulle unità funzionali che su quelle materiali. L'abbandono di questi primi modelli va ricondotto all'an­ cora insufficiente identificazione delle funzioni computazio­ nali richieste dalla visione. Nonostante fossero apparente­ mente organizzati in modo simile a quello del cervello, essi erano radicalmente incapaci di vedere (descrivere) oggetti solidi come cubi od orsacchiotti. Questi modelli potevano bensì distinguere alcune configurazioni, ma non interpretar­ le, non disponendo di alcuna conoscenza riguardo alla proie­ zione di oggetti tridimensionali sul piano. La visione, in ge­ nerale, non è mero riconoscimento di forme ma interpre tazio­ ne di immagini: perciò non basta elencare e classificare le possibili proprietà di una forma per riprodurre la visione. Non appena ci si rese conto di ciò, il pendolo iniziò l'o­ scillazione contraria: cioè furono abbandonati i modelli di reti neuronali e la ricerca si rivolse all'interpretazione visiva, in cui le immagini non sono ridotte a forme, ma sono conce­ pite come rappresentazioni del mondo reale. Queste interpretazioni (costruite minuziosamente in ogni singolo passo e realizzate su calcolatori digitali non specia­ lizzati) trovavano fondamento e giustificazione nella geome­ tria proiettiva, che descrive in che modo certi oggetti solidi appaiano all'osservatore secondo i diversi punti di vista. Si giunse così a scrivere programmi per l' "analisi di scene" (contrapposta al "riconoscimento di forme") che incorpora­ vano conoscenze geometriche sistematiche sulle possibili corrispondenze fra lo spazio bidimensionale e quello tridi­ mensionale. Questi programmi usavano la conoscenza imma­ gazzinata per elaborare corrette interpretazioni tridimensio­ nali di oggetti dati per mezzo di rappresentazioni bidimen­ sionali. Per esempio, il disegno di un cubo sarebbe stato ri­ conosciuto come rappresentazione di un cubo. In generale, un programma per l'analisi di scene era in grado di interpretare il disegno di quei tipi di oggetti per cui disponeva già della conoscenza necessaria. Si faceva uso di conoscenza ad alto livello riguardante una certa classe di og10

getti per guidare l'interpretazione visiva: in un certo senso questi programmi "sapevano cosa cercare" nell'immagine bi­ dimensionale. L'idea di fondo era che percependo un cubo, ad esempio, inconsciamente usiamo la nostra conoscenza sul modo in cui i diversi angoli appaiono in un'immagine (o in un disegno) del cubo. Non è un caso che io abbia insistito sul cubo, piuttosto che sull'orsacchiotto, che pure avevo menzionato. Il fatto è che gli orsacchiotti risultavano del tutto invisibili alla macchina che conduceva l'analisi della scena: il calcolatore non riusciva nemmeno a riconoscerli come oggetti solidi. Ancor meno esso era in grado di riconoscere un orsacchiotto come qualcosa (anche se qualcosa cui non poteva essere attribuito alcun no­ me) avente una morbida superficie pelosa dal profilo irregola­ re e due lucenti protuberanze in prossimità di un estremo. L' "invisibilità" degli orsacchiotti aveva tre ragioni. In primo luogo, la semplice geometria proiettiva impiegata per­ metteva di descrivere profili diritti, ma non profili curvi. In secondo luogo, questi modelli dovevano essere pre-program­ mati fornendo loro dettagliate informazioni su ciò che avreb­ bero visto: poiché non erano stati istruiti (né avrebbero potu­ to esserlo) sull'aspetto degli orsacchiotti, non avevano modo di identificare curve e superfici sporgenti. Infine, i program­ mi per l'analisi di scene non potevano percepire profondità, orientamento o consistenza superficiale localizzata. Così nemmeno un cubo ricoperto di tessuto (come quelli che si danno ai neonati) avrebbe potuto essere descritto da uno di questi programmi come "peloso", né, se è per questo, un cu­ bo di plastica avrebbe potuto essere descritto come "liscio". Queste deficienze radicali stanno per essere largamente superate ora che il pendolo oscilla di nuovo verso modelli più simili al cervello. Di nuovo, l'enfasi cade sull'elaborazio­ ne parallela, nel quadro di reti di unità elementari altamente specializzate. Vi sono tuttavia tre importanti differenze fra i sistemi "connessionistici" di oggi e le "reti neuronali" degli anni cin­ quanta: ogni singola unità (ogni demone) di un sistema con­ nessionistico dà un'interpretazione tridimensionale dell'im­ magine puntuale bidimensionale che gli viene sottoposta. Ta­ li unità, inoltre, non sono indipendenti, ma ognuna di esse può influenzare il "volume" della comunicazione del proprio vicino per mezzo di una retroazione (o feedback) simile ai processi di eccitazione e inibizione che hanno luogo fra i neuroni del cervello umano. Le unità, infine, sono specifica­ mente progettate e interconnesse, facendo riferimento a una potente teoria generale dell'interpretazione delle immagini. 11

La teoria implicita nelle nuove macchine "cerebrali" è la fisica della formazione d'immagine e i principi ad essa asso­ ciati della corrispondenza fra lo spazio bidimensionale e quello tridimensionale. Questi ultimi descrivono il modo in cui la luce viene riflessa da superfici aventi proprietà fisiche diverse, tenendo conto di parametri quali l'orientamento del­ la superficie rispetto all'osservatore, la sua distanza rispetto all'occhio (ovvero le sue due distanze differenti rispetto ai due occhi). La superficie complessiva di ogni oggetto fisico può esse­ re pensata come suddivisa in molte piccole areole, ciascuna delle quali di solito ha caratteristiche simili a quelle delle areole vicine. Così un'areola pelosa sulla superficie del cor­ po di un orsacchiotto è di solito circondata da altre areole pelose, e una translucida è circondata da altre areole con la stessa proprietà. La sola eccezione a questa regola si ha in prossimità degli "occhi", o degli "artigli" dell'orsacchiotto, di solito di vetro. Ne segue che punti vicini dell'immagine ten­ dono ad avere caratteristiche simili, così che i punti di di­ scontinuità dell'immagine spesso corrispondono a confini reali fra oggetti distinti del mondo. Spesso, ma non sempre. In un mondo in cui esistono cani dalmata, non ogni punto di evidente discontinuità può essere interpretato correttamente come una distinzione fisica. Le macchie bianche e nere sul mantello di un cane dalmata non sono oggetti distinti: esse appartengono alla medesima su­ perficie fisica e devono essere attribuite al medesimo ogget­ to (il cane). Ma le chiazze sul mantello di un dalmata assai di rado coincidono esattamente con il contorno del suo corpo, e così i punti (bianchi o neri) sul contorno di chiazze confinanti si trovano di solito alla stessa distanza dall'osservatore. Allora è possibile distinguere i confini delle chiazze dai reali con­ torni dell'oggetto purché almeno alcune delle unità visive possano interpretare i punti dell'immagine in riferimento al­ la loro distanza dall'osservatore e influenzare le interpreta­ zioni fornite dai rilevatori di chiazze. Solo se le unità in gra­ do di rilevare la distanza segnalano, per la posizione esami­ nata, una differenza di profondità nello spazio tridimensio­ nale, il sistema visivo interpreterà una differenza di colore come un contorno corporeo, piuttosto che come un segno sulla medesima superficie, cioè come una chiazza. L'interpretazione tridimensionale complessiva a cui il si­ stema perviene è di solito corretta, perché la retroazione tra le singole unità tiene conto delle "possibilità fisiche" delle immagini in generale. Con ciò si intende dire che le connes12

sioni eccitatorie e inibitorie che collegano le diverse unità permettono a ciascuna di influenzare la "sonorità" della co­ municazione delle altre, producendo così un messaggio glo­ bale coerente. Questo tipo di sistema visivo, quindi, è in linea di princi­ pio capace di identificare persino un cane dalmata su uno sfondo bianco e nero. A questo scopo, si deve poter distin­ guere una chiazza nera dell'immagine, causata da una mac­ chia nera del mantello del cane, da una chiazza nera dell'im­ magine, immediatamente contigua alla prima, ma corrispon­ dente a una macchia della superficie su cui si trova il cane. Supponiamo che alcune unità abbiano descritto questa parte dell'immagine come "una" chiazza nera (perché nell'immagi­ ne è così che appare); ora, se i rilevatori di distanza avessero identificato in quella stessa area due zone di diversa profon­ dità, essi potrebbero comunicare alle unità per la rilevazione delle chiazze interessate un messaggio inibitorio, bloccando la segnalazione di "una" chiazza (ascrivibile a "una" superfi­ cie). Analogamente, le unità preposte alla rilevazione dei con­ torni di un oggetto sulla base della profondità verrebbero fa­ cilitate dalla segnalazione di materiali di diversa consistenza ai lati della linea che separa zone a profondità diverse. Un si­ stema visivo siffatto (del tutto analogamente a quanto fa un essere umano) avrebbe meno difficoltà a riconoscere un cane dalmata su un pavimento di piastrelle bianche e nere piutto­ sto che su un tappeto peloso dello stesso colore. L'oscillazione teorica di cui abbiamo discusso suggerisce che qualsiasi sistema visivo capace di porre corrispondenze affidabili fra lo spazio bidimensionale e quello tridimensio­ nale deve essere organizzato in modo più o meno simile a quello del cervello. I più recenti modelli per calcolatore de­ vono la loro "cerebralità" alla loro capacità di elaborazione parallela, che fa uso di unità analogiche (capaci di comunica­ re in modo più o meno "sonoro") specializzate nel riconosci­ mento di certi aspetti dell'immagine (le unità che possono vedere la profondità sono cieche alle linee e ai colori). At­ tualmente questi sistemi sono realizzati su calcolatori digita­ li, ma presto saranno disponibili potenti macchine ad archi­ tettura parallela. La psicologia della visione ha fatto molti progressi, grazie a questo modo di affrontare il problema, anche se molte que­ stioni rimangono aperte. Ad esempio, è molto migliorata la nostra conoscenza della stereopsi (il tipo di visione in pro­ fondità che sfrutta la differenza tra le immagini che si pre­ sentano ai due occhi). Questo non perché i modelli al calcola­ tore abbiano fatto emergere nuovi fatti fisiologici, ma per13

ché ora comprendiamo molto meglio ciò che un sistema stereottico deve fare, e il modo in cui potrebbe farlo. Que­ ste idee potrebbero portare un contributo anche alla neu­ rofisiologia, aiutando il fisiologo a identificare meccanismi cerebrali psicologicamente rilevanti (come nel caso, già menzionato, dei rilevatori di caratteri costituiti da una so­ la cellula). In breve, l'oggetto della psicologia non è il cervello, ma che cosa esso è in grado di fare. Ciò che è psicologicamente importante, in una "macchina" capace di distinguere un cane dalmata su un tappeto pezzato, non è il materiale di cui essa è costituita (si tratti di protoplasma o di chip di silicio), ma il modo in cui tale materiale è organizzato e le funzioni com­ putazionali che può compiere. Tali funzioni, e la conoscenza incorporata nella macchina (le regole generali di corri­ spondenza tra spazio bidimensionale e spazio tridimensiona­ le), permettono di costruire rappresentazioni corrette di og­ getti posti sullo sfondo di un tappeto. Queste rappresentazio­ ni interne mediano i giudizi e le credenze del sistema riguar­ do agli oggetti esterni: permettono, ad esempio, di determi­ nare tanto la posizione in cui gli oggetti si trovano quanto le loro dimensioni, e queste credenze possono influenzare le de­ cisioni del sistema sul modo migliore di aggirare l'oggetto senza inciamparvi. Inoltre, se il sistema disponesse di cono­ scenze specifiche sui cani dalmata, esso potrebbe anche rico­ noscere alcuni di questi oggetti come cani dalmata. Le scienze naturali non si occupano di funzioni computa­ zionali, né di conoscenza, rappresentazioni e simili; bisogna quindi riconoscere che (come hanno sempre sostenuto gli umanisti) esse non possono fornire gli strumenti adatti per lo studio della mente. La psicologia, invece, è radicalmente diversa dalla fisica e dalla neurofisiologia. Queste scienze non riescono a esprimere il fatto che per­ sone diverse possano vedere il mondo in modi diversi, che le azioni di qualcuno differiscano da quelle di un altro a causa di diverse posizioni politiche o priorità personali, o anche semplicemente a causa di esperienze culturali diverse. Nel vocabolario (e negli schemi esplicativi) delle scienze naturali, quindi, non si possono nemmeno formulare domande su tali questioni; tantomeno ad esse si può dare risposta. Si spiega così perché esse siano ignorate, o respinte come sentimenta­ lismi futili, da coloro che condividono una visione del mondo scientifica. Nel migliore dei casi, esse sono relegate nella sfe­ ra della letteratura o della poesia: ottime per un piovoso po­ meriggio domenicale, purché sia chiaro che non hanno nulla a che spartire con la scienza seria. 14

Viceversa, la concezione della mente come sistema com­ putazionale esalta le nostre credenze e i nostri valori, che di­ vengono così cruciali, da un punto di vista psicologico. Tali credenze e valori (tanto quelli personali quanto quelli più largamente diffusi) impregnano e mediano le nostre perce­ zioni, azioni e decisioni. Chi non crede che i dalmata siano cani bianchi e neri non riuscirà a identificare il dalmata ac­ cucciato sul tappeto, anche se è in grado di riconoscerlo co­ me oggetto solido, o persino come un cane. E chi non si fa scrupolo di calpestare i cani può ritenere trascurabili le in­ formazioni sulla posizione del cane quando si muove per at­ traversare la stanza. In generale, come dicono gli umanisti, siamo creature soggettive, o, come una volta disse un collega abituato al linguaggio degli informatici, "abitiamo le nostre strutture-dati". Con ciò non si vuole sminuire il meccanismo. Anzi, ne apprezziamo sempre più le possibilità, quando i più recenti modelli per calcolatore ci mostrano come sia possibile, per certe macchine particolari, effettuare complesse distinzioni visive. Ma è comprensibile che chi conosce soltanto "mac­ chine" di tipo non computazionale (come le automobili, o le macchine per scrivere) si senta degradato se la scienza lo classifica come "(nient'altro che) una macchina". Non sor­ prende che a questo paragone i pazienti di Rollo May si sia­ no ribellati, nei modi autodistruttivi che egli ha descritto. Tutt'altra faccenda è essere paragonati a uno dei sistemi computazionali di cui si occupano gli psicologi. Ma non tutte le nostre capacità mentali sono state com­ prese appieno, o simulate al calcolatore. Come avrebbe po­ tuto dire lady Lovelace, gli psicologici teorici non sono an­ cora riusciti a esprimere le "relazioni reciproche fondamen­ tali" dei processi mentali per mezzo di "quelle della scienza astratta delle operazioni" . Anche ammettendo che ciò sia in linea di principio possibile, non ci si arriverà certo in tempi brevi, perché la mente umana è di gran lunga più ricca di quanto si pensi. Molti "umanisti" riescono a intuire le sotti­ gliezze della mente, ma non hanno ancora fornito una de­ scrizione particolareggiata dei complessi fenomeni che vi sono coinvolti. Anzi, con la sola possibile eccezione di Freud, non vi hanno nemmeno provato. � solo quando tenta­ no di produrre una teoria sufficientemente chiara e comple­ ta da permettere a un calcolatore di agire in modo "umano", che gli psicologici si rendono conto della difficoltà del com­ pito. Persino le abilità quotidiane che ognuno di noi ha, e che al­ l'introspezione sembrano semplici e facili, si rivelano enor15

memente complesse. Ne segue che la tecnologia dell'Intelli­ genza Artificiale è, e potrebbe per sempre rimanere, di gran lunga meno efficace di come viene raffigurata nella fanta­ scienza o nelle nostre paure. Chi si sente sminuito perché, a differenza dei programmi per calcolatori, non riesce a risol­ vere equazioni matematiche in una frazione di secondo, de­ ve tener presente che vi sono cose che nessun calcolatore può fare e che per l'uomo risultano ovvie. La fiducia e l'im­ magine che costoro hanno di sé potrebbero essere migliori se capissero che il "pensiero" e la "comprensione" mostrati anche dai più potenti programmi per calcolatore non sono nulla in confronto ai nostri. Questa verità è spesso trascurata, perché vi sono pro­ grammi che fanno bene ciò che noi facciamo male. I calcola­ tori sono più bravi di molti (e, qualche volta, della maggior parte degli) specialisti umani in campi come la matematica e il ragionamento scientifico delimitabile in modo preciso. Ciò spiega come siano possibili i "sistemi esperti": program­ mi che possono risolvere problemi in aree strettamente deli­ mitate della stereochimica, della prospezione geologica e pe­ trolifera, della diagnosi medica. Di solito si dimentica, tutta­ via, che i calcolatori trovano impossibile fare ciò che tutti noi facciamo facilmente. Noi comprendiamo la nostra lin­ gua madre; riconosciamo oggetti parzialmente nascosti in mezzo ad altri; usiamo il nostro senso comune nell'affronta­ re un problema, o nel "leggere fra le righe" di un discorso, di una lettera, di un giornale; usiamo le dita con destrezza per innumerevoli attività manuali . E solo in misura estre­ mamente ristretta la tecnologia dei calcolatori è, oggi, in grado di simulare queste attività. Per quanto paradossale possa sembrare, insomma, le si­ mulazioni della mente al calcolatore possono essere "riuma­ nizzanti" in modo positivo. Grazie ad esse, "mente" e proces� si "mentali" sono concetti che ora trovano piena cittadinan­ za in psicologia (mentre ne erano esiliati all'epoca del com­ portamentismo). Ciò è importante non solo per gli psicologi, ma per la società in generale, perché, come gli stessi psico­ logi giustamente ci ricordano, il modo in cui concepiamo noi stessi non è affatto indifferente. La scienza risulta disu­ manizzante solo se in essa non c'è spazio per i concetti della mente e per il vocabolario della soggettività. Questo spazio è assente nelle scienze naturali, la neurofisiologia "pura", ma ben presente in psicologia, in informatica e in neurolo­ gia, finché, almeno, quest'ultima assume a proprio oggetto le funzioni computazionali del cervello. 16

Oggi, quindi, l'affermazione che è possibile una psicolo­ gia scientifica non dovrebbe suonare sconvolgente come ai tempi di Spinoza. Purché concepita in modo corretto, la si­ mulazione della mente al calcolatore non è necessariamente dannosa per la società.

17

Il mito dell'intenzionalità originaria di Daniel C. Dennett

Secondo John Searle, la versione "forte" dell'Intelligenza Artificiale è una posizione teorica destituita di ogni fonda­ mento e priva di qualsiasi prospettiva concreta perché il cer­ vello esercita un'azione causale particolare che "nessun pro­ gramma formale per calcolatore, da solo", potrà mai ripro­ durre. Come è noto, il cuore dell'argomentazione di Searle è l'esperimento mentale della Stanza Cinese, che io tuttavia non discuterò: si tratta per molti aspetti di un ragionamento dalla logica zoppicante, come si è riconosciuto da più parti, e come forse il solo Searle si ostina ormai a negare. (Gli errori logici contenuti nell'esempio della Stanza Cinese sono messi in luce, in modo a mio parere definitivo, in Hofstadter e Den­ nett, 198 1 .) Ciononostante, sono molti coloro che, pur ricono­ scendo la fallacia del ragionamento di Searle, ne condivido­ no le conclusioni: se è a queste ultime che si vuole controbat­ tere, bisogna prescindere dal modo in cui sono state raggiun­ te da Searle per procedere a un vero e proprio attacco fron­ tale. Searle sostiene che il cervello "è causa di fenomeni men­ tali dotati di contenuto intenzionale e semantico" (Searle, 1 982, p. 57), fenomeni cui fa riferimento ora con il nome di intenzionalità originaria (Searle, 1 980), ora con quello di in­ tenzionalità intrinseca (Searle, 1982, p. 57). Ora, i poteri del cervello umano non vanno certo sottovalutati, ma è difficile pensare che possano avere effetti simili a quelli ipotizzati da Searle: "Dennett ... non crede che, in senso letterale, esistano stati mentali intenzionali intrinseci" (Searle, 1 982, p. 57). Lo scopo di queste pagine è così duplice: in primo luogo cerche­ rò di mostrare quanto siano strani, e in ultima istanza assur­ di, i poteri che Searle attribuisce al cervello umano, e in se18

condo luogo passerò a esporre il mito dell'intenzionalità ori­ ginaria. Non è affatto raro in filosofia che un dogma confuso e ir­ rimediabilmente sbagliato somigli molto da vicino a una ve­ rità importante. Forse molti di quelli che sono stati attratti dalla posizione di Searle: Soltanto un cervello umano organico, e certamente nessun calcolatore elettronico digitale del tipo di quelli comunemente usati in Intelligenza Artificiale, può avere i poteri causali richie­ sti per produrre l'intenzionalità S.

l'hanno confusa con la seguente: D. Soltanto un cervello umano organico, e certamente nessun calcolatore elettronico digitale del tipo di quelli comunemente usati in Intelligenza Artificiale, può avere i poteri causali richie­ sti per produrre l'attività mentale pronta e intelligente di solito mostrata dagli esseri umani normali.

Come suggeriscono le iniziali, tenterò di argomentare in favore della posizione D, mettendone quindi in luce le diffe­ renze rispetto alla posizione S. Preliminarmente, tuttavia, bi­ sogna sgombrare il campo da un piccolo equivoco cui può dar luogo l'affermazione di Searle. C'è un senso del tutto ov­ vio e banale per cui nessun programma "formale" per calco­ latore, da solo, può produrre questi effetti: nessun program­ ma per calcolatore che giaccia inutilizzato su uno scaffale, nessuna successione astratta di simboli può essere causa di alcunché. Da solo (in questo senso) nessun programma per calcolatore può fare due più due e ottenere quattro, non par­ liamo nemmeno della possibilità di produrre fenomeni men­ tali dotati di contenuto intenzionale. L'affermazione di Sear­ le secondo cui è ovvio che nessun programma per calcolato­ re può "riprodurre l'intenzionalità" sembra trarre almeno parte della propria forza ed evidenza dal confondere questa ovvia asserzione con quella più sostanziale e dubbia che nes­ sun programma per calcolatore rappresentato ed eseguito su una macchina digitale può "produrre l'intenzionalità". Poi­ ché solo quest'ultima tesi rappresenta una sfida per l'Intelli­ genza Artificiale, nel seguito supporremo che la posizione di Searle possa riassumersi nel modo seguente: nessuna rap­ presentazione materiale ed eseguibile di un programma "for­ male" per calcolatore può "produrre l'intenzionalità" solo in virtù del fatto di essere una rappresentazione di un tale pro­ gramma formale. Ciò equivale a dire che i poteri causali del­ la rappresentazione materiale, derivanti dall'essere una rap19

presentazione del programma, non riusciranno mai a "causa­ re fenomeni mentali" (Ibid.). In altri termini ancora: prende­ te un oggetto materiale qualsiasi che non abbia il potere di produrre fenomeni mentali; è impossibile trasformarlo in un oggetto dotato di tale potere semplicemente programmando­ lo, riorganizzando cioè le relazioni di dipendenza condiziona­ le che governano le transizioni da uno all'altro degli stati dell'oggetto. Come tutti sanno, ho difeso in più occasioni la versione forte dell'Intelligenza Artificiale, come metodologia e come ideologia, affermando che essa trova il proprio fondamento nella tesi di Church e nella ricerca di maggiore chiarezza concettuale in psicologia (vedi Dennett, l 97 5). Difendere ora la proposizione D, sopra enunciata, non costituisce un tradi­ mento delle mie precedenti posizioni? Certamente no: come tenterò di dimostrare, queste ultime non sono affatto in con­ trasto con la proposizione D. C'è un divertente romanzo fantastico di Edwin Abbott in cui si racconta la storia di esseri intelligenti che vivono in un mondo a due dimensioni (vedi Abbott, 1 884). Un guastafeste di cui ho per fortuna dimenticato il nome ha una volta obiet­ tato che la storia di Abbott non poteva essere vera (come se qualcuno vi avesse mai creduto), perché due dimensioni non sono sufficienti per sviluppare l'intelligenza. Un essere intel­ ligente ha bisogno di un cervello con un alto grado di inter­ connessione (o di un sistema nervoso o di un qualche tipo di sistema di controllo complesso altamente interconnesso): ora, è impossibile collegare cinque cose fra di loro su un pia­ no senza che almeno una delle linee di interconnessione ne incroci un'altra, e un simile incrocio richiede una terza di­ mensione. Questa è un'argomentazione plausibile, ma falsa. Già pa­ recchi anni fa John von Neumann aveva dimostrato che si può costruire una macchina di Turing universale in sole due dimensioni, e la stessa possibilità era stata messa in luce da John Horton Conway descrivendo Life, il suo straordinario mondo bidimensionale. Invero, incroci e sovrapposizioni so­ no un modo comodo ed economico per aumentare la com­ plessità di un sistema, ma non sono affatto indispensabili, né in un calcolatore né in un cervello (vedi Dewdney, 1 984). Si può per esempio ricorrere alla strategia comunemente attua­ ta nei centri urbani: negli attraversamenti a "semaforo" le particelle elementari (bit di informazione o altro) attendono ognuna il proprio turno prima di passare attraverso il per­ corso di un'altra. Si paga, naturalmente, un prezzo in termi­ ni di velocità, ma non vi è alcun limite, in linea di principio, 20

alla complessità di un sistema bidimensionale. In realtà, nel mondo in cui viviamo, la velocità è un elemento essenziale dell'intelligenza: i mutamenti dell'ambiente circostante devo­ no essere percepiti e compresi nel momento stesso in cui av­ vengono, pena, in certi casi, la propria stessa sopravvivenza; non si può certo dire che un essere privo di quest'abilità, per quanto complesso, sia intelligente. Non è quindi affatto un caso che il nostro cervello sfrutti tutte le tre dimensioni spa­ ziali disponibili. Ammettiamo dunque che nessun sistema sotto le tre di­ mensioni sia in grado di produrre la prontezza e l'intelligen­ za dell'attività mentale di solito mostrata dagli esseri umani normali. I calcolatori sono tridimensionali, questo è vero, ma in un certo senso sono anche (quasi tutti) fondamental­ mente lineari: sono macchine di von Neumann dall'architet­ tura seriale e non parallela, capaci di fare solo una cosa alla volta. È diventata un luogo comune, al giorno d'oggi, l'affer­ mazione che sebbene una macchina di von Neumann, come la macchina di Turing universale da cui discende, abbia in li­ nea di principio la stessa capacità computazionale di qual­ siasi calcolatore, vi sono tuttavia molte computazioni, spe­ cialmente in aree cognitivamente rilevanti come il riconosci­ mento di modelli o pattern e l'accesso alla memoria, che le macchine seriali non possono effettuare in tempi ragionevo­ li. Questa è una delle motivazioni che stanno alla base della progettazione e della costruzione di calcolatori dall'architet­ tura altamente parallela. D'altra parte non è certo una novi­ tà che il cervello umano abbia un elevato grado di paralleli­ smo: milioni, se non miliardi, di canali, tutti simultaneamen­ te attivi. Neanche questo è un caso, presumibilmente. Un elaboratore altamente parallelo (come ad esempio il cervello umano) sembra dunque necessario per produrre l'attività mentale pronta e intelligente di cui è capace l'uo­ mo. Si noti che non ho fornito alcuna dimostrazione a priori della precedente affermazione, ma mi sono accontentato di un certo grado di verosimiglianza scientifica. Inoltre, si può supporre, non vi è motivo di credere che un elaboratore parallelo debba essere costituito da materiali organici. In fondo, la velocità di trasmissione dei sistemi elettronici è maggiore per diversi ordini di grandezza della velocità di trasmissione delle fibre nervose, e un elaboratore elettronico parallelo dovrebbe quindi essere più veloce e af­ fidabile di qualsiasi sistema organico. Può darsi - e ciò non è molto probabile anche se facilmente confutabile - che l'a­ bilità di elaborare le informazioni di ogni singolo neurone (la funzione ingresso-uscita da esso realizzata) dipenda dall'atti21

vità e dalle caratteristiche di certe molecole organiche sub­ cellulari. Supponiamo cioè che il trattamento delle informa­ zioni a livello enzimatico, per esempio, abbia delle conse­ guenze per quanto riguarda il comportamento e le presta­ zioni di quel piccolo calcolatore che è ogni singolo neurone. Allora, potrebbe essere di fatto impossibile duplicare in tempo reale il comportamento di un neurone per mezzo di un suo modello o di una sua simulazione. La ragione di ciò sta nel fatto che se si tentasse di costruire un modello del comportamento molecolare in tempo reale, questo non riu­ scirebbe ad essere così piccolo e veloce come le molecole modellizzate. Per quanto l'elettronica permetta una velocità di trasmis­ sione maggiore di quella riscontrabile in un meccanismo di tipo elettro-chimico, è possibile che i microchip non riescano a tenere il passo delle operazioni neuronali intracellulari nel determinare come modulare il segnale d'uscita. La differen­ za. di velocità nella trasmissione dei dati fra un sistema elet­ tronico e uno organico può essere annullata o resa negativa dal maggior tempo di elaborazione richiesto. Una posizione analoga è stata sostenuta da Monod, in riferimento alla " 'po­ tenza cibernetica' (cioè teleonomica) di cui può disporre una cellula fornita di alcune centinaia o migliaia di specie di que­ sti esseri microscopici, molto più intelligenti del diavoletto di Maxwell-Szilard-Brillouin" (vedi Monod, 1970, p. 64). D'altra parte è possibile naturalmente che la complessità dell'attività molecolare nelle cellule neuronali sia solo local­ mente significativa. Come ha avuto modo di dirmi Rodolfo Llinas, i neuroni non hanno alcun modo di controllare la ve­ locità di emissione del segnale elettrico né di imbrigliare la "potenza cibernetica" delle proprie molecole. La veloce ela­ borazione delle informazioni a livello molecolare non può es­ sere propagata e amplificata a livello neuronale, perché le molecole dovrebbero poter modulare un picco nell'emissione del segnale che è di diversi ordini di grandezza maggiore e più potente delle transizioni di stato del segnale da esse pro­ dotte in uscita. L'amplificazione e la diffusione a livello neu­ ronale del segnale molecolare dissiperebbe il tempo guada­ gnato nella miniaturizzazione. Così, con tutta probabilità, non si può dimostrare la natura intrinsecamente biologica dei poteri mentali secondo questa linea di argomentazione, che può tuttavia risultare istruttiva. Anche se non è ancora dimostrato che i nodi di un sistema a parallelismo elevato devono necessariamente essere neuroni aventi una determi­ nata costituzione materiale, questo caso non è affatto esclu­ so. Potrebbe esserci un altro modo per provare che non si 22

possono riprodurre artificialmente le funzioni essenziali che sovraintendono all'elaborazione delle informazioni nel cer­ vello umano, ottenendo gli stessi tempi di elaborazione di quest'ultimo. Dopotutto, vi sono molti fenomeni complessi, ad esempio quelli meteorologici, che non possono essere si­ mulati accuratamente in tempo reale nemmeno dai più gran­ di e veloci supercalcolatori oggi disponibili. Il motivo non è la mancata comprensione delle equazioni che governano il fenomeno, ma l'altissimo numero di volte in cui è richiesta la loro applicazione. Ad esempio, la griglia di campionamen­ to per il Nord America prevede che l'atmosfera venga divisa in parallelepipedi aventi una base di trenta miglia quadrate e un'altezza di diecimila piedi. Si ottengono così circa cento­ mila cellule meteorologiche, ognuna delle quali è caratteriz­ zata da una dozzina di possibili misure (temperatura, pres­ sione barometrica, direzione e velocità del vento, umidità re­ lativa ecc.), che variano in funzione delle corrispondenti quantità nelle cellule vicine. Il meccanismo che regola que­ sta variazione è ormai chiaro, ma esso non può essere simu­ lato, nemmeno sui più moderni supercalcolatori, in intervalli di tempo sufficientemente brevi da rendere significativa la previsione. Si potrebbero naturalmente installare centomila calcolatori, uno per ogni cellula meteorologica, e computare in parallelo la previsione globale. Ma non si può fare la me­ dia dei rilevamenti effettuati in un'area di trenta miglia sen­ za perdere aspetti significativi del fenomeno in esame, per non parlare delle conseguenze non trascurabili di disturbi microclimatici come il riflesso del sole sul parabrezza di un'automobile parcheggiata per strada. Dovremmo forse ri­ correre, per le previsioni meteorologiche, a qualche miliardo di calcolatori in parallelo ? Le tempeste di attività elettrica del cervello potrebbero rivelarsi altrettanto difficili da simulare e, quindi, da predi­ re. Se così fosse, poiché la velocità operativa è veramente un fattore critico dell'intelligenza, dovremmo accettare la pro­ posizione: D. Soltanto un cervello umano organico, e certamente nessun calcolatore elettronico digitale del tipo di quelli comunemente usati in Intelligenza Artificiale, può avere i poteri causali richie­ sti per produrre l'attività mentale pronta e intelligente di solito mostrata dagli esseri umani normali.

Sarebbe da stupidi opporsi alla proposizione D solo perché non è sostenuta da un'argomentazione del tutto cogente: do­ potutto, essa potrebbe anche essere vera. 23

Non è del tutto corretto caratterizzare la scommessa del­ l' Intelligenza Artificiale, in quanto disciplina scientifica, co­ me un tentativo di refutare la proposizione D. Come sempre nella scienza, quando si tratta di riprodurre un fenomeno na­ turale, la simulazione della mente al calcolatore è stata af­ frontata in uno spirito di eccessiva e opportunistica semplifi­ cazione. Nello studio di un fenomeno estremamente com­ plesso può essere utile e illuminante limitare il dominio o l'ambito di ricerca, considerare i dati a propria disposizione solo in media, effettuare alcune idealizzazioni. Si tratta di semplificazioni ispirate alla speranza che qualche aspetto importante del fenomeno complesso che si sta studiando ri­ sulti relativamente indipendente dalla miriade di particolari che lo nascondono, e che se ne possa quindi dare un modello che da tali particolari prescinda. Supponiamo, per esempio, di avere un sistema di Intelli­ genza Artificiale in grado di prendere decisioni e program­ mare le proprie azioni, e supponiamo parimenti che tale si­ stema abbia bisogno di un modulo visivo da cui attingere le informazioni necessarie relative all'ambiente circostante. Piuttosto che fornire un modello dell'intero sistema visivo (che dovrebbe indubbiamente avere un alto grado di paralle­ lismo e dovrebbe fornire in uscita un notevole volume di in­ formazioni), il progettista potrebbe decidere di utilizzare un surrogato: un "oracolo" visivo che ha memorizzate 256 possi­ bili descrizioni dell'ambiente esterno, fra cui sceglie quella da inviare al sistema principale. Con questa decisione il pro­ gettista scommette di riuscire ad approssimare la competen­ za e le prestazioni di cui vuole dare un modello (magari solo quelle di un bambino di cinque anni o di un cane, non quelle di un adulto), avendo a disposizione solo otto bit di informa­ zione sull'ambiente esterno. È ormai appurato che gli esseri umani semplificano notevolmente il trattamento delle infor­ mazioni, e si servono soltanto di una piccola frazione del flusso informativo proveniente dai sensi. È possibile natural­ mente che il progettista, in questo caso particolare, perda la scommessa, ma ciò significherebbe solo che dovremmo cer­ care un altro modo di semplificare il fenomeno che si vuole riprodurre. In Intelligenza Artificiale sono stati sviluppati molti modelli e sistemi diversi, senza riuscire a riprodurre il comportamento di un essere umano normale, neanche in mo­ do approssimativo o ammettendo alcuni ordini di grandezza di differenza nei tempi di elaborazione. Tuttavia, ciò non mette in discussione la metodologia di ricerca in Intelligenza Artificiale più di quanto l'incapacità di predire correttamen­ te il tempo atmosferico nel mondo reale metta in discussione 24

il valore delle semplificazioni meteorologiche come modelli scientifici. L'analogia meteorologica può anche essere usata in dife­ sa di una concezione "debole" dell'Intelligenza Artificiale, se­ condo cui l'uso del calcolatore permette di costruire dei mo­ delli, per così dire, "in scala" di fenomeni mentali o psicolo­ gici reali, fenomeni che secondo la concezione "forte" il cal­ colatore sarebbe in grado di duplicare in modo completo. A questo punto va ricordato che Searle non ha nulla contro la versione debole dell'Intelligenza Artificiale: "Questo è proba­ bilmente il posto adatto per esprimere il mio entusiasmo nei confronti dell'Intelligenza Artificiale debole, nei confronti cioè dell'uso del calcolatore come strumento per lo studio della mente" (Searle, 1 982, p. 57). È un altro il punto su cui Searle non può essere d'accordo, e cioè "la tesi dell'Intelli­ genza Artificiale forte secondo cui un calcolatore adeguata­ mente programmato ha una mente, nel senso letterale dell'e­ spressione, tesi cui si accompagna il pregiudizio antibiologi­ co secondo cui la neurofisiologia specifica del cervello è irri­ levante per lo studio della mente" (lbid.). Ci sono diversi modi per caratterizzare la versione forte dell'Intelligenza Artificiale, uno dei quali può essere ottenu­ to rendendo più specifica e chiara la seguente affermazione: La "neurofisiologia specifica del cervello" è importante solo perché aiuta a capire la natura del supporto materiale dell'in­ telligenza, supporto che permette velocità di calcolo elevatissi­ me. Se si potessero ottenere velocità comparabili anche da ar­ chitetture parallele basate su microchip di silicio, la neurofisio­ logia diventerebbe veramente inessenziale, anche se natural­ mente da essa si potrebbero sempre trarre utili suggerimenti.

Supponiamo di avere due diverse realizzazioni di uno stesso programma: due sistemi fisici differenti, le cui transi­ zioni possono però essere descritte accuratamente e adegua­ tamente da un unico programma "formale". Supponiamo an­ che che uno di essi abbia una velocità di calcolo di circa sei ordini di grandezza (un milione di volte) maggiore di quella dell'altro. In un certo senso essi hanno le stesse capacità (en­ trambi "computano la stessa funzione"), ma grazie alla sua maggiore velocità uno di essi avrà "poteri causali" di cui l'al­ tro manca, e cioè i poteri di controllo necessari, ad esempio, per guidare un corpo in movimento nel mondo reale. È per questa ragione che si può sostenere che il sistema veloce è "letteralmente una mente", mentre lo stesso non si può so­ stenere del suo gemello più lento. Il punto non è che la velo­ cità assoluta (o dovremmo dire velocità "intrinseca" ?) quan25

do cresce al di sopra di un certo livello critico provoca effet­ ti misteriosi invisibili a velocità più basse; piuttosto, è la ve­ locità relativa che risulta cruciale affinché abbia luogo la giusta successione di interazioni fra l'organismo e l'ambien­ te. Lo stesso effetto potrebbe essere raggiunto "rallentando il mondo esterno" in misura sufficiente, ammesso che l'idea non sia chiaramente assurda. Un calcolatore adeguatamente programmato e sufficientemente veloce da interagire con il mondo esterno in tempo reale ha effettivamente una mente, nel senso letterale dell'espressione, indipendentemente dalla sua costituzione materiale, organica o inorganica. È questa, a mio parere, la vera caratterizzazione dell'In­ telligenza Artificiale forte, e non vedo perché Searle non do­ vrebbe essere d'accordo. Potrebbe essere ancora vero, d'al­ tra parte, come Searle e molti altri sostengono, che l'unico modo per produrre fenomeni mentali è usare tessuti neurali organici, così come avviene nel cervello umano. Anche se po­ trebbe sembrare il contrario, Searle e i seguaci dell'Intelli­ genza Artificiale forte non sono divisi soltanto da una trascu­ rabile divergenza d'opinione relativa al ruolo e all'importan­ za da attribuire alla neurofisiologia. La proposizione S e la proposizione D differiscono in modo drammatico per quanto riguarda le loro conseguenze, come si evince dalla considera­ zione di un paio di concessioni che Searle è disposto a fare. In primo luogo, egli ammette che "a un certo livello è possi­ bile descrivere praticamente ogni sistema come un calcolato­ re digitale, come se fosse cioè la realizzazione di un pro­ gramma formale. In questo senso, suppongo, anche i nostri cervelli possono essere considerati dei calcolatori digitali" (Searle, 1 984, p. 1 53). In secondo luogo, Searle ha spesso ri­ conosciuto che è possibile in linea di principio costruire, a partire da chip di silicio, un dispositivo elettronico in grado di imitare perfettamente e in tempo reale la funzione ingres­ so-uscita del cervello umano. Presumibilmente, la descrizio­ ne a livello logico di tale dispositivo coinciderebbe con quel­ la del cervello le cui funzioni si vogliono imitare. Tale dispo­ sitivo non potrebbe però "produrre intenzionalità", perché questa è prerogativa di un cervello organico. Per essere pre­ cisi, Searle ha spesso sostenuto di non sapere con esattezza se un surrogato siliceo del cervello sarebbe in grado di pro­ durre l 'intenzionalità o meno, affermando che si tratta di una questione empirica. In verità quest'ultima è una posizio­ ne quantomeno curiosa: avremmo una questione empirica che sfugge sistematicamente a ogni indagine empirica inter­ soggettiva. Secondo Searle, insomma, se si sostituisse il cer­ vello di una persona con un calcolatore adeguatamente pro26

grammato (un "sistema meramente formale", in grado di du­ plicare il cervello a livello logico, ma realizzato su un soste­ gno materiale inorganico), quella persona continuerebbe a comportarsi esattamente come si comportava prima, senza avere tuttavia alcuna forma di intenzionalità né alcun tipo di fenomeno mentale. Possiamo riassumere la posizione di Searle nel modo seguente: le caratteristiche neurofisiologi­ che del cervello sono importanti, se non decisive; ciò nono­ stante, i loro effetti sul piano del comportamento potrebbero risultare del tutto invisibili all'esterno. Un corpo umano in­ capace di fenomeni mentali, privo di vera intenzionalità, po­ trebbe badare a se stesso nel mondo reale altrettanto bene di un corpo umano guidato da una mente. Viceversa, la mia posizione, in quanto sostenitore della proposizione D, è la seguente: la neurofisiologia del cervello è così importante che se dovessi mai vedere un dispositivo meccanico bighellonare in giro per il mondo con la prontez­ za e l'intelligenza mostrata dai robot nei film e nei romanzi di fantascienza, sarei pronto a scommettere dieci a uno che è controllato da un cervello organico. Infatti, nient'altro (e questa è la vera scommessa) può controllare in tempo reale un comportamento intelligente. Ciò fa di me una sorta di "comportamentista" agli occhi di Searle, ed è questo tipo di comportamentismo che è alla base del disaccordo fra Searle e l'Intelligenza Artificiale. I poteri causali immaginati da Searle sono così misteriosi perché, per definizione, non han­ no alcun effetto sul comportamento; viceversa, i poteri causali cui l'Intelligenza Artificiale dedica tanta attenzione sono quelli necessari per guidare il corpo nella vita quotidia­ na, per vedere, udire, agire, parlare, decidere, indagare e co­ sì via. È perlomeno singolare che una tale dottrina, così pro­ fondamente cognitivista e (ad esempio) anti-skinneriana, ven­ ga ricondotta al comportamentismo, ma solo Searle è re­ sponsabile delle proprie scelte terminologiche. Ma è giunto il momento di fare il punto. Searle accusa l'Intelligenza Artificiale di non prendere sul serio la neurofi­ siologia (e più in generale la biologia), ma è poi pronto ad ammettere che un sistema non biologico possa rimpiazzare un cervello umano in un corpo senza alcuna perdita in termi­ ni di poteri di controllo. Molti studiosi e ricercatori di Intel­ ligenza Artificiale sarebbero d'accordo, specialmente coloro che non condividono la proposizione D, e può darsi che pri­ ma o poi si riesca davvero a costruire un duplicato inorgani­ co del cervello umano. Il punto cruciale è che, secondo Sear27

le, un tale duplicato non sarebbe (o non "causerebbe", o non "produrrebbe") una mente: non essendo che la realizzazione di un programma "formale" per calcolatore, non potrebbe avere alcuna intenzionalità "originaria" o "intrinseca". Ancora non abbiamo dato alcuna precisa definizione del concetto di intenzionalità. L'intenzionalità è una proprietà, tipica degli stati mentali, per cui essi hanno un oggetto, cioè "riguardano" qualcosa: per dirla in una sola parola, l'inten­ zionalità è il concernere. L'intenzionalità non è equamente ri­ partita fra gli enti e gli oggetti che popolano il mondo: certa­ mente il tavolo su cui sto scrivendo non riguarda alcunché, ma è l'oggetto della mia credenza che esso sia traballante e del mio desiderio di ripararlo; la porta, tuttavia (che pure avrebbe bisogno di qualche lavoretto) non è oggetto di tali credenze e desideri, ma, al più, di credenze e desideri diver­ si. In generale, i fenomeni mentali hanno un proprio oggetto, che può essere un ente astratto (la credenza che 1t sia irrazio­ nale riguarda 1t), un'entità mentale o un oggetto del mondo esterno. Possono esserci, forse, delle eccezioni: un timore im­ motivato, un accesso di depressione, possono non avere al­ cun oggetto particolare, così come, viceversa, un enunciato linguistico, una cartina topografica o un programma per cal­ colatore hanno un preciso riferimento. E forte la tentazione di generalizzare queste poche osservazioni dicendo che tutti gli enti dotati di intenzionalità rappresentano qualcosa, ma siccome non abbiamo ancora alcuna teoria indipendente del­ la rappresentazione, ciò si ridurrebbe a una mera tautologia. Si noti che secondo Searle solo i fenomeni mentali esibi­ scono intenzionalità originaria. Un'enciclopedia, un segnale stradale o una fotografia della Torre Eiffel hanno solo inten­ zionalità derivata o secondaria, dovuta al fatto che abbiamo deciso di usare questi oggetti in un determinato modo, come strumenti, utensili, mezzi materiali per conseguire certi sco­ pi. Si delinea così, almeno in nuce, una teoria generale del­ l'intenzionalità intuitivamente plausibile e sicuramente inte­ ressante. Un enunciato linguistico considerato come una suc­ cessione di segni di inchiostro o di vibrazioni acustiche, non ha alcun significato; esso ha certamente una struttura sintat­ tica, ma siamo noi a conferirgli spessore semantico, a far sì che parli di qualcosa. L'enunciato "La neve è bianca" potreb­ be avere qualunque significato, o nessuno. Volendo, potrem­ mo decidere di usare l'espressione "fufufu" per indicare che è ora di pranzare, o qualsiasi altra cosa. Quest'idea risulta più naturale e plausibile in certi casi piuttosto che in altri. Se l'attribuzione del significato alle pa­ role sembra totalmente arbitraria, il riferimento di una foto28

grafia è in generale del tutto chiaro, per nulla convenzionale e indipendente dalle nostre intenzioni. Ma non sempre. C'è una differenza dal punto di vista dell'intenzionalità fra la fo­ tografia di una modella professionista che mostra sorridente una scatola di detersivo e la fotografia della stessa donna in occasione del suo matrimonio: mentre quest'ultima è vera­ mente una fotografia di quella donna, la prima ha in realtà per oggetto il detersivo. Analogamente, alcuni simboli topo­ grafici possono essere del tutto arbitrari (questo simbolo si­ gnifica "Vigili del Fuoco" e quest'altro "Campeggio"), ma al­ tri non lo sono affatto. Si può dir di più: non si può attribui­ re natura sintattica a ogni caratteristica strutturale di una rappresentazione: solo quelle la cui variazione può compor­ tare una differenza semantica, sono caratteristiche sintatti­ che. In un libro scritto in una lingua sconosciuta, è impossi­ bile determinare se le minime variazioni del colore dell'in­ chiostro o della grandezza dei caratteri comportino differen­ ze sintattiche; per far ciò bisogna conoscere il sistema di convenzioni della lingua in questione, cosi come esso è deter­ minato dai parlanti. Tirando le fila di queste ultime conside­ razioni, possiamo dire che alcuni artefatti, come i libri, sono rappresentazioni del tutto opache, a meno di non avere una chiave che descriva le intenzioni degli utenti del libro, men­ tre altri, come le registrazioni di immagini su nastro magne­ tico, hanno un'interpretazione semantica naturale che rende immediatamente evidente il loro contenuto. La natura variamente convenzionale di queste rappresen­ tazioni non sembra a prima vista mettere in discussione la distinzione di Searle fra intenzionalità originaria e intenzio­ nalità derivata. Il riflesso di una scena sulla superficie di un lago può essere altrettanto informativa di una fotografia, ma a differenza di questa non ha alcuna intenzionalità derivata. La fotografia è intesa rappresentare la scena, e in ciò trova la sua stessa ragion d'essere. È certamente un'idea affascinante. Noi esseri umani pos­ siamo trasferire sulle nostre creazioni una debole aura, un simulacro della nostra intenzionalità originaria e intrinseca, semplicemente volendolo. Sembra esserci un'analogia fra questa immagine e l'affresco michelangiolesco sul soffitto della Cappella Sistina, in cui Dio protende la mano per toc­ care quella di Adamo e infondergli così la divina scintilla della vita e del significato. Allo stesso modo noi conferiamo vita e significato agli scarabocchi di inchiostro così gelosa­ mente custoditi nelle nostre biblioteche, ai disegni, ai dia­ grammi, alle cartine topografiche che devono servire ai no­ stri scopi. Ma da dove traiamo la nostra intenzionalità origi29

naria? Da Dio, come suggerisce Michelangelo ? È sbagliato, probabilmente, anche solo porre questa domanda: dopo tut­ to, se la nostra intenzionalità è veramente originaria (u r­ sprunglich, come si direbbe in tedesco), è in essa che va ricer­ cata la fonte ultima del significato, e non in qualcos'altro. Si­ milmente al motore immobile di aristotelica memoria, la no­ stra intenzionalità è un significato insignificato. Questa, cre­ do, è la posizione di Searle e l 'unica, anche, che lo esima dallo spiegare l'origine dell'intenzionalità umana. Una simile spiegazione è invece dovuta da chi, come me, ritiene che la dottrina dell'intenzionalità originaria sia inti­ mamente contraddittoria. Prima di far ciò, tuttavia, è neces­ sario far chiarezza intorno alla distinzione, tanto familiare quanto plausibile, fra due diversi tipi o gradazioni di inten­ zionalità: la vera intenzionalità, e la semplice intenzionalità "per modo di dire". Ammettiamo pure che gli esseri umani abbiano vera intenzionalità originaria, e accettiamo per il momento la tesi di Searle che di essa siano privi gli artefatti. Vi sono però dei gradini intermedi nella scala dell'essere per cui il problema non è affatto chiaro, come ad esempio i cani, i gatti, i delfini, gli scimpanzé. Supponiamo che queste creatu­ re abbiano una qualche forma di intenzionalità; dopo tutto esse hanno menti simili alle nostre, solo più semplici, e le lo­ ro credenze e i loro desideri sono altrettanto originari dei no­ stri. Il cane conserva memoria del luogo in cui ha sepolto l'os­ so, e non si può negare che questo ricordo abbia un oggetto preciso. Ma che dire allora dei ragni o delle amebe, che pure sono in grado di elaborare le informazioni ? Non sembra che questa capacità sia sufficiente a garantire l 'intenzionalità ori­ ginaria, perché i calcolatori la posseggono in grado ancora maggiore, eppure la loro intenzionalità è, per ipotesi, solo de­ rivata. I ragni non sono artefatti prodotti dall'uomo. Ma se un ra­ gno avesse una rappresentazione interna della sua tela que­ sta rappresentazione non sarebbe stata prodotta per servire noi, e l'intenzionalità del ragno non sarebbe intenzionalità de­ rivata. Sarebbe però azzardato sostenere che si tratta di in­ tenzionalità originaria: il ragno si comporta "come se" avesse intenzionalità, e dunque si tratterebbe di intenzionalità "per modo di dire". Potremmo decidere di considerare i meccani­ smi di controllo del ragno come se rappresentassero porzioni del mondo esterno e quindi spiegarne l'attività da questo punto di vista. Questo è ciò che chiamo il punto di vista inten­ zionale: Searle disprezza la possibilità che possa spiegare la nostra intenzionalità, ma è molto meno pronto a indicare co­ me e quando un tale punto di vista potrebbe essere applicato. 30

Dennett... crede che nulla, letteralmente, abbia stati mentali in­ trinsecamente intenzionali, e che quando attribuiamo tali stati mentali a qualcuno stiamo semplicemente adottando un certo punto di vista, il "punto di vista intenzionale". (Searle, 1982, p. 57)

Qualcuno forse ritiene che i ragni, così come i delfini e gli scimpanzé, abbiano vera intenzionalità intrinseca. Ma le piante ? È ovvio che quando parliamo delle modeste capacità di elaborare le informazioni mostrate da alcune piante (che si rivolgono alla luce, "cercano" e "trovano" il sostegno adat­ to cui attaccarsi, ecc.) usiamo soltanto un'utile metafora, co­ sì come avviene nel caso dei microrganismi. Consideriamo il seguente passo tratto da Biochemistry di L. Stryer e citato da Alexander Rosenberg nel suo affascinante articolo "Inten­ zione e azione fra le macromolecole" (manoscritto non pub­ blicato): Un compito molto più difficile per questi enzimi è quello di di­ stinguere aminoacidi simili... Tuttavia, la frequenza d'errore che

è stata osservata in vivo è solo di uno su tremila: devono quindi esserci successive correzioni che migliorino la fedeltà. In realtà la sintetasi è in grado di correggere i propri errori . . Ma come riesce la sintetasi a impedire l'idrolizzazione dell'isoleucina-AMP che è l'intermediario deside rato ? [corsivo di Rosenberg] .

È chiaro che si tratta di intenzionalità per modo di dire, un'utile finzione dello scienziato, che non deve però essere presa sul serio. In senso letterale, le macromolecole non im­ pediscono, né desiderano, né distinguono alcunché. È l'osser­ vatore esterno, lo scienziato, che interpreta questi processi in senso mentalistico, ma l'intenzionalità di cui si parla non è né intrinseca, né derivata, ma intenzionalità del come se. Abbiamo dunque due distinzioni: quella fra intenzionalità originaria e intenzionalità derivata da un lato, e quella fra intenzionalità reale e intenzionalità "per modo di dire" dal­ l'altro. Searle sembra condividerle entrambe, ma non è il so­ lo . Si tratta di distinzioni largamente utilizzate nella lettera­ tura e, in un certo senso, molto comuni, nonostante i confini fra i diversi tipi di intenzionalità risultino spesso incerti. La linea di demarcazione fra la vera intenzionalità e quella che ricade sotto la categoria del come se non è affatto netta; l'in­ tenzionalità derivata di una cartina topografica disegnata per essere usata da esseri umani è difficilmente distinguibile da quella di una rappresentazione geografica a sua volta usa­ ta da un artefatto come, ad esempio, un missile, e non è det­ to che l'intenzionalità derivata e quella "per modo di dire" 31

non finiscano per coincidere. Non mi soffermerò su tali que­ stioni, ma, partendo dall'ipotesi che entrambe le distinzioni siano corrette, presenterò un esperimento mentale teso a mi­ nare la fiducia che in esse riponiamo. Supponiamo di avere un'enciclopedia, un oggetto la cui intenzionalità è solo derivata e che contiene informazioni re­ lative a migliaia di enti e fenomeni del mondo reale. Suppo­ niamo ora di "automatizzare" la nostra enciclopedia, inse­ rendo tutti i dati in un calcolatore e aggiungendovi un elabo­ rato sistema in grado di rispondere a domande. Non abbia­ mo più bisogno di andare a cercare le voci nei singoli volu­ mi: poniamo semplicemente le domande per mezzo della ta­ stiera e riceviamo le risposte. Chi usa il sistema potrebbe an­ che credere di comunicare con una persona reale, dotata di intenzionalità originaria, ma non è così. Il sistema è soltanto uno strumento, la cui intenzionalità esiste solo in quanto noi lo usiamo per i nostri scopi ed è, per così dire, un sottopro­ dotto. Il sistema non ha scopi suoi propri, se non lo scopo ar­ tificiale e derivato di "comprendere" e "rispondere" corretta­ mente alle nostre domande. (l termini di tipo mentalistico sono qui posti fra virgolette per indicare che l'artefatto in questione non ha vera intenzionalità; spero così di aver reso esplicito su quale lato delle due distinzioni che stiamo discu­ tendo vada posto il sistema in questione.) Vi sono però calcolatori che hanno scopi o fini più auto­ nomi e indipendenti. I calcolatori che giocano a scacchi, ad esempio, hanno scopi più precisi, anche se artificiali e deri­ vati: sconfiggere l'avversario, ingannarlo, nascondere la pro­ pria "conoscenza" del gioco. Ciononostante, si tratta pur sempre di strumenti o giocattoli. Gli stati interni della mac­ china hanno una qualche sorta di intenzionalità (stati che de­ scrivono le posizioni relative dei vari pezzi del gioco, o che determinano, per ogni dato istante, l'insieme delle mosse possibili), ma si tratta di intenzionalità derivata e non intrin­ seca. Lo stesso deve dirsi di ogni altro artefatto, programma per calcolatore o robot costruito dall'uomo, non importa quanto sia forte l'illusione che le sue azioni siano volute, che si tratti di un pensatore autonomo dotato della stessa inten­ zionalità originaria di cui godono gli esseri umani. Accettia­ mo dunque l'assunto che nessun artefatto, nessun prodotto dell 'Intelligenza Artificiale possa avere intenzionalità origi­ naria semplicemente in virtù del modo in cui è stato proget­ tato e del comportamento esibito. Ricordiamo a questo pro­ posito che, secondo Searle, un robot costruito con i materiali adatti potrebbe in effetti avere vera intenzionalità. Anche se 32

potessimo progettare un robot in modo da dargli "scopi", "intenti", "strategie", "idee", ecc. (generando un sistema i cui stati mentali avrebbero intenzionalità derivata), non potrem­ mo mai fornirgli intenzionalità originaria a meno di non usa­ re materiali organici. Veniamo ora all'esperimento mentale. Supponiamo di vo­ lere, per qualche ragione, sperimentare la vita del venticin­ quesimo secolo, e che l'unico modo per mantenere in vita il nostro corpo sufficientemente a lungo sia quello di ibernar­ lo . Potremmo costruire una macchina apposita, in grado di mantenere e controllare le nostre funzioni vitali rallentate, ed entrarvi per essere automaticamente risvegliati nel 2401, così come si legge in molti romanzi di fantascienza. Il mante­ nimento delle funzioni vitali non è, naturalmente, l'unico problema: la macchina deve essere adeguatamente protetta e rifornita di energia per più di quattrocento anni, e non pos­ siamo certo contare sui nostri figli e nipoti per questo, per­ ché saranno morti da un pezzo nel 240 1 , e non abbiamo moti­ vo per credere che i nostri più lontani discendenti abbiano a cuore il nostro benessere. Dobbiamo dunque costruire un sistema che protegga la macchina e la rifornisca dell'energia necessaria per quattro­ cento anni. A questo scopo si possono seguire due strategie principali. Potremmo cercare un luogo adatto, esposto al so­ le, in prossimità di una sorgente, e impiantarvi in modo stabi­ le tanto la macchina ibernatrice quanto il sistema di protezio­ ne. In questo modo la macchina e il sistema sarebbero però totalmente indifesi, specialmente per quanto riguarda i peri­ coli non previsti all'atto della costruzione, come ad esempio la costruzione di un'autostrada proprio nella località da noi tanto accuratamente scelta. La seconda strategia è molto più complessa, ma non soffre di questo inconveniente: un si­ stema mobile, in grado di ospitare la macchina ibernatrice e gli strumenti necessari per rilevare e sfuggire il pericolo o per cercare nuove fonti di energia. In poche parole, si tratta di costruire un robot gigante e installarvi la macchina iber­ natrice, con noi dentro. L'ispirazione di queste due strate­ gie, come è chiaro, proviene direttamente dalla natura: sono le soluzioni date al problema della sopravvivenza dalle pian­ te e dagli animali, rispettivamente. Supponiamo dunque di scegliere la seconda strategia che, oltre a essere più sicura, è anche quella che meglio permette di sviluppare il nostro esperimento mentale. Il problema è allora quello di costrui­ re un robot le cui "scelte" siano sempre guidate dalla consi­ derazione del nostro benessere, un robot in grado di ricono­ scere ed evitare le "mosse sbagliate" che metterebbero in 33

pericolo la sua stessa ragion d'essere: la nostra protezione fi­ no al 240 1 . È un problema di alta ingegneria, che richiede la progettazione e la costruzione di un sistema visivo che guidi gli spostamenti del robot e di altri sistemi sensori e motori. A causa del nostro stato di ibernazione, noi non potremo controllare il robot, che dovrà quindi produrre autonoma­ mente le proprie strategie e i propri piani d'azione in funzio­ ne delle mutevoli circostanze esterne. Deve "saper" cercare, riconoscere e sfruttare le fonti di energia, deve essere "capa­ ce" di spostarsi in territori più sicuri, deve saper "prevede­ re" ed "evitare" i pericoli. Tutto ciò è reso ancora più diffici­ le dal fatto che potrebbero esserci altri robot simili in circo­ lazione. Se l'idea prende piede, il nostro robot potrebbe tro­ varsi a dover competere con altri suoi simili e con gli esseri umani per le sempre più limitate disponibilità di energia, ac­ qua, lubrificanti ecc. Sarà dunque saggio fornire al nostro robot sistemi di controllo sufficientemente complessi da per­ mettergli di calcolare i rischi e i benefici della cooperazione con i suoi simili così che, in adeguate circostanze, esso possa anche scegliere di stringere alleanze ispirate al reciproco vantaggio. Il disegno globale che si delinea è dunque quello di un ro­ bot capace di auto-controllo in tempo reale (per una più ap­ profondita discussione del controllo e dell 'auto-controllo ve­ di Dennett, 1 984, cap. 3). In quanto tale, esso dovrà porsi dei fini secondari, individuati sulla base dello stato corrente e dell'importanza di tale stato in rapporto al fine ultimo (che è poi quello della nostra sopravvivenza). Questi fini secondari possono portare il nostro robot a impegnarsi in progetti del­ la durata di anni, se non di secoli, progetti che potrebbero anche rivelarsi sbagliati, nonostante i nostri sforzi in fase di progettazione. Il robot potrebbe intraprendere azioni contra­ rie ai nostri interessi, o persino azioni suicide, essendo stato convinto, magari da un altro robot, a subordinare la propria missione vitale a qualche altro scopo. In base alle nostre ipotesi, il robot non ha alcuna inten­ zionalità originaria, ma solo quella derivata che gli abbiamo infuso al momento della costruzione. Non si può dire che ab­ bia veri stati mentali: si comporta soltanto come se fosse ca­ pace di decisioni, constatazioni, incertezze e pianificazioni. Se riconosciamo che questa è la conclusione che segue dalle nostre ipotesi, dobbiamo tuttavia riconoscere che anche la nostra intenzionalità è di questo tipo. Infatti, il nostro espe­ rimento mentale dal sapore un po' fantascientifico non è che una variante della posizione di Richard Dawkins secondo cui noi esseri umani, così come ogni altra specie biologica, sia34

mo solo "macchine della sopravvivenza" costruite per garan­ tire un futuro al nostro patrimonio genetico (vedi Dawkins, 1976). Possiamo ora rispondere alla domanda sull'origine della nostra intenzionalità. Siamo artefatti, costruiti nel corso del­ le ere biologiche per garantire la sopravvivenza di geni che non possono agire nel loro proprio interesse in modo veloce e consapevole del mondo esterno. Ma i nostri interessi, così come noi li concepiamo, e gli interessi dei nostri geni potreb­ bero anche divergere: finora ciò non è avvenuto, come testi­ monia il fatto che noi esistiamo, ma non bisogna dimenticare che la nostra sola ratio essendi è la preservazione del nostro patrimonio genetico. Gli esseri umani tendono a dimenticare lo scopo per cui sono stati costruiti e a seguire un'idea tutta propria di sommo bene, e ciò grazie anche alla loro intelli­ genza, espressione del patrimonio genetico. I nostri geni, con il loro egoismo, sono all'origine della nostra intenzionalità: essi, e non noi, sono i significanti insi­ gnificati. Eventi e strutture del corpo umano hanno senso (cioè: concernono qualcosa) solo in relazione alla nostra au­ toconservazione. Ad esempio, possiamo dire che i segnali provenienti dal nostro orecchio interno concernono l'accele­ razione e l'orientamento rispetto alla forza di gravità del no­ stro corpo solo se le informazioni così ottenute contribuisco­ no in qualche modo alla nostra sopravvivenza (vedi Dennett, 1 982a). Queste relazioni sono discernibili solo se si adotta quello che abbiamo chiamato il "punto di vista intenzionale" (vedi Dennett, 1978, 1 98 1 a, 198 1 b, 1982b, 1983). È chiaro che a questo punto un'intenzionalità in qualche senso più assolu­ ta, "intrinseca" o "originaria" di questa non è più necessaria, e anzi, a guardar bene, è difficile riconoscerle diritto d'asilo in alcuna regione filosofica. Abbiamo così dato una spiegazione dell'origine della no­ stra intenzionalità che, se può essere considerata per molti versi soddisfacente, ci lascia nondimeno con un senso di di­ sagio: la nostra intenzionalità sarebbe derivata da entità (i geni) che costituiscono certamente un caso paradigmatico di intenzionalità "per modo di dire"; il senso letterale sarebbe derivato dal senso metaforico! Per di più, l'esperimento men­ tale proposto differisce per un aspetto piuttosto importante dalla vicenda biologica narrata da Dawkins: mentre nel pri­ mo caso il processo di costruzione del robot era conscio, de­ liberato e previdente, in quest'ultima la sopravvivenza dei nostri geni è affidata a un processo che non ha alcun artefice consapevole. L'affascinante bellezza della teoria della sele­ zione nnaturale è tutta qui, nel permetterei di costruire una 35

teoria delle nostre origini in cui non compare alcun artefice intelligente. È in effetti un po' offensivo considerare i geni come co­ struttori intelligenti, quando in realtà non potrebbero esse­ re più stupidi, essendo incapaci di qualsiasi forma di ragio­ namento o rappresentazione. I geni non costruiscono da so­ li le proprie "macchine della sopravvivenza", ne sono solo i beneficiari. Il progetto di queste macchine è dovuto a Ma­ dre Natura, ovvero al lungo e lento processo di evoluzione per selezione naturale, cui solo si può riconoscere vera in­ tenzionalità. La preveggenza e l'acutezza di Madre Natura si è dimostrata veramente straordinaria in migliaia di "scel­ te" critiche, nel "riconoscere" e "valutare" molte sottili rela­ zioni fra fenomeni diversi. Ad esempio, la sintetasi non desidera certo che l'isoleu­ cina-AMP sia un aminoacido intermedio, non avendo alcuna nozione dell'isoleucina in quanto intermediario. Ma se "de­ siderio" c'è dell'isoleucina, esso la riguarda solo in quanto intermediario, cioè in quanto parte insostituibile di un pro­ getto il cui fondamento logico è "noto" al processo di sele­ zione naturale. Secondo Rosenberg (manoscritto non pubblicato), un tratto distintivo dell'intenzionalità è il fallimento della so­ stituzione di equivalenti (cioè l' "intensionalità") nelle locu­ zioni usate per caratterizzare il fenomento. È una posizio­ ne condivisa da molti, ma sostenuta in modo particolare in Dennett (1 969). Rosenberg nota anche, tuttavia, che le attri­ buzioni di stati mentali alle macromolecole o ai geni, attri­ buzioni effettuate dai biologi, non soddisfano questa condi­ zione. La sostituzione di equivalenti non comporta alcun cambiamento di valore di verità se il "soggetto" della cre­ denza o del desiderio è un gene, una macromolecola o qualche altro semplice meccanismo. Invero, l'enzima cor­ rettore non riconosce l'errore in quanto tale, perché una tale consapevolezza è ascrivibile solo a Madre Natura; questo, almeno, è il mio punto di vista. L'azione dell'enzi­ ma è in effetti dovuta alla presenza degli errori, ma l'enzi­ ma in sé non è che uno degli umili soldati di Madre Natu­ ra che "non devono chiedere perché, ma solo vincere o mo­ rire". Secondo molti biologi è un errore voler ricercare i mo­ tivi o le ragioni del comportamento degli enzimi, mentre altri (in particolare gli adattivisti) sono disposti a difende­ re tale posizione basandosi sui ruoli funzionali che si pos­ sono attribuire da un punto di vista schiettamente teleolo36

gico. Chi, come me, si schiera con questi ultimi, non può non accorgersi del fallimento della sostituzione nei contesti relativi al comportamento degli enzimi. Proprio come Gior­ gio IV si chiedeva se Scott fosse l'autore di Waverley senza chiedersi se Scott fosse Scott, così il processo di selezione naturale "desidera" che l'isoleucina sia l'intermediario sen­ za desiderare che l'isoleucina sia l'i soleucina. È certamente pos sibile descrivere il processo di selezione naturale senza usare un linguaggio intenzionalmente connotato, ma solo al prezzo di una descrizione minuta e particolareggiata che non può che risultare eccessivamente pesante. Perderemmo così di vista il quadro generale del fenomeno, non potendo più effettuare predizioni né formulare enunciati controfat­ tuali. Gli stessi motivi che portano ad attribuire una facoltà raziocinante conscia, deliberata ed esplicita ai progettisti del nostro esperimento mentale, sono all'opera quando si tratta della "progettazione" degli organismi viventi. Una chiara e spregiudicata considerazione dei fenomeni biologi­ ci porta ad attribuire discernimento e consapevolezza allo stesso processo di selezione naturale, senza che in ciò sia coinvolto, tuttavia, alcun alone di mistero. Madre Natura non va consapevolmente alla ricerca dei fondamenti delle proprie scelte, ma quando vi s'imbatte, certamente ne rico­ nosce il valore. La Natura opera in base a motivi che non è in grado di rappresentare consapevolmente, e da questo operare trae ori­ gine la nostra intenzionalità. Gli esseri umani autocoscien­ ti sono un prodotto ormai maturo e specializzato. La capa­ cità di agire in base a motivazioni che siamo in grado di rappresentare ci dà quel potere predittivo e anticipatorio di cui è totalmente priva la Natura. In quanto prodotto ad al­ to contenuto tecnologico, la nostra intenzionalità è sola­ mente derivata, proprio come quella dei nostri robot, dei nostri libri e delle nostre cartine topografiche. L'intenziona­ lità intrinseca di una lista della spesa tenuta a mente non è maggiore di quella di una lista della spesa scritta su di un foglio di carta. Il significato delle singole voci della lista (ammesso che ve ne sia uno) è determinato dalla loro fun­ zione in un più ampio schema di fini. Possiamo anche pen­ sare di avere vera intenzionalità, purché riconosciamo che essa è derivata da quella del processo di selezione naturale, che è altrettanto reale della nostra ma più difficile a rico­ noscersi a causa della grande differenza di scala sia nella dimensione del tempo, sia in quella dello spazio. Per quan­ to riguarda poi l'intenzionalità "intrinseca", essa semplice­ mente non esiste. 37

Credo che queste considerazioni, lungi dal persuadere Searle, lo spingerebbero a replicare nel modo seguente: È vero, siamo il prodotto della selezione naturale. Ma la Na­ tura ha scelto di renderei capaci di badare a noi stessi dan­ doci un cervello dai meravigliosi poteri causali, in grado di produrre intenzionalità. È impossibile determinare dall'ester­ no se un organismo o un sistema di qualche altro tipo deve la propria capacità di sopravvivenza al fatto di avere inten­ zionalità intrinseca, o piuttosto a una particolare configura­ zione interna puramente formale e sintattica. Ma noi esseri umani autocoscienti sappiamo di avere vera, intrinseca inten­ zionalità.

Una risposta di questo genere sarebbe nello stile di Searle, e non servirebbe ad altro che a rafforzare la nostra con­ vinzione che non esiste alcuna giustificazione razionale delle sue tesi che costituiscono, in fondo, una sorta di "dogmatismo del senso comune".

R:IFERIMENTI BIBLIOGRAFICI Abbott, E.A. (1 962), Flatland: a Romance in Many Dimensions, Blackwell, Oxford (ed. originale 1 884) (trad. it. Flatlandia, Adelphi, Milano 1 966). Dawkins, R. (1 976), The Selfish Gene, Oxford University Press, Ox­ ford (trad. it. Il gene egoista, Zanichelli, Bologna 1 979). Dennett, D. (1 969), Content and Corysciousness, Routledge and Ke­ gan Pau!, London. Dennett, D. (1 975), Why the Law of Effect Will Not Go Away, in "J. Theory of Social Behaviour", 5, pp. 1 69-1 87. Dennett, D. (1 978), Brainstorms, Bradford Books/MIT Press, Cam­ bridge (Mass.). Dennett, D. (198 1 a), Th ree Kinds of Intentional Psychology, in R. Healey (a cura di), Reduction, Time and Reality, Cambridge University Press, Cambridge. Dennett, D. (198 1b), True Believers: the Intentional Strategy and Why it Works, in A.F. Heath (a cura di), Scientific Explana­ tion, Oxford University Press, Oxford . Dennett, D. (1 982a), Comment on Rorty, in "Synthese", 53, pp. 349356. Dennett, D. (1 982b), Beyond Belief, in A. Woodfield (a cura di), Thought and Object, Oxford University Press, Oxford. Dennett, D. (1 982c), The Myth of the Computer: an Exchange, in "New York Review of Books", pp. 56-57. Dennett, D. (1 983), Intentional Systems in Cogni tive Ethology: the "Panglossian Paradigm " Defende d, in "Behavioral an d Brain Sciences", 6, pp. 343-390. 38

Dennett, D. ( 1 984), Elbow Room: the Varieties of Free Will Worth Wanting, MIT Press, Cambridge (Mass.). Dewdney, A.K. ( 1 984), The Planiverse, Poseidon, New York. Hofstadter, D.R e D.C. Dennett ( 1 98 1), The Mind's I, Basic Books, New York (trad. it. L 'io della mente, Adelphi, Milano 1985). Monod, J. ( 1 970), Le hasard et la nécessité, Editions du Seuil, Paris (trad. it. Il caso e la necessità, Mondadori, Milano 1 980). Rosenberg, A., Intention and Action Among the Macromolecules (manoscritto non pubblicato). Searle, J. ( 1 980), Minds, Brains and Programs, in "Behavioral and Brain Sciences", 3, pp. 417-41 8 ora in D.R. Hofstadter e D.C. Dennett, The Mind's I, Basic Books, New York (trad. it. L'io della mente, Adelphi, Milano 1 985). Searle, J. (1 982), The Myth of the Computer: an Exchange, in "New York Review of Books", 24 giugno, pp. 56-57. Searle, J. (1984), Pane[ Discussion: Has Artificial lntelligence Re­ search Illuminated Human Thinking?, in H. Pagels (a cura di), Computer Culture: the Scientific, Intellectual and Social Impact of the Computer, in Annals of the New York Academy of Scien­ ces, vol. 426. Stryer, L. ( 1 98 1), Biochemistry, Freeman, San Francisco.

39

Rappresentazione e interpretazione di Donald Davidson

Una persona è un oggetto fisico il cui comportamento, sia globalmente, sia nei particolari, è governato da leggi fisiche. Non si può dunque escludere in linea di principio che si pos­ sa progettare e costruire un oggetto affatto indistinguibile da una personale naturale. Ne segue che non c'è alcun moti­ vo per cui un oggetto artificiale non possa pensare, ragiona­ re, prendere decisioni, agire, avere credenze, desideri e in­ tenzioni. Ma quanto, e in che modo, deve essere simile a noi un artefatto per poter avere pensieri ? Comincerò seguendo quello che potremmo chiamare il metodo dell'addizione e della sottrazione: che cosa dobbiamo aggiungere agli oggetti più ricchi di pensiero che conoscia­ mo (i calcolatori) prima di poter dire che essi effettivamente pensano ? E che cosa possiamo sottrarre a una persona conti­ nuando a considerarla una creatura pensante? Iniziamo da quest'ultimo punto. l. Origine. È veramente importante per la possibilità del pensiero e della vera intelligenza se un oggetto è stato conce­ pito ed è nato più o meno allo stesso modo in cui gli esseri umani sono concepiti e nascono ? Se riteniamo che il confine che separa le diverse specie di oggetti sia chiaro e netto, allo­ ra senza dubbio gli artefatti non appartengono ad alcuna specie naturale, e sono dunque del tutto diversi dagli uomini e dalle donne. Può darsi perfino che sia un errore anche solo dire che un artefatto è una persona, e ciò semplicemente per­ ché nessun artefatto può essere una persona. Ma si tratta, a mio parere, di questione puramente terminologica, del tutto irrelata, per quanto posso vedere, al problema se un artefat­ to possa pensare, agire e avere i sentimenti di una persona. 40

(Molti credono che tutto sia stato creato da un artefice divi­ no e che dunque, in un certo senso, tutto sia un artefatto: di solito ciò non impedisce ai credenti di considerare il prossi­ mo come una persona.) Un altro interessante argomento di riflessione è il seguen­ te: cosa diremmo se, per puro caso, venisse prodotto un og­ getto fisicamente identico a una persona? Il fulmine colpisce un vecchio tronco putrescente in una palude e, del tutto ca­ sualmente, ne risulta un oggetto fisicamente identico a me sotto ogni rispetto: apparentemente tale oggetto ha i miei stessi ricordi, riconosce i miei amici e risponde alle doman­ de in una lingua che sembra inglese. È chiaro che tale ogget­ to non sarebbe me, e potremmo anche rifiutarci di conside­ rarlo una persona; è però difficile sostenere che non avrebbe pensieri né sentimenti. (Anche se, effettivamente, non ne avrebbe, per ragioni che saranno chiare al seguente punto 4. e che non hanno nulla a che fare con la sua origine.) L'origine di una persona naturale è dunque una proprietà "sottraibile", almeno finché si tratta dei suoi processi cogni­ tivi e volitivi. 2. Costituzione. Sembra che anche l'essere costituiti da un particolare materiale sia una proprietà sottraibile. Se il silicio o il succo d'arancia permettessero lo stesso tipo di at­ tività del materiale di cui noi siamo effettivamente costitui­ ti, allora l'essere fatti di silicio o di succo d'arancia non fa­ rebbe alcuna differenza relativamente alle possibilità del pensiero. Se un giorno scoprissi che Daniel Dennett è fatto di chip di silicio, non muterei certo opinione relativamente alle sue capacità intellettuali, ai suoi sentimenti o alle sue intenzioni, né sarei di ciò eccessivamente sorpreso. Analoga­ mente (per passare a un esempio su cui alcuni filosofi si so­ no esercitati), la mia stima dei pensieri, delle emozioni e delle azioni della gente non sarebbe affatto sminuita se do­ vessi scoprire che ognuno di noi è costituito da miliardi di creature intelligenti, così piccole da nascondere finora la propria presenza, la somma delle cui azioni dà origine al no­ stro comportamento. Va da sé che solo in linea di principio l'intelligenza, i sentimenti e le intenzioni risultano indiffe­ renti al materiale in cui sono realizzati: potremmo anche scoprire che solo i materiali che effettivamente costituisco­ no gli esseri umani permettono i processi e le funzioni che noi ci attribuiamo. 3. Forma e dimensioni. Un oggetto deve avere l'aspetto di una persona per essere considerati intelligenti ? Saremmo 41

certamente portati a rispondere che l'apparenza non conta, e indubbiamente Turing sarebbe del medesimo parere. È per­ sino possibile che il nostro stesso sentire morale sia chiama­ to in causa da questa risposta. Ma, invero, la forma e le di­ mensioni potrebbero risultare cruciali se dovessero impedi­ re la comunicazione non solo di credenze, ma anche di senti­ menti e di intenzioni. Pensieri, desideri e altri atteggiamenti sono per loro stessa natura stati che sappiamo interpretare: viceversa, ciò che non riusciamo a interpretare non ha nulla a che fare con il pensiero. 4. Storia. Il pensiero deve avere una storia. Qualsiasi og­ getto capace di pensiero non solo deve avere capacità di ap­ prendimento, ma deve anche avere esercitato a lungo tale ca­ pacità. Nessuna creatura, nessun oggetto può avere un pen­ siero concernente un evento o una persona a meno che non ci sia in qualche modo una concatenazione causale che li col­ leghi ad esempi passati. Non ci può essere ricordo di un evento o persona che non sia causalmente riconducibile al­ l'oggetto appropriato. Un cervello (o un oggetto a esso equi­ valente) non può avere pensieri ordinari su oggetti ordinari a meno che non vi sia una storia di interazioni causali con og­ getti dello stesso tipo, e ciò indipendentemente dagli altri po­ teri a esso eventualmente attribuibili. Ciò non implica, natu­ ralmente, che un tale oggetto non possa essere un artefatto, ma solo che un artefatto non può avere pensieri che non sia­ no derivati dall'interazione causale con il mondo. Passiamo ora al problema, molto più complesso, dell'ad­ dizione. Che cosa dobbiamo aggiungere ai moderni calcolato­ ri (e mi riferisco soltanto a quelli che conosco) affinché siano capaci di pensiero ? Mi sembra che il punto principale sia questo: non è suffi­ ciente che un calcolatore, o un robot da esso controllato, rie­ sca a svolgere un particolare compito, come ad esempio gio­ care a scacchi, dare il resto, risolvere equazioni o trovare la dimostrazione di un teorema. Se vogliamo parlare di pensie­ ro, è necessario un enorme repertorio di attività diverse. Mi sono permesso di parlare dei calcolatori come se fossero ef­ fettivamente capaci di giocare a scacchi, ma benché si tratti di un modo di esprimersi molto comune, deve essere chiaro che è solo una metafora. Si pensi a cosa vuol dire giocare a scacchi. In primo luogo, deve esserci la volontà di vincere, o bisogna almeno comprendere il concetto di vittoria; a tale scopo non basta sapere cosa vuol dire vincere agli scacchi: bisogna possedere il concetto generale di vittoria in un'atti­ vità qualsiasi. Ciò a sua volta richiede la comprensione del 42

concetto di regola o convenzione, l'idea che si possano svol­ gere alcune attività come fini in sé, e la capacità di ricono­ scere certe attività come giochi. Affinché il movimento di un pezzo sulla scacchiera sia ef­ fettivamente una mossa del gioco degli scacchi, tale movi­ mento deve essere intenzionale e fatto per un preciso moti­ vo. Qualsiasi azione intenzionale deve avere a proprio fonda­ mento una qualche ragione, nella forma di un fine o di un ri­ sultato desiderato, nonché la convinzione che tale azione possa portare a quel fine. È chiaro che, in un certo senso, un calcolatore appositamente programmato per giocare a scac­ chi ha per scopo la vittoria; ma soddisfa veramente anche so­ lo le più ordinarie condizioni per cui si può dire di avere un desiderio, di volere qualcosa? Affinché si pos'sa volere qual­ cosa, non è necessario, ad esempio, avere anche altri deside­ ri ? Un desiderio affatto comune come quello di vincere agli scacchi si trova a dover competere con altri valori, è condi­ zionato dall'esperienza e si esaurisce se ripetutamente fru­ strato. In altre parole, per avere anche soltanto un desiderio è necessario averne molti. Lo stesso vale, e in modo ancora più evidente, nel caso delle credenze. Il volo 1 9 dell'Alitalia da Torino per Londra parte ogni martedì alle 8,30. È un'informazione cui possiamo facilmente accedere per mezzo di un calcolatore, ma il calco­ latore è veramente a conoscenza delle informazioni che ci co­ munica? Ovviamente no, perché non sa che cosa sia un volo, dove si trovi Torino, e nemmeno che il martedì è un giorno della settimana. Sarebbe certo relativamente facile aggiunge­ re queste informazioni alla memoria del calcolatore, così co­ me in linea di principio potremmo aggiungervi qualsiasi al­ tra informazione che aiuti il calcolatore a sapere di che cosa stia parlando. Non è che sia impossibile per un calcolatore avere dei pensieri: il punto è che per avere un pensiero, una credenza o un desiderio, il calcolatore dovrebbe avere molti altri pensieri e desideri. Pensieri e desideri pos sono esistere soltanto nel contesto di un sistema concettuale molto ricco. Prima che un calcolatore possa avere credenze, desideri, pensieri di qualsiasi tipo che pos sano essere riconosciuti co­ me tali, deve avere a disposizione gran parte delle informa­ zioni che formano il bagaglio naturale di ciascuno di noi. Pri­ ma di allora possiamo solo dire che il sistema rappresenta al­ cune informazioni, o persino fini e strategie, ma non si può certo interpretare il sistema come avente quelle informazio­ ni, fini, strategie. Dunque, non vi è alcuna ragione di principio perché un artefatto (un calcolatore, ad esempio) non possa pensare, 43

sperare, desiderare, intendere e agire come una persona. Possono bensì esserci delle ragioni tecniche: può darsi ad esempio che sia impossibile costruire un dispositivo delle stesse dimensioni del cervello umano, e altrettanto veloce, senza ricorrere a materiali organici, oppure che la funziona­ lità del cervello richieda irrinunciabilmente un'architettura analogica. Ma poiché queste possibilità, per quanto perfetta­ mente reali, non rivestono alcun interesse filosofico, le igno­ rerò. Qualcuno potrebbe pensare che se un oggetto artificiale pensa e agisce in modo sufficientemente simile a quello di una persona, allora il progettista o il costruttore dovrebbero essere in grado di descrivere e di spiegare gli stati mentali e le azioni di quell'oggetto. Ora, ciò è falso: non vi è ragione per credere che vi siano relazioni definizionali o nomologi­ che fra i concetti usati dal progettista e i concetti psicologici che si vogliono descrivere o spiegare. Possiamo convincerce­ ne immaginando che il costruttore abbia semplicemente co­ piato, molecola per molecola, una persona reale: in questo caso egli avrebbe una completa conoscenza delle caratteristi­ che neurologiche, biologiche e fisiche del suo artefatto, ep­ pure potrebbe non sapere assolutamente nulla dei pensieri e dei sentimenti della sua creatura. Non è affatto detto che un tipo di conoscenza "completa" ne implichi necessariamente un altro. Supponiamo tuttavia che l'artefatto contenga, come sua parte essenziale, la realizzazione fisica di un programma del tipo di quelli eseguibili su un calcolatore, e che i particolari del programma, così come quelli della sua realizzazione, sia­ no noti. Nelle intenzioni del progettista, alcuni elementi for­ mali del programma, una volta realizzati, dovrebbero avere il ruolo di pensieri: si tratterebbe di rappresentazioni di og­ getti e fatti del mondo. Il programma in sé è, naturalmente, specificato in termini puramente sintattici: esso non può di­ re che cosa rappresentino i suoi elementi. Gli aspetti seman­ tici della rappresentazione (riferimento, denominazione, de­ scrizione e verità) non sono a loro volta rappresentati nel programma. Un programma specificato in termini puramente sintatti­ ci non può contenere la propria semantica: ciò non implica che il dispositivo fisico che realizza tale programma non pos­ sa avere una semantica, ma solo che conoscere e comprende­ re il programma realizzato dal dispositivo non autorizza a considerare quest'ultimo un oggetto pensante. Gli elementi del programma che per il progettista rappresentano un dato oggetto o un fatto particolare non possono essere automati44

camente interpretati come rappresentazioni di quell'oggetto o di quel fatto relativamente al dispositivo che realizza il programma. La comprensione del programma, quindi, non ha necessariamente a che vedere con i pensieri attribuibili al dispositivo su cui tale programma "gira", né, tantomeno, con la questione se a tale dispositivo siano effettivamente attri­ buibili dei pensieri. Il vero motivo alla base di tutto ciò ha a che fare con la natura della spiegazione. Precedentemente abbiamo immagi­ nato un dispositivo fisico le cui azioni possono essere de­ scritte, spiegate e, almeno in una certa misura, predette me­ diante due teorie distinte, scritte con due diversi vocabolari. La prima potrebbe essere la teoria della fisica, della biolo­ gia, della neurofisiologia, o la teoria implicita in un partico­ lare programma (non sto suggerendo, spero sia chiaro, che queste teorie siano identificabili da un qualche punto di vi­ sta); la seconda è la teoria del senso comune che spiega i pensieri e le azioni degli uomini riconducendoli alle loro mo­ tivazioni, personalità, abitudini, credenze e desideri. Il pro­ blema, allora, è quello della relazione reciproca di queste due teorie, e se, in particolare, la prima si distingua dalla se­ conda soltanto per la maggiore precisione, ovvero se vi siano differenze più fondamentali. La spiegazione ha bisogno di un armamentario di concetti classificatori, cioè di un vocabolario che abbia le risorse per selezionare gli oggetti e gli eventi in modo da permettere la formulazione di utili generalizzazioni. Supponiamo di voler spiegare il crollo del ponte Tacoma-Seattle. Nonostante io abbia appena usato un complesso sistema di classificazione (geografico, politico e strutturale) per riferirmi all'evento da spiegare, la descrizione è del tutto inutile per fini esplicativi: non c'è alcuna legge generale che governa il crollo dei ponti in certe zone. Se veramente vogliamo una spiegazione, dob­ biamo descrivere il crollo in termini del tutto diversi, facen­ do riferimento (tanto per cominciare) a una struttura proget­ tata in un certo modo e dotata di una certa resistenza, crolla­ ta di fronte a un vento di una certa forza e proveniente da una certa direzione. (Naturalmente per dare questa descri­ zione ho usato un vocabolario che è ancora lontano da quello di una descrizione veramente particolareggiata, in grado, ad esempio, di spiegare perché l'identico ponte di Throg's Neck non è crollato.) Chiameremo fisico ogni particolare evento, stato o dispo­ sizione che può essere identificato (univocamente descritto) usando il vocabolario di una delle scienze fisiche. Analoga­ mente, chiameremo mentale ogni particolare evento, stato o 45

disposizione che può essere identificato (univocamente de­ scritto) usando il vocabolario delle intenzioni. Ne segue che se gli eventi e gli stati mentali coincidono con gli eventi e gli stati fisici, allora avremo un'unica classe di eventi e stati, ciascuno descrivibile tanto nel vocabolario mentale quanto in quello fisico. Tuttavia, ciò non significa che si possano usare i concetti classificatori di un vocabolario per formula­ re leggi, e quindi dare spiegazioni nomologiche, relativamen­ te agli oggetti descrivibili mediante l'altro vocabolario. Uni­ verso fisico e universo mentale, pur condividendo la medesi­ ma antologia, non hanno gli stessi concetti classificatori. Poiché quest'ultima distinzione è cruciale per compren­ dere il resto della mia argomentazione, soffermiamoci un momento su una semplice analogia che ho già avuto modo di sfruttare. Supponiamo che, seguendo la voce popolare, io stia tentando di addormentarmi contando le pecore, e che ogni tanto, in modo del tutto casuale, una capra si intrufoli nella fila. Ora, io non posso, nel mio stato di assopimento, ri­ cordare le parole classificatorie "pecora" e "capra", ma ciò nonostante non ho alcuna difficoltà nell'identificare ciascun animale: ecco l'animale numero uno, l'animale numero due, e così via. Poiché la mia lista è necessari amente finita, posso specificare la classe delle pecore e quella delle capre: le pe­ core sono gli animali l , 2, 4, 5, 6, 7, 8 e 1 2, mentre le capre sono gli animali 3, 9, 10 e 1 1 . Ma queste classificazioni non sono di alcun aiuto nella formulazione di leggi o di ipotesi che vadano oltre i casi osservati: non posso, ad esempio, sup­ porre che le capre abbiano le corna. Nel mio sistema di enu­ merazione degli animali posso identificare ogni capra o pe­ cora particolare, ma non possono distinguere le pecore dalle capre in base a una legge generale, a causa della povertà concettuale del sistema. Le cose potrebbero stare in modo analogo per l'universo fisico e quello mentale: ogni evento mentale, preso singolarmente, potrebbe avere (deve avere, se la mia ipotesi è giusta) una descrizione fisica, ma le classifi­ cazioni mentali potrebbero anche eludere il vocabolario del­ la scienza fisica. Se le cose stanno così, non possiamo aspet­ tarci che alcuna scienza fisica (o, comunque, non mentale) possa spiegare il pensiero, la formazione delle intenzioni o gli stati di credenza, desiderio, speranza e paura che caratte­ rizzano la nostra vita mentale e spiegano le nostre azioni. Ecco come mi raffiguro la situazione: il mentale, benché identico a una parte del mondo fisico, potrebbe non ricadere sotto gli schemi esplicativi nomologici della fisica, della neu­ rologia, della biologia o della scienza dei calcolatori, ovvero: potrebbe non ricadervi in quanto descritto in termini menta46

listici. Vi è motivo per credere che questo sia il caso ? Io pen­ so di sì. Prima di esporre questi motivi, voglio tuttavia specificare alcune delle caratteristiche della mia tesi. Si può giudicare la potenza esplicativa di una teoria o di una disciplina secon­ do molti criteri: accuratezza della predizione, robustezza, semplicità, possibilità di conferma o refutazione, e così via. Le nostre conoscenze ordinarie sono spesso sufficienti per spiegare, in modo approssimativo, i fenomeni mentali in ter­ mini fisici. Ad esempio, sappiamo già molto sugli effetti di una serie di sostanze chimiche sul pensiero, sullo stato di vi­ gilanza (alertness), sullo stato d'animo e sull'attenzione. Non si vede perché, via via che si giunge a una migliore compren­ sione dei meccanismi cerebrali, non dovremmo riuscire a spiegare con precisione sempre maggiore i modi e i motivi del nostro pensare, ragionare e agire. Vorrei fosse chiaro che nulla di quel che dirò intende suggerire che tali spiega­ zioni non siano interessanti, né che non possano avere ampie e importanti applicazioni. Ciò detto, resta tuttavia aperta la questione se vi siano li­ miti teorici alla potenza esplicativa da attribuirsi alla simu­ lazione al calcolatore di aspetti della mente: se, cioè, vi sia un discrimine concettuale permanente fra la psicologia del mentale e altri sistemi esplicativi. Poiché abbiamo convenuto di ignorare l'eventuale esi­ stenza di ostacoli fisici alla creazione di un calcolatore digi­ tale pensante, supponiamo che ne esista uno, e supponiamo parimenti di conoscere il programma da esso realizzato. Per­ ché, allora, la conoscenza del progetto e del programma di tale calcolatore non sarebbe di alcun aiuto per capire i suoi pensieri e le sue azioni ? Questa deficienza può essere spiegata mediante la distin­ zione fra sintassi e semantica. Un programma è pienamente caratterizzato dalle sue proprietà formali o sintattiche: le proprietà formali di ciò che può essere accettato in ingresso e prodotto in uscita, e gli aspetti formali dei processi di ela­ borazione di questi dati. Dunque, se conosciamo il calcolato­ re solo attraverso il programma da esso realizzato, la nostra conoscenza non può che essere limitata agli aspetti formali o sintattici. Naturalmente, è proprio questa restrizione che rende totalmente trasparenti all'indagine formale un calcola­ tore e il suo programma, limitando però, al tempo stesso, la portata di tale indagine. La conoscenza del programma per­ mette di spiegare perché il calcolatore produca certi segni, suoni o figure, in corrispondenza con certi dati in ingresso, a loro volta descritti in termini altrettanto astratti. Ma questa 47

conoscenza non sfiora nemmeno la questione del significato, del riferimento al mondo esterno, delle condizioni di verità, perché questi sono concetti di natura semantica. È stato Al­ fred Tarski a mettere in luce per la prima volta lo iato concet­ tuale fra sintassi e semantica provando che, mentre la sintas­ si è formulabile in un linguaggio che ha il potere espressivo del linguaggio naturale, le risorse necessarie per formulare i concetti semantici fondamentali di un dato linguaggio non possono trovarsi nel linguaggio stesso, pena la contraddizio­ ne. Sembra dunque che vi sia una differenza fondamentale fra la semantica, che pone le parole in relazione con il mon­ do, e la sintassi, che invece non fa nulla di tutto ciò. Ma non voglio dilungarmi oltre su questo punto, che è stato chiarito in modo definitivo sin dai tempi di Tarski. Il caso è molto simile a quello delle pecore e delle capre. Là avevamo un linguaggio in cui ogni animale poteva essere identificato, ma a cui mancavano i concetti necessari per classificare gli animali come pecore o come capre. Qui inve­ ce abbiamo un livello di rappresentazione, quello della sin­ tassi, in cui è possibile descrivere univocamente ogni enun­ ciato, e quindi, a fortiori, ogni enunciato vero; ma a tale livel­ lo di rappresentazione non è possibile classificare gli enun­ ciati in quanto veri o falsi. Dall'analisi del programma di un calcolatore si può com­ prendere soltanto come e perché il calcolatore elabora e me­ morizza le "informazioni", ma non si può sapere nulla relati­ vamente a che cosa è l'informazione o perfino se si tratta d'informazione. Se conoscessimo soltanto il programma, non potremmo nemmeno dire che il calcolatore dispone di qual­ che informazione, né che questo o quel particolare evento o aspetto della macchina rappresenta qualcosa di esterno ad essa. A questo punto si potrebbe rispondere, in modo originale, alla mia argomentazione ammettendone la conclusione e conferendo a quest'ultima una connotazione positiva. Si po­ trebbe dire (come in effetti è stato detto) che gli esseri umani non sono altro che dispositivi per l'elaborazione delle infor­ mazioni, e che come tali dovrebbe considerarli la scienza del comportamento. È bensì vero (potrebbe continuare la con­ troargomentazione) che nelle nostre descrizioni identifichia­ mo gli stati mentali mediante il loro contenuto, cioè median­ te la loro relazione con il mondo esterno. Diciamo con non­ curanza che Colombo credeva che la Terra fosse rotonda, che voleva raggiungere le Indie Orientali lungo la strada più breve, e che per queste e altre ragioni egli intenzionalmente navigò verso occidente per raggiungere l'Oriente. Ciò non to48

glie che una scienza psicologica che voglia essere esauriente e potenzialmente precisa come, ad esempio, la biologia mole­ colare, escluderebbe dalla propria descrizione degli stati in­ teriori ogni riferimento alla realtà esterna. Io condivido que­ sta linea di ragionamento, ma da ciò non segue che vi sia un altro modo di descrivere gli stati mentali in grado di spiega­ re il pensiero e l'azione. La relazione dell'interno con l'esterno, della mente con il mondo, è senza dubbio una delle caratte-ristiche principali del nostro modo di descrivere e di identificare gli stati men­ tali. Certamente Colombo avrebbe potuto credere che la Ter­ ra fosse rotonda, e sbagliarsi; ma non lo avrebbe potuto cre­ dere se la Terra non fosse esistita. Siamo soliti specificare il contenuto di credenze e altri atteggiamenti mentali facendo riferimento a oggetti, o tipi di oggetti, con cui il soggetto di tali atteggiamenti deve avere avuto un qualche tipo di intera­ zione causale. (Naturalmente ciò non è sempre vero, ma lo è nei casi fondamentali.) L'elemento causale è persino più evi­ dente nel caso della percezione e della memoria. Se Jones ve­ de che c'è un uccello nel cespuglio, allora deve esserci effet­ tivamente stato un uccello nel cespuglio che ha causato que­ sta sua percezione. Se Smith ricorda di aver bevuto una pin­ ta di birra a pranzo, tale ricordo deve essere stato causato dall'aver effettivamente bevuto una pinta di birra a pranzo. Nel caso della percezione e della memoria, la verità è chia­ mata direttamente in questione: la credenza deve risultare vera. Tuttavia, la dipendenza logica dei contenuti del pensie­ ro dalle connessioni causali con gli oggetti del pensiero non è sempre così diretta e puntuale, né generalmente è tale da garantire la veridicità. Quando si parla di azioni intenzionali si fa spesso riferi­ mento a nessi causali tanto nel passato quanto nel futuro: così, se Caino ha ucciso Abele, egli deve aver fatto qualcosa che ha causato la morte di Abele, e se lo ha fatto intenzional­ mente, deve essere stato spinto ad agire dal desiderio della morte di Abele. Credenze, desideri, intenzioni, in sé, non so­ no che disposizioni causali. Il desiderio della morte di Abele è (fra l'altro) una disposizione necessaria per causare la mor­ te di Abele, date le credenze appropriate, l'opportunità, ecc.; la credenza che una pietra può essere letale, combinata con altri desideri, può causare l'intenzione di uccidere Abele, e tale intenzione include la disposizione a causare la morte di Abele. Il fatto che questi aspetti causali siano immanenti al no­ stro discorrere quotidiano di eventi e stati mentali è motivo sufficiente perché una scienza esatta eviti di usare questi 49

concetti. Per rendersi conto di ciò, basta pensare al ruolo dei concetti causali e disposizionali nelle ordinarie spiegazioni di eventi non mentali. Qualcosa è fragile se il verificarsi di una certa serie di eventi ne può causare la rottura; qualco­ sa è biodegradabile se può essere decomposto da processi biologici naturali. Poiché questo non è nient'altro che il si­ gnificato di "fragile" e "biodegradabile", nessuna scienza ma­ tura potrebbe ritenersi soddisfatta della spiegazione della rottura di un oggetto, se tale spiegazione si limitasse a far ri­ ferimento alla sua fragilità. Sarebbe come spiegare che qual­ cuno si è addormentato sotto l'azione di un certo medicinale perché le sostanze di cui que�to è composto hanno proprietà soporifere. Questo tipo di spiegazione può es sere completa­ mente vuoto: ammesso di sapere che cosa siano le scottature solari, il fatto che qualcuno ne sia rimasto vittima a causa di una prolungata esposizione al sole non ci dice veramente nulla di nuovo. Più spesso, tuttavia, queste spiegazioni sono semplicemente incomplete. L'asserzione che un certo medici­ nale ha fatto dormire qualcuno a causa delle sue proprietà soporifere può non essere del tutto priva di contenuto: il sonno potrebbe essere stato otte,nuto non a causa delle pro­ prietà soporifere, ma in quanto il medicinale ha agito da pia­ cebo. Analogamente, spiegare che qualcuno ha mangiato per­ ché aveva fame significa far riferimento a uno stato che è normalmente considerato come una disposizione causale a mangiare. La spiegazione, tuttavia, non è vuota perché non è affatto raro che si mangi per altri motivi. È abbastanza comune pensare che le spiegazioni scientifi­ che siano causali, mentre quelle di azioni, eventi o stati men­ tali non lo siano. Io sono di parere quasi totalmente opposto. Le ordinarie spiegazioni dell'azione, della percezione, della memoria e del ragionamento, così come le attribuzioni di pensieri, intenzioni e desideri, sono letteralmente tempestate di concetti causali; mentre è segno di progresso di una scien­ za il suo fare a meno di concetti causali. Lo scioglimento di un dato sale può essere spiegato, in una certa misura, dicen­ do che il sale era solubile e che era stato posto nell'acqua; è altrettanto vero però che il discioglimento può essere predet­ to sulla base di conoscenze di gran lunga più generali che fanno riferimento a quegli aspetti della composizione chimi­ ca del sale che sono responsabili della sua solubilità. Una volta che tale meccanismo sia stato compreso, la spiegazione non ha più alcun bisogno del concetto causale di solubilità. (Non sto dicendo che tali spiegazioni non siano causali in al­ cun senso, né che le leggi della fisica non siano leggi causali; voglio solo richiamare l'attenzione sul fatto che le spiegazio50

ni e le leggi di una scienza avanzata non fanno ricorso a con­ cetti causali.) Vi è una certa correlazione fra il carattere così profonda­ mente causale dei concetti utilizzati nella descrizione e nella spiegazione dei fenomeni mentali, e la distinzione fra sintas­ si e semantica sopra menzionata. Quando, in forza della na­ tura causale della memoria, specifichiamo i contenuti di un ricordo riferendoci a cause normalmente esterne alla perso­ na, non solo stiamo spiegando causalmente una credenza, ma ne stiamo anche dando un'interpretazione semantica. Non vi è altro modo di descrivere e spiegare le nostre cre­ denze, paure, intenzioni e, in generale, i nostri sentimenti (che pure sono privati e soggettivi come più non potrebbero), se non riportandoli a eventi e oggetti esterni. Il più delle volte ci accontentiamo di descrivere e spiega­ re i fenomeni ordinari facendo appello a poteri causali. Tut­ tavia sappiamo che le scienze fisiche forniscono, o confidia­ mo che prima o poi forniranno, una spiegazione migliore. È possibile che in certe occasioni io debba spiegare la rifrazio­ ne della luce causata da un prisma facendo appello al potere dispersivo del prisma, ma so anche che la scienza può far meglio di così, facendo a meno delle disposizioni causali. Perché, allora, non coltivare la speranza che la descrizio­ ne scientifica del funzionamento del cervello (o, se è per que­ sto, la conoscenza del programma di un calcolatore in grado di simulare efficacemente la mente umana) fornisca al tem­ po stesso una spiegazione dei meccanismi che costituiscono o sostengono il pensiero ? In fondo, anche i meccanismi della dispersione della luce o della biodegradazione hanno svelato, e spiegato, una realtà nascosta cui tutti facevamo riferimen­ to usando concetti causali come quello di biodegradabilità o dispersività. Io credo che nessuna spiegazione che permetta l'eliminazione dei concetti causali possa contemporaneamen­ te salvaguardare i nostri usuali concetti mentali e psicologi­ ci, e i motivi di ciò hanno direttamente a che fare con il ca­ rattere irriducibilmente normativa dei concetti che usiamo per descrivere e spiegare il pensiero. Vi sono norme e criteri di razionalità che si applicano an­ che ai pensieri. Se crediamo certe cose, la logica ci dice che ve ne sono altre che dovremmo o non dovremmo credere in conseguenza di quelle nostre prime credenze; la teoria della decisione spiega come una persona razionale dovrebbe orga­ nizzare e correlare l'un l 'altro i propri valori e le proprie credenze; i principi della teoria delle probabilità specificano come e in che misura, dato un certo insieme di risultanze empiriche, dovremmo concedere il nostro assenso a un'ipote51

si; e così via. Come risulta chiaro anche solo da queste sem­ plici riflessioni, noi usiamo criteri normativi per criticare e consigliare gli altri o per modificare le nostre credenze e le nostre scelte. Ma questi stessi criteri condizionano in modo più sottile, e in un certo senso più fondamentale, le nostre descrizioni e le nostre spiegazioni dei fenomeni mentali. Se qualcuno crede che Tahiti sia a est di Honolulu, allora do­ vrebbe anche credere che Honolulu è a ovest di Tahiti. Per questa stessa ragione, se noi siamo certi che tale persona crede che Honolulu è a ovest di Tahiti, commetteremmo pro­ babilmente un errore se interpretassimo le sue asserzioni in modo da attribuirle anche la credenza che Tahiti è a ovest di Honolulu. Sarebbe un errore non perché è empiricamente di­ mostrato che assai di rado le persone hanno credenze con­ traddittorie, ma perché le credenze (e altri atteggiamenti) vengono di solito identificate mediante le loro relazioni reci­ proche, e in particolare mediante le relazioni logiche che le legano l'una all'altra. Cambiando tali relazioni, si cambia an­ che l'identità del pensiero. Non si può continuare a conside­ rare pensiero il prodotto di una mente che viola in modo si­ stematico le relazioni logiche elementari. Il problema non è se vi sia accordo universale su queste norme di razionalità, ma il fatto che ognuno di noi ha le pro­ prie norme e non riconosce come pensiero ciò che se ne di­ scosta troppo. In altre parole: ciò che si discosta troppo dal­ le norme più comunemente accettate di razionalità non è pensiero. Solo dopo aver riconosciuto come razionale una creatura o un "oggetto" in base ai nostri propri criteri, è pos­ sibile attribuirgli fondatamente dei pensieri, o spiegare il suo comportamento in base ai suoi fini e alle sue convin­ zioni. Ciò significa che quando qualcuno, scienziato o profano, attribuisce pensieri agli altri, lo fa utilizzando necessaria­ mente le proprie norme. Ogni tentativo di controllare se le proprie norme sono condivise da qualcun altro è irrimedia­ bilmente condizionato dal presupposto che esse in gran par­ te lo siano; è possibile interpretare correttamente i pensieri altrui soltanto se si "scoprono" le proprie norme anche nel­ l'altra persona. Questa "scoperta", è chiaro, è solo una finzio­ ne dell'interpretazione, e non una risultanza empirica, ma non si può fare a meno di una metodologia normativa nello studio del pensiero e dell'intelligenza. Questi elementi normativi fanno realmente tutta questa differenza fra la spiegazione dei fenomeni cognitivi e gli altri tipi di spiegazione ? Dopo tutto, vi sono criteri normativi in ogni campo e in ogni disciplina: la scelta fra teorie concor52

renti è di solito guidata da criteri di eleganza, semplicità e potere esplicativo, mentre criteri, teorici e non teorici, inter­ vengono nell'effettuazione, refutazione e valutazione delle stesse osservazioni empiriche. Tutto ciò è vero, naturalmente. Ma il punto non è che vi sono discipline che ricorrono a metodologie normative men­ tre altre ne rifuggono, quanto piuttosto che tali metodologie hanno un posto di preminenza del tutto speciale nello studio dei fenomeni mentali. È chiaro che i criteri normativi del­ l'osservatore sono coinvolti nello studio di qualsiasi fenome­ no, ma quando tale fenomeno è la mente, allora anche quelli dell'oggetto osservato acquistano rilevanza. Quando il pen­ siero fa del pensiero il proprio oggetto, allora l'os servatore può identificare ciò che sta studiando soltanto se lo conside­ ra razionale, cioè in accordo con i propri criteri di razionali­ tà. L'astronomo e il fisico non sono affatto costretti a consi­ derare i buchi neri o i quark come entità razionali. Ed è da qui che bisogna partire per spiegare il carattere irriducibilmente causale dei concetti usati in connessione con il pensiero e con l'azione. In generale, come abbiamo vi­ sto, si fa appello a disposizioni e poteri causali per nasconde­ re la mancanza di meccanismi e strutture esplicative miglio­ ri. Se una sostanza è solubile, allora vi è qualcosa nella sua composizione (un qualcosa non meglio specificato) che, in certe condizioni, ne provoca il discioglimento. Una volta che la scienza abbia identificato quest'aspetto della composizio­ ne chimica della sostanza, si può fare a meno della solubilità come concetto esplicativo. Ma le credenze, che a loro volta sono disposizioni causali, sono identificabili solo per mezzo delle relazioni che hanno l'una con l'altra e con gli eventi e gli oggetti del mondo esterno . Ne segue che se vogliamo identificare delle credenze particolari sulla base di queste relazioni, dobbiamo necessariamente usare dei criteri nor­ mativi. Per poter mantenere intatte le caratteristiche norma­ tive che aiutano a definire le credenze e le altre forme di pensiero, la connessione di questi eventi mentali con i corri­ spondenti eventi descritti in termini non cognitivi deve con­ servare un certo grado di "vaghezza". Non è la vaghezza del­ l'ignoranza, ma quella che deve intercorrere fra due diversi schemi di descrizione e di spiegazione, uno dei quali, quello mentale, è essenzialmente normativo, mentre l'altro non lo è. Dato il carattere normativo e causale di ogni spiegazione della ragione, e quindi anche del pensiero, l'unico modo per accertare se un dispositivo artificiale (quale che ne sia il pro­ getto, il materiale o il programma) abbia credenze, intenzio­ ni, desideri e la capacità di percepire e interagire con il mon53

do allo stesso modo di una persona, è quello di interpretarne il comportamento così come interpretiamo il comportamen­ to di un essere umano. Considerando la natura dell'interpre­ tazione abbiamo visto perché comprendere il programma e la struttura fisica di un dispositivo, anche se di un dispositi­ vo genuinamente capace di pensiero, discorso e azione, non equivale a comprenderne il pensiero, il discorso e l'azione. L'argomento più importante a sostegno di questa conclusio­ ne, come abbiamo visto, è quello che mostra come l'interpre­ tazione richieda l'uso di concetti normativi come quelli di coerenza, ragionevolezza e plausibilità, concetti che non pos­ sono aver parte nella comprensione di un programma speci­ ficato sintatticamente.

54

Simulare la mente di Kathy Wilkes

I modelli Il modello della mente come calcolatore è esattamente ciò che l'espressione dice: un modello (o metafora o analo­ gia), e in quanto tale esso è affatto ineccepibile. Qualsiasi modello che serva a qualcosa è per ciò stesso un buon mo­ dello; le scienze usano e devono usare dozzine di modelli, a volte più d'uno allo stesso tempo, a volte solo temporanea­ mente o per uno scopo particolare, e a volte addirittura mo­ delli reciprocamente incompatibili. Modelli diversi suggeri­ scono diverse strategie metodologiche e ognuno evidenzia aspetti diversi del fenomeno che si vuole studiare. Ciò vale tanto per le scienze più mature e rispettate quanto per quel­ le meno sviluppate come la psicologia. A tale proposito si ve­ da cosa dice Cartwright parlando della fisica, l'eterno super­ io della psicologia: Spiegare un fenomeno significa trovare un modello che si ac­ cordi con le proposizioni fondamentali della teoria e che per­ metta di derivare leggi corrispondenti alle complicate e confuse descrizioni fenomenologiche del suo oggetto. Si usano modelli per una varietà di scopi, e si deve giudicare ciascun modello in funzione del grado con cui serve allo scopo prefisso. Ogniqual­ volta si usa un modello, si tenta di "vedere" un fenomeno attra­ verso di esso, ma problemi diversi richiedono che si guardi in modo diverso. Potremmo ad esempio voler detenninare una particolare quantità con grande precisione, o stabilime esatta­ mente la relazione funzionale che la lega a un'altra quantità. Ovvero potremmo voler riprodurre uno spettro più ampio di comportamento, ma con minor precisione. A volte infine si usa un modello per descrivere i processi causali che sono alla base 55

di determinati fenomeni, e in questo caso è meglio usare model­ li in cui i fattori causali pertinenti siano descritti in modo il più possibile realistico. (Cartwright 1 983, p. 1 52)

Qui il pericolo per la psicologia viene quando si passa dall'articolo indefinito a quello definito: quando cioè si smet­ te di parlare di "un" modello, metafora o analogia, e "il" mo­ dello fa la sua comparsa. Metafore o analogie (che presup­ pongono, o possono catalizzare, una teoria) diventano allora esse stesse teorie. Il fatto poi che ogni analogia abbia ele­ menti non analoghi (che ne costituiscono ciò che Hesse chia­ ma "analogia negativa") è del tutto ignorato; "la mente (per certi versi) simile a un calcolatore" diventa "la mente in quanto calcolatore"; i problemi per cui il modello risulta inutile vengono negati, ignorati, o messi da parte; la metodo­ logia suggerita dal modello diventa "la" metodologia propria della disciplina. Naturalmente, non è la prima volta che un particolare modello esercita il monopolio in psicologia. Per generazioni, probabilmente anche prima di Cartesio, si trattava dell'anni­ presente "piccolo uomo nel cervello" o "il fantasma nella macchina". Questo modello ancora sopravvive in espressioni molto comuni come "l'occhio della mente", " introspezione", "vedo ciò che intendi" . Si trattava naturalmente di una con­ cezione fondamentalmente sbagliata, che ha generato un nu­ golo di pseudoproblemi. Ma si trattò di una concezione fuor­ viante per molti aspetti, tranne uno: nessuno ci credeva dav­ vero. Nessuno, cioè, pensava realmente che ci fosse un picco­ lo homunculus interno; la metafora humiana della mente co­ me teatro interiore non fu mai (come Hume stesso fu il pri­ mo a sottolineare) nulla più di una metafora, nonostante sia poi diventato molto comune e quasi obbligatorio ignorare l'analogia negativa, trattando la mente come se essa fosse realmente un teatro interiore. È uno dei grandi trionfi del modello della mente come calcolatore che esso abbia definitivamente cacciato il piccolo uomo dal cervello. Perché se concepiamo il nostro cervello come se fosse, per molti importanti aspetti, simile a un cal­ colatore, allora proprio come non siamo tentati di postulare uno spiritello meccanico all'interno del familiare personal computer sulla nostra scrivania, così non vi è più alcun biso­ gno di un homunculus all'interno del macchinario cerebrale. Fin qui, nulla di male, ed essendo il nostro linguaggio così profondamente influenzato dai relitti del cartesianesimo, ri­ petere la lezione certamente non guasta. Ma come per le me­ tafore più vecchie, i guai cominciano quando iniziamo a 56

comportarci come se credessimo a ciò che diciamo: a crede­ re che la mente sia proprio un calcolatore, per quanto un po' fuori del comune, e che quindi i calcolatori forniscano "la" metodologia di ricerca. Si potrebbe obiettare che il cervello è ovviamente un calcolatore, nel senso letterale dell'espressione, poiché, esattamente come i calcolatori, è composto da piccole parti connesse in modo complesso, ed esattamente come nel caso dei calcolatori i dati o il comportamento in uscita sono una funzione dei dati in ingresso e dei processi interni. Cosa c'è allora di sbagliato nel prendere il modello in senso lettera­ le? È chiaro che un'interpretazione così debole non può che essere innocua, ma, stando così le cose, essa non risulta poi di alcun aiuto. Bisogna trovare i punti di somiglianza e dis­ simiglianza fra il funzionamento del cervello e i calcolatori che siano pertinenti ai fini dell'analogia, in modo da sapere quando fatti relativi al funzionamento dei calcolatori sono d'aiuto nello studio del cervello, e quando non lo sono. I calcolatori cui possiamo dirci simili in questo senso astrat­ to o minimo non sono stati ancora nemmeno immaginati o, piuttosto, essi ci sono fin troppo noti, con tutta la loro pau­ rosa complessità, poiché non si tratterebbe che di altri cer­ velli. Una tale debole similitudine non può fornire alcuna assistenza ed è priva di qualsiasi connessione con le tecni­ che di simulazione al calcolatore o con l'Intelligenza Artifi­ ciale contemporanea. Se il "modello del calcolatore" deve essere di qualche utilità, esso deve portare avanti il parago­ ne fra la mente e le prestazioni di artefatti come quelli che abbiamo costruito o stiamo tentando di costruire. Oggi que­ sti sono per la maggior parte macchine seriali di von Neu­ mann, e noi sappiamo che vi sono profonde differenze fra il cervello (un sistema a elevato parallelismo) e tali mac­ chine. Torneremo fra breve a questa rassegna dei difetti (ormai familiari) del modello del calcolatore, ma prima mi sia per­ messo un secondo punto preliminare.

La mente Una volta abbandonata l'idea della mente come conscia, autoilluminantesi res cogitans (nonostante ci sia voluto un tempo straordinariamente lungo prima che la psicologia e la filosofia britanniche potessero sfuggire alla presa di questa caratterizzazione altamente implausibile), non è più stato possibile concepire la mente come teatro interiore, ispezio57

nato da un altrettanto interiore, imperturbabile occhio. Ma ciò ha creato un problema che non è ancora stato adeguata­ mente dibattuto: che cos'è "una mente" ? Ovvero, se la stes­ sa domanda deve essere posta in forma aggettivale: cosa si­ gnifica essere di natura "mentale" ? Coloro che affrontano quest'ultima domanda tendono a usare due criteri dramma­ ticamente diversi, e cioè, in primo luogo, condizioni "carte­ siane" secondo cui il mentale è ciò che è conscio, ciò di cui siamo immediatamente consapevoli, ciò a cui abbiamo ac­ cesso privilegiato, e infine ciò rispetto a cui siamo infallibi­ li. Queste condizioni, che variamente mettono in luce diver­ se caratteristiche epistemologiche degli stati mentali, 1 risul­ tano quasi sempre adeguate per fenomeni quali il dolore o altre sensazioni, pensieri che "attraversano la testa", e atti­ vità mentali quali la visualizzazione e il calcolo. Ma è noto che esse non sono affatto adeguate per la maggior parte delle ascrizioni disposizionali quali credenze e pregiudizi; queste condizioni falliscono ex hypothesi, quali che siano i fenomeni mentali preconsci, subconsci o inconsci che si vo­ gliono postulare. Così di solito un secondo criterio si ag­ giunge a completamento del primo; si tratta di un criterio specificamente logico: l'intensionalità. Vengono così ammes­ si fenomeni mentali che non sono consci, anche se al prezzo di rendere le cose un po' più confuse nel caso del dolore e di altre sensazioni corporee; il punto però è che questo cri­ terio non è del tutto adeguato nemmeno nel caso dei feno­ meni inconsci, poiché non è sufficientemente restrittivo. Tanto gli informatici quanto i neuroscienziati usano la ter­ minologia intensionale liberamente, spregiudicatamente e utilmente per descrivere il funzionamento dei sistemi che costituiscono l'oggetto dei loro studi. La nozione stessa di "informazione" è carica di intensionalità, così come la de­ scrizione data da Sokolov di una delle funzioni che si postu­ lano per l'amigdala del ratto, in cui si "confrontano" gli sti­ moli in entrata con quelli "attesi". L'amigdala, o i calcolato­ ri, hanno forse "stati mentali" ? C'è un punto di vista da cui questo problema risulta total­ mente privo di importanza. Nessun termine minimamente interessante del linguaggio ordinario ha una definizione chiara e precisa: non deve quindi soprenderci che nemmeno "mente" e "mentale" ne abbiano una. Potremmo provare a delimitare l'ambito di questi termini in modo blando e senza pretese come segue: "la mente" è l'oggetto della psicologia non-comportamentista (inclusa quindi la psicologia del senso comune), mentre "il mentale/psicologico" include, semplice­ mente, tutti i termini usati essenzialmente in tale psicologia. 58

Con ciò naturalmente non abbiamo detto molto su nessuno dei due termini, ma la cosa non deve allarmarci; non è affat­ to preoccupante che vi sia un gran numero di casi di confine in cui non siamo sicuri se qualcosa è o non è "realmente" mentale. Dopotutto, non sono casi molto diversi da quando ci rendiamo conto che non è affatto interessante chiedersi se un dato programma di ricerca è "realmente" psicologia, o se non andrebbe piuttosto descritto come etologia, sociologia, neuropsicologia o chissà cos'altro. D'altro lato, persino una caratterizzazione così blanda non è immune da obiezioni, e ciò dovrebbe portare in primo piano un problema che è stato al centro della psicologia scientifica in tutto il corso della sua storia ormai centenaria: che cos'è esattamente "l'oggetto delle psicologie non-compor­ tamentiste" ? Anche se vi sono molti che si accontentano di rispondere "la mente" ve ne sono altrettanti che insistono che la risposta dovrebbe essere "il comportamento", e certa­ mente non tutti sono comportamentisti classici. Il fatto è che non vi è alcuna ricca o utile nozione della "mente" che possa essere d'aiuto quando cerchiamo di deci­ dere a che cosa servono i modelli della psicologia. Sono que­ stioni strettamente collegate con il tema che stiamo discu­ tendo: in tutto il corso della sua storia la psicologia ha sem­ pre tentato di definire il proprio oggetto nei termini delle metodologie a sua disposizione, e tali metodologie sono state dettate dal modello della mente di volta in volta prevalente. La psicologia strutturalista di Wundt, ad esempio, poteva usare essenzialmente una sola tecnica metodologica: l'intro­ spezione. Ciò fu in parte dovuto alla raffigurazione "cartesia­ na" della mente come ciò che l'onnivedente homunculus inte­ riore osserva. Ma è ovvio che molta parte dell'esperienza e del comportamento è immune al resoconto introspettivo, ed è questo residuo che dovette essere consegnato in parte al­ la sua Volkerpsychologie, in quanto contrapposta alla sua "Nuova Scienza", e in parte a un limbo abitato, ad esempio, dalla psicologia comparativa. Ma cosa accadrebbe se il modello del calcolatore domi­ nasse la psicologia invece del modello del fantasma interio­ re? In un caso del genere è possibile intravvedere il riverbe­ ro di una disputa molto simile. Infatti i calcolatori (in quan­ to distinti dagli automi) possono al più produrre soltanto comportamento linguistico ed esclusivamente "cognitivo" (programmabile): l'accento cade sui processi psicologici inte­ riori, l' "interno" cognitivo, piuttosto che sulle azioni, le emo­ zioni, le motivazioni e l'esperienza sensoria. Inoltre, poiché il macchinario dei calcolatori è così diverso dal "macchinario" 59

del cervello, vi è una corrispondente tentazione a ignorare anche il ruolo dei fenomeni neuropsicologici. Tutto ciò tende a suggerire che vi siano competenze psicologiche che posso­ no essere studiate indipendentemente dalla loro genesi e ma­ nifestazione nel controllo sensorio-motorio, isolatamente dalle capacità psicofisiologiche che le costituiscono, prescin­ dendo dal comportamento, dall'etologia, dalla psicologia del­ lo sviluppo e dalla neuroscienza. Ma ciò, se vero, sarebbe quantomeno sorprendente, a meno, cioè, di non sottoscrivere implicitamente una versione non riformata del cartesianesi­ mo. Una tale acritica adesione al modello del calcolatore avrebbe drammatiche ripercussioni sul modo in cui la psico­ logia definisce se stessa. Se la psicologia è lo studio della "mente", e la mente è caratterizzata come ciò che si può stu­ diare per mezzo del modello del calcolatore, allora il percor­ so della psicologia sarebbe altrettanto radicalmente ostaco­ lato come al tempo in cui l'introspezione imperava.

Computerofobia In questa sezione mi propongo di rivedere brevemente al­ cuni dei difetti (ormai familiari) del modello della mente co­ me calcolatore. (Le obiezioni sono tuttavia così numerose che persino un'esposizione sommaria richiederà un po' di tempo.) Poco di ciò che dirò sarà originale, e si noti che l'og­ getto delle critiche che presenterò è quel genere di lavoro di simulazione al calcolatore che più ha ricevuto denaro, tempo e pubblicità, e cioè precisamente la simulazione per mezzo di macchine di von Neumann, in quanto distinta, ad esem­ pio, dalla più recente ricerca nel campo del trattamento pa­ rallelo distribuito (parallel distributed processing o PDP). È chiaro che non tutte le critiche sono applicabili a tutti i ri­ cercatori nel campo: invero, pochi critici della simulazione al calcolatore sono riusciti a essere altrettanto determinati e incisivi quanto alcuni dei protagonisti della simulazione stessa. Inoltre, al fine di rimuovere un possibile equivoco, si noti che nulla di ciò che segue ha alcuna relazione con quella parte del lavoro svolto in Intelligenza Artificiale che è irrile­ vante dal punto di vista della psicologia. Come esempio di ri­ cerca in questo settore si consideri lo sviluppo di "sistemi esperti" dedicati allo svolgimento di attività che (finora) era­ no appannaggio esclusivo degli esseri umani come la diagno­ si di malattie delle piante o il gioco degli scacchi, senza con ciò voler simulare la mente e riprodurne i processi cogniti­ vi. 2 60

(a) Una delle tipiche conseguenze della simulazione al calcolatore è stata quella di incoraggiare la psicologia a im­ postare lo studio della mente-cervello secondo una strategia "dall'alto verso il basso" (top-down). Tale strategia può esse­ re raffigurata, in modo forse un po' caricaturale, come se­ gue: la metodologia di ricerca è un'impresa quasi kantiana; il punto d'inizio è la competenza che si vuole spiegare (ad esempio il riconoscimento di configurazioni o pattern reco­ gnition), e un interrogativo della forma "Come è possibile il pattern recognition?". Con un po' di fortuna, quindi, si indivi­ duano alcune condizioni che qualsiasi sistema in grado di as­ solvere a tale compito deve soddisfare, abbozzando a partire da queste una mini-teoria delle sottofunzioni che incorpora­ no queste condizioni e rendono possibile il pattern recogni­ tion. Queste funzioni subordinate diventano quindi esse stes­ se oggetto d'analisi: si postula un "livello immediatamente inferiore" di sotto-sottofunzioni, reiterando la metodologia. Alla fine, ai neurofisiologi che avranno avuto la pazienza di aspettare sufficientemente a lungo verrà affidato il compito di mostrare tecnicamente come certe strutture cerebrali pos­ sano svolgere le (sotton-)sottofunzioni. Questa strategia è sta­ ta ulteriormente rafforzata dall'incredibile difficoltà di quel­ la che appare essere l'unica alternativa possibile, e cioè quel­ la di cominciare "dal basso": vi sono 1 010 o 1 0 1 1 cellule nervo­ se, ognuna delle quali può essere attiva, in quiete o inibita, ovvero può entrare a far parte di nuovi raggruppamenti dan­ do origine a nuove configurazioni e combinazioni cellulari: tutto ciò è troppo, e troppo difficile. Questa linea d'argomentazione è ovviamente falsa, e non solo perché la strategia in que�tione è stata così rimarche­ volmente avara di risultati, 3 ma soprattutto perché sono le pratiche stesse delle scienze del cervello e del comportamen­ to a mostrare quanto una tale strategia metodologica possa essere limitativa. Infatti, i problemi come quello del ricono­ scimento percettivo possono essere, e sono, affrontati a un gran numero di livelli e con un gran numero di metodologie, ed una di queste, invero, è quella "dall'alto verso il basso" (perché no?). Ma è al tempo stesso giusto e appropriato stu­ diare la fisiologia della retina; le memorizzazioni a cellula singola da neuroni nella corteccia visiva; il ruolo del genico­ lato laterale; l'effetto delle lesioni della corteccia umana e animale; l'ipotesi che vi siano mappe topografiche multiple nella corteccia; il grado di successo e di fallimento nell'adde­ stramento (ad esempio) dei piccioni a riconoscere oggetti ri­ tratti in fotografie prese da diverse prospettive; la costanza della percezione del colore nonostante cambiamenti di illu61

minazione; la prosopagnosia, cioè l'incapacità di riconoscere facce conosciute; e molti altri ancora. Si potrebbe invero sostenere (e si dovrebbe anche, ma ciò richiederebbe un articolo a parte) che i pazienti con danni cerebrali hanno fornito molte più informazioni sull'organiz­ zazione delle capacità cognitive umane sia a livello macro­ scopico sia a livello microscopico di quante ne abbiano offer­ te i modelli al calcolatore. Nessuna procedura di ricerca che proceda dall'alto verso il basso potrebbe mai condurci, ad esempio, a sospettare l'esistenza di disturbi quali la prosopa­ gnosia o l'alessia pura. 4 Le spiegazioni psicofisiologiche del­ l'alessia pura (si veda ad esempio Geschwind 1 969) suggeri­ scono un'organizzazione del sistema visivo difficilmente so­ spettabile a priori. Nonostante questo sia solo un esempio, esso è pienamente conclusivo, perché mostra che cosa una strategia puramente dall'alto verso il basso non può non mancare. (b) Per quanto la strategia dall'alto verso il basso sia li­ mitante, essa assegna perlomeno un certo ruolo (benché umi­ le e secondario) alle scienze neurologiche, sfuggendo così a una seconda obiezione cui si è già di sfuggita fatto riferimen­ to. Tale obiezione contesta che le neuroscienze possano venir considerate come del tutto irrilevanti, e che la psicologia debba essere "autonoma" dalla fisiologia. Vi sono tuttavia al­ cuni che difendono questa tesi, sostenendo che è "parroc­ chiale" o "sciovinista" restringere la psicologia allo studio dell'elaborazione dell'informazione così come essa ha luogo nell'uomo (o nei primati). Si veda ad esempio Pylyshyn (1 980, p. 1 1 5): "Nello studio della computazione è possibile, e per certi versi essenziale, considerare separatamente la natura dei processi simbolici e le proprietà del dispositivo fisico su cui essa viene realizzata." Oppure, ancora più esplicitamen­ te, Fodor (198 1 , pp. 8 sg.): Ora, vi è un livello di astrazione a cui le generalizzazioni della psicologia trovano la propria interpretazione più naturale e che sembra tagliare trasversalmente le differenze fra sistemi fisica­ mente molto differenti [ ] Il punto, naturalmente, è che sono possibili (e, per quanto ne sappiamo noi, anche reali) sistemi di elaborazione delle informazioni che condividono la nostra psi­ cologia (ne esemplificano le generalizzazioni) ma non la nostra organizzazione fisica. ...

Nella migliore delle ipotesi, le competenze psicologiche (in confronto con il software di un calcolatore che è suscetti­ bile di realizzazioni fisiche molto diverse) potrebbero essere 62

messe in corrispondenza con un numero indefinito di catego­ rie neurologiche o fisiche arbitrariamente correlate a esse; la psicologia e le scienze fisiche sarebbero connesse da una re­ lazione irriducibilmente singolare o token-token; la neuro­ scienza non avrebbe dunque nulla di interessante da dire ri­ guardo alle generalizzazioni psicologiche in quanto tali. No­ nostante questa argomentazione tenda a sminuire l 'impor­ tanza dei fatti fisiologici, essa può anche trarre sostegno da alcuni di essi, come la ben nota plasticità del cervello, o il fatto che al momento della morte il cervello di Byron pesas­ se più del doppio di quello di Anatole France, fatto questo che tende a suggerire che le generalizzazioni psicofisiologi­ che difficilmente possono essere applicabili in entrambi in casi. 5 Per quanto questa posizione possa essere affascinante, es­ sa è fondamentalmente sbagliata. Il primo e più ovvio errore risiede nel supporre che noi conosciamo le categorie psicolo­ giche che sono oggetto di studio e di simulazione. Noi, al contrario, non disponiamo di alcuna chiara nozione di quali siano i fenomeni che la psicologia dovrebbe studiare e spie­ gare: per usare le parole di Fodor, non abbiamo ancora indi­ viduato il "livello a cui le generalizzazioni della psicologia trovano la propria interpretazione più naturale". Si conside­ ri N.A., un paziente il cui caso è stato descritto da Squire e Cohen. A seguito di un incidente di scherma, N.A. riportò una lesione talamica che provocò una profonda amnesia an­ terograda. N.A. non ricorda quasi nulla degli eventi succedu­ tisi dal momento dell'incidente, ma ha una buona memoria retrogada, e può acquisire alcune abilità cognitivo-motorie, come quelle necessarie a risolvere il problema della Torre di Hanoi. Ma ogni volta che gli viene presentato il problema, N .A. non solo non riesce a ricordare la soluzione, ma nem­ meno di esservisi mai cimentato. È chiaro che in un caso co­ me questo il termine generale "memoria" subisce una scom­ posizione molto particolare e difficile da trattare. E l' amne­ sia di N.A. è solo uno dei molti differenti tipi di scomposizio­ ne: i pazienti del morbo di Korsakoff, di Alzheimer, o di Huntington, hanno tutti forme sottilmente diverse di perdita di memoria. Ma non è tutto. Il disordine teorico che ancora circonda questa nozione è testimoniato anche dell'incredibi­ le numero di "memorie" diverse che si è ritenuto opportuno distinguere anche senza far riferimento ai diversi tipi di am­ nesia: memoria a breve termine, a lungo termine, e "operati­ va"; memoria procedurale e dichiarativa; memoria semanti­ ca, episodica, iconica, non-cognitiva, somatica e così via. Questa varietà è segno che stiamo ancora cercando il modo 63

più chiaro ed efficace di descrivere e articolare una capacità così apparentemente ordinaria come la memoria. Ed è ovvio che non possiamo dire che un calcolatore offre un ulteriore esempio della "stessa" capacità finché non si sa che cosa esattamente tale capacità sia. Questo è un problema importante e dimenticato, alla cui soluzione i filosofi, se solo volessero, potrebbero contribuire in modo decisivo. Il grande errore risiede nella presunzione di conoscere le nostre capacità, ciò che noi sappiamo fare, e che qualunque altro oggetto sappia fare le stesse cose, abbia le stesse nostre capacità. Tanto le persone quanto le lavatrici "lavano i panni", e i topi vengono catturati tanto dai gatti quanto dalle trappole meccaniche, eppure non vi è nulla di interessante da imparare sugli uni studiando gli altri, così come non si comprendono meglio le nostre abilità matemati­ che studiando i calcolatori tascabili. Oppure, per riavvicinar­ ci a problemi reali: a quali condizioni possiamo dire che vi sono artefatti in grado di vedere? Per quanto ne so, il proble­ ma è del tutto ignorato da coloro che sostengono che la psi­ cologia dovrebbe essere "autonoma": il problema, cioè, de­ terminato dal fatto che non abbiamo ancora una chiara tas­ sonomia delle competenze psicologiche, e che quindi non sappiamo quali siano le generalizzazioni interessanti che hanno bisogno di essere individuate e studiate. Ne segue che è impossibile appurare se la visione artificiale (ammesso che ve ne sia una) e quella umana hanno qualcosa in comune o meno: è possibile che esse stiano l'una all'altra come il topo marsupiale al topo di campo: simili all'apparenza, ma in un caso in cui le apparenze ingannano. Vi è un secondo errore che appare innegabile non appena vi si ponga attenzione ed esso consiste nel ritenere che vi sia qualcosa di sbagliato o comunque di particolare nell'esem­ plificazione multipla di macrofenomeni. Si tratta di una cir­ costanza affatto comune nelle scienze cosiddette "dure", e un esempio ci è fornito dalla discussione della nozione di tem­ peratura di Austen Clarke ( 1980). "Temperatura" è un termi­ ne appartenente al vocabolario della termodinamica che, nel caso dei gas, è venuto a denotare ciò che la teoria molecolare ha identificato con l'energia cinetica media delle molecole costituenti il gas. Ma nel caso dei solidi classici la tempera­ tura va piuttosto identificata con la media dell'energia cine­ tica massima delle molecole, mentre la temperatura del pla­ sma non può essere questione di energia cinetica molecolare, poiché il plasma non è composto da molecole ma da atomi dissociati; ancora diversa, infine, è la nozione di temperatu­ ra dello spazio vuoto, in cui essa suole essere identificata 64

con la radiazione elettromagnetica transitoria (transient elec­ tromagnetic radiation). Inoltre, anche se ci limitiamo ai gas, la temperatura di due gas diversi è esemplificata o realizzata in modo molto diverso se abbandoniamo il livello rnolecolare di descrizione per accedere a quello atomico. Analogamente, asserire che il "riconoscimento di configurazioni" può essere realizzato tanto per mezzo di scariche sinaptiche quanto per mezzo di impulsi elettromagnetici e che quindi il mezzo fisi­ co di realizzazione è irrilevante, è altrettanto stupido quanto diffidare della teoria atomica perché essa non ci dice nulla sulla temperatura dei gas. Occorre riconoscere che nelle scienze del cervello e del comportamento, proprio come nelle altre scienze, vi sono molti diversi livelli di analisi e di descrizione (nonostante siamo molto lontani dall'averli identificati tutti), e semplice­ mente non abbiamo alcuna idea di quale sia il livello a cui la natura del materiale fisico di realizzazione (lo "hardware") risulta indifferente. Naturalmente, la plasticità del cervello è ben nota, così come il potenziale di crescita dendritica e di formazione di nuove connessioni neurali, e il tasso di decadi­ mento delle cellule individuali, per cui si può probabilmente dire che la maggior parte delle volte l'esatta natura e i lega­ mi di questo singolo neurone non hanno nessuna importan­ za. Ma è possibile che lo stesso non si possa dire riguardo al­ le colonne cellulari, agli scherni di connettività o alle regioni (ad esempio) dell'ippocampo o dell'area di Broca. L'impor­ tanza del mezzo di realizzazione fisica potrebbe cominciare a essere manifesta molto prima di quanto creda il cognitivista "autonomista", come efficacemente argomenta Block ( 1 983, p. 535, corsivo mio): metafora del calcolatore ha diretto l'attenzione verso model­ li in cui tutto è ottenuto per mezzo di elaborate combinazioni di operazioni estremamente primitive come "controlla se c'è una corrispondenza" oppure "muovi l'elemento dall'n-esimo all'm-e­ simo posto" . . . Mi sembra che sia questo il punto in cui la meta­ fora del calcolatore può realmente aver fatto danno. Dobbiamo prendere in considerazione la possibilità che le operazioni pri­ mitive siano più complesse e il loro ruolo esplicativo maggiore. La

Block passa quindi a illustrare tale possibilità: Si supponga ad esempio che, conducendo ricerche sui delfini, gli scienziati cognitivi scoprano che questi mammiferi riescono a usare e trarre vantaggio da quelli che a noi appaiono come complessi aspetti dell'idrodinamica del loro ambiente. Gli psi­ cologi dominati dalla metafora del calcolatore potrebbero a questo punto sviluppare modelli contenenti rappresentazioni 65

esplicite delle equazioni differenziali dell'idrodinamica così co­ me i mezzi digitali di calcolo necessari per risolvere tali equa­ zioni. Ma gli psicologi potrebbero sbagliarsi. Il metodo giusto potrebbe essere quello di cercare dei meccanismi neurali essi stessi soddisfacenti equazioni differenziali della stessa forma di quelle dell'idrodinamica. Secondo i modelli di questo tipo, i del­ fini userebbero per la navigazione un dispositivo analogo a un modellino di aeroplano nella galleria del vento.

La morale di tutto ciò è che vi è una possibilità reale che le spiegazioni psicologiche affondino le radici nella struttura fisica e che siano utilizzabili molto prima che la metafora del calcolatore ci insegni qualcosa; è invero possibile che il lavoro veramente interessante provenga da una o dall'altra delle neuroscienze piuttosto che da esercizi di simulazione. 6 Più in generale, non possiamo sapere, a meno di svolgere ricerche empiriche, quali sono le capacità che non dipendo­ no da strutture fisiche di tipo veramente specifico. È perfet­ tamente possibile che se dovessimo costruire un calcolatore con capacità paragonabili a quelle del cervello umano, sa­ remmo costretti a usare come elementi strutturali delle cel­ lule sintetiche o comunque oggetti dal comportamento molto simile a quello dei neuroni, con ad esempio potenziali d'azio­ ne, potenziali graduati, modificabilità "sinaptica", crescita "dendritica", ecc. Per dirla con Gunderson, la simulazione di alcune capacità potrebbe non dipendere tanto dal modo in cui il meccanismo è programmato quanto da quello in cui il programma è meccanizzato. (Gunderson fornisce un sempli­ ce esempio: non importa come lo programmi, il mio personal computer non potrà mai stampare con inchiostro verde; a ta­ le scopo è necessario un componente fisico come un nastro da stampante di colore verde.) Molto (per quanto non tutto) del lavoro di simulazione al calcolatore, specialmente quando si argomenta a favore delle strategie "dall'alto verso il basso" o dell'autonomia della psi­ cologia, è pregiudicato da uno stupido errore: dalla convin­ zione cioè che si possa tracciare una chiara e utile distinzio­ ne fra le descrizioni funzionali e psicologiche del software e quelle strutturali e fisiologiche dello hardware. Si prova quasi imbarazzo ad attaccare una convinzione così manife­ stamente falsa: una convinzione che si sa essere falsa sin da quando Aristotele sviluppò l'analoga distinzione fra materia e forma, e che nella sua versione moderna è stata definitiva­ mente abbattuta da Kalke (1 969) in un articolo troppo igno­ rato. La distinzione, si badi bene, non vale nemmeno nel caso dei calcolatori. Il programmatore di calcolatori che lavori, ad esempio, in LISP, è libero di trattare tutto il resto come se 66

si trattasse di un dispositivo fisico in grado di compiere le operazioni previste dal programma. Ma un altro programma­ tore potrebbe lavorare con una macchina in cui il LISP è stato fisicamente incorporato (hardwired), scrivendo programmi che pur non essendo in LISP, in LISP possono essere tradotti. Inoltre, anche l'ingegnere che usa il linguaggio assemblatore sta scrivendo un programma, nonostante il "livello" di tale programma sia molto al di sotto di quello del LISP, ed è libe­ ro di trattare tutto il resto come se fosse fisicamente incor­ porato nella macchina. Persino chi scrive il codice-macchina sta scrivendo un programma le cui istruzioni dicono alla macchina di copiare successioni di O e di l dai suoi registri. Infine, quando un programma, anche di alto livello, viene eseguito, esso deve preventivamente essere compilato, e la compilazione incorpora fisicamente, anche se temporanea­ mente, nella macchina ciò che si pensava appartenesse indi­ scutibilmente al lato funzionale della distinzione hardware/ software. Per dirla semplicemente: la distinzione hardware/softwa­ re è relativa agli scopi del ricercatore. Nel cervello esatta­ mente come nel calcolatore possiamo studiare le funzioni delle cellule nervose ovvero la loro realizzazione strutturale in strutture sottocellulari; oppure possiamo decidere di con­ siderarle "struttura" quando si tratta di studiare il ruolo del­ le colonne cellulari, e quest'ultime, a loro volta, potrebbero essere considerate "strutturali" nello studio dell'amnesia di Korsakoff. Vi sono, insomma, tanto "grandi" strutture (ad esempio l'emisfero sinistro, il sistema limbico, l'ippocampo) quanto "piccole" funzioni (ad esempio quelle delle singole cellule o dei gruppi cellulari). Occorre risolvere i misteri del­ la mente-cervello a tutti questi livelli, e in corrispondenza di ognuno di essi gli scienziati potrebbero descrivere se stessi come impegnati nello studio di "strutture", di "funzioni", o, più probabilmente, di entrambe. (c) Abbiamo già accennato a un terzo problema connesso con l'uso tradizionale del modello del calcolatore: tale mo­ dello è troppo cognitivo. La psicologia ispirata a tale model­ lo si riduce a "psicologia cognitiva" . Le capacità motivazio­ nali, sensorie, motorie e dello sviluppo sono state relegate ai margini o dimenticate solo perché il modello del calcolatore ha grosse difficoltà a trattarle. 7 Si dà un modello delle com­ petenze psicologiche solo laddove queste ammettono rappre­ sentazioni simboliche, quasi enunciative, e la conseguente assurdità di supporre che i bambini a uno stadio infantile prelinguistico, o i piccioni, riescano a padroneggiare un non 67

meglio specificato "linguaggio del pensiero" viene o esplicita­ mente abbracciata o, per così dire, nascosta sotto il tappeto. L'apparato cognitivo umano si sviluppò in risposta a ciò che i nostri antenati sapevano e non sapevano fare, ciò di cui aveva­ no bisogno, e ciò che potevano o non potevano procurarsi. Controllo motorio, percezione, motivazione e cognizione sono inestricabilmente connessi in un nodo in cui non si può asse­ gnare alcuna priorità e che è all'origine di ciò che ora siamo. Il problema può anche essere enunciato considerando una domanda apparsa una volta in un esame all'Università di Ox­ ford: perché non diciamo che le telecamere vedono ? Chiara­ mente non perché una telecamera è così strutturalmente di­ versa da un occhio umano: si potrebbe facilmente ovviare a ciò, e in ogni caso ci sembra appropriato dire che gli insetti ve­ dono nonostante i loro occhi siano così diversi dai nostri. Ben­ ché finora la maggior parte dei tentativi sia incorsa in serie difficoltà, è possibile che alla fine si riesca a ottenere un calco­ latore capace di riprodurre alcune attività relativamente sofi­ sticate nel campo del riconoscimento di configurazioni (maga­ ri un sistema PDP). Ma con ciò non si sarebbe ancora riprodot­ ta la visione, con la conseguenza che solo una piccola frazione delle "generalizzazioni interessanti" che valgono per la perce­ zione umana potrebbero dirsi condivise dai calcolatori. E non si tratterebbe di visione perché un tale sistema ignorerebbe completamente l'olismo della dimensione psicologica, un oli­ smo che va al di là degli aspetti cognitivi "puri". Oggi i pro­ grammi per calcolatore riescono a identificare triangoli, cubi, quadrati, e forse un giorno riusciranno a identificare anche quegli alberi e quei pesci che già oggi i piccioni riescono a identificare senza problemi. Diciamo che questi programmi identificano gli oggetti nel senso che essi possono dire, me­ diante gli appropriati dispositivi di uscita, ciò che essi sono. Anche noi possiamo farlo, ma ciò che rende la percezione im­ portante e interessante richiede ben più di questo. È molto ra­ ro che quando vediamo un oggetto la nostra reazione sia quel­ la di dire ciò che esso è. È più probabile che noi lo ignoriamo, lo mangiamo, lo raccogliamo, lo evitiamo, lo ammiriamo o lo deploriamo, lo bombardiamo, lo gettiamo, vi saltiamo sopra o scriviamo una poesia su di esso. Nessuna di queste attività può essere adeguatamente trattata all'interno di un progetto limitato alla cognizione "pura" . Nella scienza un certo grado di idealizzazione e di semplifi­ cazione è inevitabile, ma bisognerebbe essere in grado di indi­ care le ragioni per cui le nostre idealizzazioni dovrebbero es­ sere istruttive. E sembra perlomeno strano supporre che le uniche "generalizzazioni interessanti" riguardo alla percezio68

ne siano es senzialmente prive di connessioni con il ruolo che la percezione ricopre nell'economia generale della psicologia e del comportamento. È questo, soprattutto, che ci porta a ri­ volgere nuovamente la nostra attenzione all'attività sensorio­ motoria. Come ha dimostrato Scheerer (1 984 e di prossima pubblicazione), ciò era dato per scontato prima della "rivolu­ zione del calcolatore ". Se una tale attenzione è assente, non possiamo certo dire che il nostro modello "veda", e a maggior ragione è impossibile ottenere sistemi che "condividono la no­ stra psicologia". (d) Tutti conoscono il cosiddetto frame problem. Si tratta, in breve e approssimativamente, del problema di far sì che un calcolatore sfrutti e manipoli ciò che noi implicitamente e ta­ citamente sfruttiamo e manipoliamo, come ad esempio la co­ noscenza quotidiana del senso comune che noi inconsapevol­ mente possediamo e usiamo, oppure l'abilità di concentrarsi sui fattori di volta in volta rilevanti, ignorando quelli privi di connessione con il compito prefisso (tutti fattori che dipendo­ no in grado elevato dal contesto e dallo scopo). Così tanto è stato scritto e detto su questa difficoltà, che qui è sufficiente citare una recente rassegna scritta da Margaret Boden (1 983) per un'enciclopedia: Non solo è molto difficile riconoscere le conoscenze specifiche di dominio che sono rilevanti nel ragionamento informale ed espri­ merle computazionalmente in modo da renderle disponibili alla macchina, ma nemmeno è ancora stato risolto il problema di usa­ re in modo efficiente e corretto le grandi basi di conoscenze. Co­ me può un programma (o una persona) rendersi conto che ha bi­ sogno di un particolare dato e recuperarlo velocemente? Quale dovrebbe essere l'organizzazione interna e (per cosi dire) l'indice di una base di conoscenze affinché i dati necessari siano facil­ mente accessibili nel corso del ragionamento informale del senso comune? Il trattamento di un gran numero di conoscenze e la rappresentazione dell'apprendimento sono forse i problemi inso­ luti più pressanti dell'Intelligenza Artificiale contemporanea. (Harre e Lamb, 1 983, p. 33)

Quando si cambia il contesto, passando da un mondo arti­ ficialmente ordinato come quello di una scacchiera, al mondo reale con tutta la sua confusione, allora i metodi formali algo­ ritmici per tentare di raggiungere le conoscenze specifiche di dominio rilevanti cominciano a sembrare un po' ridicoli. L'in­ capacità dei calcolatori a trattare con il mondo reale è esatta­ mente ciò che fece dire a Cristopher Evans nel 1 979 che i più sofisticati calcolatori dell'epoca avevano approssimativamen­ te la stessa "intelligenza" di un millepiedi. Ovvero, come so69

stenne Cartesio polemizzando con Montaigne, "la ragione è uno strumento universale che può venire utile in ogni contin­ genza"; finché il frame problem non sarà stato risolto, il "ra­ gionamento" dei calcolatori potrà essere utilizzato solo in casi strettamente delimitati e definiti. Vi sono programmi per cal­ colatori che possono facilmente battermi a scacchi, così come vi sono ragni che sono assai più bravi di me nel tessere le loro tele, ma nell'un caso come nell'altro non si è ancora raggiunta un'approssimazione dell'intelligenza e ne siamo, anzi, ancora molto lontani. Mi si deve allora spiegare perché il calcolatore, piuttosto che il millepiedi, dovrebbe fornire "il" modello della psicologia. (e) Infine, la psicologia cognitiva usa estensivamente la no­ zione di "rappresentazione". La vaghezza di tale nozione è esattamente rispecchiata in quella del più tradizionale termi­ ne "idea": la cosa non deve sorprenderei, poiché le rappresen­ tazioni non sono altro che idee rivestite di una nuova, fiam­ mante terminologia. La chiarezza apparentemente maggiore della nozione di rappresentazione è tuttavia dovuta al fatto che il modello del calcolatore implicitamente limita la nostra attenzione alle rappresentazioni semantiche, enunciative o simboliche, connesse per mezzo di logiche più o meno esoti­ che. (Ciò naturalmente non fa che rinforzare il pregiudizio che porta a isolare gli aspetti cognitivi.) Al giorno d'oggi sono in molti ad attaccare il "paradigma enunciativo", e i ben noti esperimenti di Shepard e Metzler ( 1 97 1 ) sembrano suggerire l'ipotesi che almeno parte delle informazioni siano piuttosto conservate in forma iconica (ma questo punto è aspramente dibattuto: si veda ad esempio Block 1 98 1 , vol. 2, parte secon­ da). Tuttavia, senza voler sminuire queste argomentazioni, il semplice senso comune dovrebbe essere sufficiente per farci giungere alle stesse conclusioni dopo un attimo di riflessione sul caso degli animali o dei bambini allo stadio prelinguisti­ co. 8 Se si potesse stabilire che non vi è alcun'altra possibilità, allora vi sarebbero anche motivi teorici molto forti pet accet­ tare la natura controintuitiva del paradigma enunciativo, per quanto ciò ripugni al nostro senso comune. Abbiamo tuttavia ogni ragione per supporre che le alternative non manchino.

Computerofilia Un beneficio innegabile che ci è venuto dalla simulazione al calcolatore tradizionale è la quantità di conoscenze negati­ ve che essa ci ha fornito: abbiamo scoperto molto sul modo in 70

cui il cervello non funziona. Inoltre, la simulazione al calco­ latore ha portato in primo piano problemi che non sapevamo nemmeno di avere. Si consideri ad esempio il frame problem; finché non vi siamo inciampati non avevamo virtualmente al­ cuna idea sul modo in cui esso viene risolto da noi (o dai pic­ cioni, dalle rane, dai topi, dai gatti, nessuno dei quali sa gio­ care a filetto, per non parlare degli scacchi). Chi avrebbe mai immaginato che il riconoscimento di configurazioni o la coordinazione occhio-mano fossero così complicati ? Indub­ biamente vi è spazio per la simulazione tradizionale: la psico­ logia è o dovrebbe essere una chiesa accogliente. Sospetto, tuttavia, che entro breve in informatica l'atten­ zione e l'interesse (così come, forse più significativamente, i fondi del Consiglio delle ricerche) abbandoneranno le mac­ chine a elaborazione simbolica per migrare verso i meccani­ smi paralleli. È un processo che è già cominciato. Sarebbe avventato qui tentare di passare in rassegna il lavoro com­ piuto in questo campo: esso è in gran parte illustrato, e in modo accessibile, nell'ammirevole raccolta in due volumi a cura di Rumelhart e McClelland (1986). Siccome qui mi limi­ to a trattare dei modelli in psicologia, voglio concludere ten­ tando di mostrare come queste nuove simulazioni al calcola­ tore sembrino avere tutte le virtù che contraddistinguono un modello di valore, evitando al tempo stesso gli svantaggi del­ la strategia tradizionale. La prima, e secondo me anche la più significativa, di que­ ste virtù è la mancanza di qualsiasi tentazione di monopoliz­ zare il campo della psicologia: una tendenza cui la tradizio­ nale simulazione al calcolatore, come abbiamo visto, soccom­ be. Infatti, i modelli paralleli hanno limitazioni biologiche molto pesanti. Essi muovono dall'ipotesi che l'elaborazione delle informazioni sia svolta essenzialmente attraverso le in­ terazioni di un gran numero di unità semplici, e che la com­ putazione sia una questione di connessioni appropriate piut­ tosto che di trasmissione di informazioni simboliche. Si trat­ ta quindi di modelli "connessionistici": questi modelli sono "versioni semplificate e ridotte all'osso delle reti neurali rea­ li" (Rumelhart e McClelland 1 986, vol. 2, p. 388). Essi si inter­ connettono in modo essenziale con il lavoro compiuto nelle scienze neurologiche e in psicologia comparativa. Inoltre, supponendo che la conoscenza risieda nella forza delle con­ nessioni, tali modelli potranno rappresentare l'apprendimen­ to come un processo in cui alle varie connessioni vengono da­ te forze adeguate: così per la prima volta la simulazione al calcolatore può usare in modo diretto i risultati della psico­ logia dello sviluppo. 71

Un secondo motivo per cui questo tipo di ricerca non ha bi­ sogno di aspirare al monopolio nel proprio campo è che essa, in misura notevole, procede "dal basso verso l'alto" piuttosto che "dall'alto verso il basso". Rumelhart e McClelland dicono di essere in cerca della "microstruttura della cognizione", da cui poi la "macrostruttura" potrebbe essere inferita come in­ sieme di proprietà emergenti. Si trovano così ricerche condot­ te per studiare fenomeni come il movimento delle dita dei dat­ tilografi professionali, oppure ricerche come quelle di Marr e Poggio (1 976) sulla percezione della profondità in stereogram­ mi a punti casuali. Da tali studi è poi possibile congetturare o ipotizzare principi generali e regole di più ampia applicabilità da sottoporre quindi a verifica su attività diverse da quelle che hanno dato loro origine. Naturalmente, la ricerca sulla mente-cervello, sia essa con­ dotta dall'alto verso il basso, dal basso verso l'alto o dal cen­ tro verso gli estremi, è non solo possibile ma anche necessa­ ria. Uno dei vantaggi dello studiare la "microstruttura" della cognizione è la possibilità di accantonare (nella speranza di af­ frontarla in seguito) la questione di quale sia la migliore carat­ terizzazione delle competenze cognitive e sensorio-motorie. Come abbiamo visto, non è possibile isolare adeguatamente la percezione, né si può praticare un'escissione di quei fenomeni che vanno sotto il nome di "memoria", e trovare altri esempi è solo un gioco da ragazzi. Ma è invece possibile isolare il rileva­ mento del gradiente di trama (texture-gradient detection) o il modo in cui il bambino acquisisce i paradigmi verbali irrego­ lari. Non vi è più, tuttavia, alcuna ragione di preoccuparsi del­ la "realtà" del modello, chiedendosi se esso "realmente" rile­ va, vede, riconosce o comprende le forme verbali. È una que­ stione che non si pone nemmeno più: non stiamo più cercando un'Intelligenza Artificiale che sia "vera intelligenza", né ci os­ sessiona più la questione se "la stessa" capacità possa essere esemplificata da sistemi di tipo radicalmente differente. (E si può quindi anche evitare l'obiezione di Searle secondo cui i calcolatori non avrebbero "intenzionalità originaria": nessuno pretende che ce l'abbiano.) Il compito dei meccanismi paralle­ li è un altro. Proprio come, per parafrasare un esempio di Dennett ( 1 978), un modello di un uragano al calcolatore non è "realmente" bagnato né ventoso, così non c'è alcun bisogno che questi modelli imparino o riconoscano " realmente". 9 In­ dubbiamente, è sempre possibile chiedersi se questo sia il ca­ so, e la risposta varierà a seconda dell' "isolabilità" della capa­ cità di volta in volta in questione. Ma si tratta altresì di do­ mande dallo scarso interesse teorico, marginali rispetto alle ambizioni principali del progetto di ricerca. 72

Un ulteriore vantaggio è l'assenza di qualsiasi restrizione agli aspetti "puramente cognitivi". Gli studi sul controllo sen­ sorio-motorio si ritrovano in ogni progetto PDP d'avanguardia, sia che si tratti di esaminare il meccanismo d'orientamento della mosca comune, sia che ci si occupi del movimento delle dita di un dattilografo di professione. Si tratta di una caratteri­ stica analoga al fatto che le "rappresentazioni" citate in questi studi non sono né "enunciative" né "simboliche": in generale, ammesso che si possa caratterizzarle in qualche modo, esse so­ no piuttosto "sub-simboliche". "La competenza dei modelli può a volte essere espressa in questo quadro teorico per mezzo di regole simboliche, ma non si possono raggiungere le loro pre­ stazioni memorizzando le regole in forma esplicita e facendole passare attraverso un interprete simbolico" (Rumelhart e Mc­ Clelland 1986, vol. l , p. 262). Ed è proprio perché le informazio­ ni non sono memorizzate a "indirizzi" individuali, ma sono piuttosto "distribuite" ed espresse in funzione di forze connet­ tive modificabili fra unità singole, che i processi di modifica­ zione potrebbero aiutarci a venire a capo del frame problem. Infatti, come abbiamo visto, è invero possibile dare un modello di quella forma di apprendimento che non consiste nell'imma­ gazzinamento pezzo per pezzo di singoli dati conoscitivi. Generalmente parlando, i meccanismi paralleli operano un'inversione della strategia della simulazione tradizionale. Non è più questione di tentare di usare i calcolatori come indi­ zi del funzionamento della mente-cervello, quanto piuttosto di usare ciò che sappiamo sull'architettura del cervello per co­ struire macchine che isolino e simulino la "microstruttura co­ gnitiva" che il cervello si suppone abbia. Ciò ci dà calcolatori che fungono da veri modelli, e non sostituti fittizi per teorie fit­ tizie.

NOTE l Ma naturalmente le preoccupazioni di Cartesio erano in primo luogo epistemologiche. La caratterizzazione della mente necessaria per combattere lo scetticismo è una conseguenza, piuttosto che principio ispiratore, dell'epi· stemologia. 2 È chiaro che qui è impossibile tracciare una netta divisione: molti di co­ loro che lavorano con i sistemi esperti trovano utile considerare e utilizzare le teorie psicologiche sul modo in cui gli esseri umani svolgono le attività in que­ stione. D'altra parte, tutto ciò di cui la mia argomentazione ha bisogno è una distinzione approssimativa. J Non si può scusare questo fallimento adducendo la giovane età della ri­ cerca che fa uso di simulazioni al calcolatore. Diacronicamente, essa è ancora nel pieno dell'infanzia, ma sincronicamente ha l'età di Matusalemme. In que­ sto settore sono state certamente spese più ore-uomo di quante ne abbia richie-

73

ste tutto lo sviluppo della fisica prima di Einstein. A ciò si aggiungano i finan­ ziamenti imponenti che sono stati riversati nella disciplina, e la velocità con cui i ricercatori possono oggi giungere a conoscenza, e valutare, i risultati di colleghi al lavoro in qualsiasi parte del mondo: si vede allora che l'immaturità non può far perdonare il fallimento della simulazione al calcolatore tradizio­ nale. 4 L'alessia pura, una condizione rara ma ben documentata, non pregiudi­ ca le capacità dei pazienti a riconoscere praticamente tutto, tranne parole e/o lettere e colori. Gli alessici puri possono a volte legger-e i numeri, e possono dire che il cielo è blu, l'erba è verde, il sangue è rosso, ecc. Essi mantengono la propria acutezza ai colori, potendo accuratamente suddividere dei tasselli co­ lorati in pile dei diversi colori, ma non riescono assolutamente a leggere paro­ le e lettere, né a identificare il colore di un oggetto posto di fronte a loro. s Il cervello perde le proprie cellule in modo orribilmente veloce. Presu­ mibilmente il cervello di Anatole France non è sempre stato cosi piccolo come il suo peso finale di 1 200 grammi suggerirebbe. Ma nemmeno il cervello di By­ ron era immune alla perdita di cellule (un fenomeno che inizia molto presto, fra i dodici e i venti anni) e al momento della morte il suo cervello pesava 2400 grammi. Anche se Byron non è sempre stato due volte più "cerebrale" di Fran­ ce, nel corso della vita attiva di questi due geni il cervello del primo deve esse­ re stato notevolmente più grande di quello del secondo. 6 Si consideri ad esempio il lavoro compiuto da Rosch (1 973), che tende a suggerire che un qualche tipo di viso prototipico (maschile o femminile) sia fi­ sicamente incorporato nella struttura cerebrale. Oppure si rifletta sul fatto che i piccioni non hanno alcuna difficoltà a imparare a riconoscere figure di alberi o pesci, ma non possono essere addestrati a riconoscere figure di sedie o bottiglie del latte. 7 Per tenere in equilibrio un bastone sulla punta di un dito occorre mette­ re in atto essenzialmente gli stessi processi necessari a mantenere in posizio­ ne verticale un razzo durante la fase di lancio. Quest'ultimo problema richie­ de sfilze di calcolatori impegnati a risolvere sequenze di equazioni complesse, mentre il primo è facilmente risolto persino da un bambino dopo pochi minu­ ti di pratica. Questo stesso bambino potrebbe, dopo aver ascoltato le necessa­ rie istruzioni, suddividere una pila casuale di pezzi degli scacchi nel gruppo degli alfieri, dei cavalli, dei pedoni, ecc. Un calcolatore programmato per il gioco degli scacchi potrebbe facilmente sconfiggere il bambino, ma non risol­ vere questo problema, cosiddetto di bin-picking. 8 Boden (1984) porta la riproduzione di una deliziosa vignetta della serie Punch, in cui un martin pescatore su un ramo osserva un pesce d'acqua, con un fumetto proveniente dalla sua testa: peccato/peccato". Il delfino di Block, cui sopra si è accennato, illustra lo stesso tipo di tesi. 9 Ad esempio, le mie intuizioni mi suggeriscono che i calcolatori odierni "realmente" giochino a scacchi, ma mi riesce anche difficile accettare che essi "realmente" vogliono vincere. Alcuni concetti sono più olistici di altri, e non c'è alcuna risposta generale al problema se un dato fenomeno è "reale" o sol­ tanto "come se". " =

RIFERIMENTI BIBLIOGRAFICI Block, N. (a cura di) (1981 ), Readings in Philosophy of Psychology, vol. 2, Methuen, London. Block, N. (1 983), Mental Pictures and Cognitive Science, in "Philoso­ phical Review", 92, pp. 499-54 1 . 74

Boden, M. (1 983), Artificial Intelligence, in V.R. Harre e R. Lamb (a cura di), The Encyclopedic Dictionary of Psychology, Basil Black­ well, Oxford. Boden, M. (1 984), Animai Perception from an A rtificial lntelligence Viewpoint in C. Hookway (a cura di), Minds, Machines and Evolu­ tion, Cambridge University Press, Cambridge, pp. 153-174. Cartwright, N. (1 983), How the Laws of Physics Lie, Clarendon Press, Oxford. Clarke, A. (1 980), Psychological Models and Neural Mechanisms, Cla­ rendon Press, Oxford. Dennett, D. (1 978), Why You Can 't Make a Computer that Feels Pain, in "Synthese", 38. Geschwind, N. ( 1969), The Alexias, dapprima pubblicato da D.F. Ben­ ton e N. Geschwind in P.J. Vinken e G.W. Bruyn (a cura di), Hand­ book of Clinica/ Neurology, vol. 4, North Holland, Amsterdam 1969, pp. 1 1 2-140; ristampato quindi in N. Geschwind, Selected Papers on Language and the Brain, Boston Studies in the Philoso­ phy of Science, vol. 16, a cura di R.S. Cohen e M.W. Wartofsky, Reidel, Dordrecht 1 974. Kalke, W. ( 1 969), What is Wrong with Fodor's and Putnam 's Functio­ nalism, in "Nous", 3, pp. 83-93. Rosch, E. ( 1969), On the Internai Structure of Percep tual and Seman­ tic Categories, in T. Moore (a cura di), Cognitive Development and the Acquisition of Language, Academic Press, New York, pp. 1 1 1144. Rumelhart, D.E., McClelland, J.L. e il PDP Research Group (a cura di) ( 1 986), Parallel Distributed Processing: Explorations in the Micro­ structure of Cognition, voll. 1-2, The MIT Press: Bradford Books. Scheerer, E. ( 1 984), Motor Theories of Cognitive Structures: A Ristori­ ca/ Review, in W. Prinz e A.F. Saunders (a cura di), Cognition and Motor Processes, Berlin, pp. 77-98. Scheerer, E. (di prossima pubblicazione), Muscle Sense and Innerva­ tion Feelings: A Chapter in the History of Perception and Action,

in H. Heuer e A.F. Saunders (a cura di), lssues in Perception and

Action.

Shepard, R.N. e J. Metzler ( 197 1 ), Menta/ Rotation of Three-Dimensio­ nal Objects, in "Science", 1 7 1 , pp. 70 1 -703.

75

Rappresentare il significato lessicale di Diego Marconi

La rappresentazione del significato lessicale - cioè del significato delle singole parole - è notoriamente un proble­ ma, sia per la semantica, filosofica e linguistica, sia per l'In­ telligenza Artificiale. È stato sostenuto 1 che nessuna teoria semantica è completa (e anzi non merita neppure il nome di semantica) senza un qualche trattamento del significato les­ sicale. Non basta che una teoria semantica specifichi in che modo il significato di un'espressione complessa dipende dai significati dei suoi costituenti sintatticamente semplici (per esempio, in che modo il significato di un enunciato è deter­ minato dai significati delle parole che vi compaiono). Se non si specificano anche i significati dei costituenti, non possia­ mo sostenere seriamente di aver rappresentato il significato di un'espressione complessa. Che sia così è chiaro se conce­ piamo la semantica come descrizione della competenza se­ mantica: ciò che un parlante competente sa per il fatto di ca­ pire l'enunciato 'Il gatto è sul tappeto' è diverso da ciò che sa per il fatto di capire 'Il libro è sul tavolo', anche se i due enunciati hanno la stessa struttura. Ma ciò vale ugualmente, come ha sostenuto persuasivamente Johnson-Laird, 2 se assu­ miamo il punto di vista della semantica modellistica, che, si suppone, è interessata esclusivamente alla specificazione delle condizioni di verità degli enunciati. Perché non possia­ mo seriamente sostenere di aver specificato le condizioni di verità di 'Il gatto è sul tappeto' - vale a dire le condizioni in cui questo enunciato è vero - se non siamo in grado di di­ stinguerle da quelle di 'Il libro è sul tavolo', e solo un qual­ che trattam_ento del significato lessicale può esplicitare la differenza. E possibile che la semantica strutturale 3 - cioè la parte della teoria semantica che descrive gli effetti della 76

sintassi sul significato - sia la parte più stabile della seman­ tica, quella che descrive il "nocciolo comune" della compe­ tenza semantica, ma è difficile identificarla con l'intera se­ mantica. A questo punto, questo è così ovvio che quasi non c'è bi­ sogno di dimostrarlo: da tempo i filosofi del linguaggio e gli altri studiosi che si occupano di semantica sono consapevoli del problema. Il problema, tuttavia, è evidenziato in modo particolare dall'Intelligenza Artificiale: perché quando si de­ ve effettivamente costruire un sistema semanticamente com­ petente (per esempio un sistema che è in grado di rispondere a domande formulate in linguaggio naturale in base all'e­ splorazione di una scena, o un sistema che controlla un ro­ bot in risposta a comandi formulati in linguaggio naturale) non si può semplicemente supporre che il significato delle parole sia in qualche modo dato, come si faceva e si fa di so­ lito nella semantica formale; i significati delle parole devono essere effettivamente rappresentati, altrimenti il sistema non entrerà in contatto con la realtà "esterna" su cui si suppone debba operare. Ora, quando si tratta di rappresentare il significato lessi­ cale un problema è che non si sa dove fermarsi. Che cosa un parlante competente sa della parola 'gatto' ? Quale parte del­ la sua conoscenza è conoscenza semantica autentica - cono­ scenza relativa alla parola 'gatto' - e non conoscenza fattua­ le, conoscenza sui gatti? Ha senso una simile distinzione (che è poi la distinzione fra un dizionario e un'enciclopedia) ? For­ se sapere che 'gatto' è un nome comune e un termine di spe­ cie naturale costituisce conoscenza sicuramente non fattua­ le, mentre sapere che i gatti dell'Isola di Man non hanno la coda costituisce conoscenza sicuramente fattuale (anche se la prima informazione non sarebbe considerata da tutti di natura semantica); ma che dire della conoscenza che i gatti sono animali ? Saremmo disposti a riconoscere come seman­ ticamente competente un parlante che non sapesse che i gat­ ti sono animali ? Nella vita normale, probabilmente no: di uno così diremmo che non sa che cosa significa 'gatto', e non semplicemente che gli manca un'informazione fattuale im­ portante sui gatti. Eppure, diciamo che è un fatto che i gatti sono animali (e non piante), e abbiamo imparato dalla fanta­ scienza di Hilary Putnam che si tratta di un fatto contingen­ te: potrebbe anche venir fuori che i gatti sono in realtà robot telecomandati da Marte. 4 Sembra così difficile tracciare una linea di demarcazione fra le informazioni autenticamente semantiche e quelle fat­ tuali associate a una parola (come 'gatto'), che alcuni S hanno 77

sostenuto che tutto il significato lessicale dipende da infor­ mazioni fattuali. Quindi non tocca alla semantica occuparsi del significato lessicale, perché non si può chiedere alla teo­ ria semantica di incorporare un'intera enciclopedia. Un atteggiamento così radicale può andar bene per la se­ mantica filosofica, che è libera di identificarsi con la seman­ tica strutturale: ma certamente non funziona per le esigenze dell'lA. Chi lavora nell'lA deve affrontare senza mezzi termi­ ni il problema della rappresentazione del significato lessica­ le. Se la teoria semantica vuole essere pertinente per l'IA de­ ve dare un qualche spazio alla rappresentazione del signifi­ cato lessicale. Sarebbe tuttavia un errore concludere che quel che ci serve è la controparte lessicale della semantica strutturale: vale a dire una teoria che descriva la competenza semantica al livello lessicale nello stesso modo in cui la semantica strutturale (per esempio la grammatica di Montague) può es­ sere considerata una descrizione della competenza semanti­ ca al livello composizionale. Si può ritenere che tutti i par­ lanti competenti sappiano in che modo il significato di 'Gio­ vanni corre' dipende dai significati di 'Giovanni' e 'correre'; allo stesso modo, si può ritenere che tutti i parlanti compe­ tenti conoscano la parola 'oro'. Ma l'analogia finisce qui: per­ ché nel caso della competenza composizionale possiamo dire che, in quanto sanno in che modo il significato di 'Giovanni corre' dipende dai significati di 'Giovanni' e 'correre', tutti i parlanti condividono una stessa conoscenza, che può essere rappresentata da una regola composizionale. Invece, nel caso della competenza lessicale, non è affatto detto che ci sia una singola conoscenza determinata che è condivisa da tutti i parlanti di cui siamo pronti a dire che usano la parola 'oro' in maniera competente. E anche se c'è una collezione non vuota di informazioni condivise da tutti i parlanti competen­ ti che usano la parola 'oro', è probabile che essa sia troppo piccola e poco significativa per essere identificata con "il si­ gnificato di 'oro"': quando si tratta di parole, non è detto che l'intersezione di tutte le competenze semantiche sia a sua volta una competenza semantica. Da un certo punto di vista, al livello lessicale non esiste la competenza semantica: ci so­ no compe tenze semantiche, al plurale. Di conseguenza, quando cerchiamo di elaborare una teo­ ria del significato lessicale non dobbiamo concentrarci sul contenuto, vale a dire cercare di descrivere la competenza lessicale di un parlante idealizzato - la sua conoscenza del significato di tutte le parole di un lessico di una lingua natu­ rale come l'italiano o l'inglese. Faremmo invece meglio a 78

concentrarci sui requisiti che una descrizione utile di una competenza lessicale deve soddisfare, vale a dire sulla forma della competenza lessicale: che tipo di informazione rappre­ senta la competenza semantica di un parlante al livello lessi­ cale. Mi pare che due requisiti possano essere i seguenti. In primo luogo, un parlante competente ha accesso a una rete di connessioni tra item lessicali (parole). Sa che le rose sono fiori, che un corpo fisico può essere diviso in parti, che per raggiungere una destinazione ci si deve muovere. Questo è il tipo di informazioni che rende possibili i procedimenti infe­ renziali; e la capacità di compiere inferenze non logiche è si­ curamente parte di ciò in cui consiste la competenza lessica­ le. Se uno non sa che per mangiare, normalmente, si deve aprire la bocca diciamo che non sa che cosa significa man­ giare (voglio dire: è in casi e situazioni come queste che, tipi­ camente, usiamo il verbo 'significare'). Informazioni di que­ sto genere sono solitamente rappresentate mediante reti se­ mantiche, frames o regole di produzione (nella semantica formale, postulati di significato). Ma, oltre a questo, un par­ lante competente è anche capace di proiettare - "mappare" - item lessicali sul mondo, direttamente o indirettamente: sa distinguere i gatti dai cani, sa riconoscere un numero na­ turale quando ne vede scritto uno, è in grado di dire che una persona (o un animale) "corre" o invece "cammina". Questo aspetto della competenza lessicale è parzialmente indipen­ dente dal precedente: io posso conoscere la definizione bota­ nica di 'tarassaco' (dente di leone) ma non essere capace di riconoscerne uno quando lo vedo, o, più comunemente, vice­ versa. Questo aspetto della competenza semantica ha molto a che fare col successo del linguaggio come strumento adat­ tativo, come mezzo per la sopravvivenza nel mondo. In ulti­ ma analisi, è questo genere di capacità "proiettive" a dare un contenuto alla nozione di "condizioni di verità" : non possia­ mo dire che le condizioni di verità di un enunciato siano ve­ ramente determinate fintantoché le parole che vi compaiono sono soltanto connesse ad altre parole mediante postulati di significato o altri strumenti del genere. È grande merito di Johnson-Laird aver insistito più di chiunque altro sulla cru­ cialità di questo aspetto della competenza semantica. E in­ fatti i suoi modelli mentali sono un modo di rappresentare questo tipo di informazioni. In generale, sembra che ci sia bisogno di una qualche proiezione, diretta o indiretta, degli item lessicali sugli elementi di un altro sistema, che può es­ sere il "mondo reale" stesso, o più comunemente un sistema che lo rappresenta, come un sistema di percezione, naturale 79

o artificale; o anche un altro linguaggio, di cui sia già assicu­ rata la connessione con il dominio di oggetti del primo lin­ guaggio. Non vedo nessuna differenza di principio tra proiet­ tare le parole di una lingua naturale su pattern nel campo vi­ sivo di un robot o invece sulle espressioni di, mettiamo, un linguaggio d'interrogazione che ha accesso ai dati su cui stia­ mo ponendo domande in linguaggio naturale: non mi pare ci sia differenza fra una traduzione in un linguaggio davvero in­ terpretato e una proiezione su un sistema non linguistico che sia effettivamente rappresentativo. Johnson-Laird ha sostenuto 6 che se il secondo requisito è soddisfatto è automaticamente soddisfatto anche il primo: se riusciamo a proiettare il linguaggio su modelli mentali nel modo giusto, possiamo "leggere" le relazioni semantiche di­ rettamente dal modello, senza bisogno di definirle indipen­ dentemente. Possiamo comprendere meglio il problema for­ mulandolo nei termini della costruzione di un sistema che sia in grado di interpretare un frammento di linguaggio natura­ le. Mettiamo che il frammento contenga l'enunciato 'Le capre brucano i denti di leone', e che in corrispondenza di esso il si­ stema costruisca, nello stile di Johnson-Laird, un modello in cui alcuni oggetti rappresentano le capre, e altri i denti di leo­ ne. Come fa il sistema a sapere che il successivo enunciato 'I fiori sono belli' va (in linea di massima) interpretato come ri­ ferimento ai denti di leone del modello, non alle capre, né ad altri oggetti ancora ? Per Johnson-Laird, l'informazione di cui il sistema ha bisogno (cioè l 'informazione che i denti di leone sono fiori) può essere in qualche modo ricavata dagli algorit­ mi che rappresentano certi oggetti del modello come denti di leone, e altri come càpre: questi algoritmi rappresenteranno i denti di leone (e non le capre) come fiori, cioè includeranno nella loro costruzione la combinazione di primitivi semantici che verrebbe costruita dall'algoritmo per 'fiore'. Ciò è senza dubbio concepibile. Tuttavia, a me pare che i fenomeni dell'uso del linguaggio mostrino che molti parlanti in molti casi, e quasi tutti i parlanti in alcuni casi non dispon­ gono di algoritmi così fatti. Non è per il fatto di essere in gra­ do di applicare correttamente una parola nella maggior parte dei casi, che si possiede una conoscenza esaustiva delle sue relazioni semantiche con le altre parole. Io posso saper rico­ noscere un tubo catodico pur senza saper nulla di questo tipo di oggetti; possono essermi diventati molto familiari i mana­ ti, senza che io nemmeno sappia che sono mammiferi. 7 Probabilmente questi due requi siti non esauriscono il di­ scorso sul significato lessicale, ma costituiscono un punto di v.ista utile da cui guardare a molte intuizioni filosofiche e lin80

guistiche sul significato lessicale, e a molto lavoro che si è fatto, nell'lA e altrove, per rappresentare il significato lessi­ cale. C'è un'ulteriore avvertimento che si deve tenere a men­ te (una specie di requisito su come soddisfare i due requisiti di cui s'è detto): le parole sembrano tutte uguali, ma - come ha fatto vedere Wittgenstein - in realtà non funzionano tut­ te allo stesso modo. Parole come 'cionondimeno ', 'tentare', 'trebbiare', 'oro' e 'zio' sono attrezzi molto diversi nella cas­ setta degli attrezzi del linguaggio. 8 Perciò non possiamo aspettarci che una stessa forma di rappresentazione funzioni ugualmente bene per tutte le parole. Questo si vede già al li­ vello delle relazioni semantiche tra le parole: a me pare che rappresentare la relazione fra 'ma' (o 'sebbene') e 'e' sia assai diverso da rappresentare la relazione fra 'mela' e 'frutto': perché la prima impresa richiede che si faccia riferimento a condizioni di appropriatezza (o qualcosa del genere), la se­ conda no. Ma la varietà del significato lessicale è ancora più evidente quando cerchiamo di soddisfare il secondo requisi­ to (quello "proiettivo"). È ovvio che certe parole sono meglio rappresentate da elementi, o insiemi di elementi in un mo­ dello, mentre altre sono meglio rappresentate da operazioni su modelli. Ma, come è stato notato da Johnson-Laird e al­ tri, 9 anche parole che superficialmente appartengono alla stessa categoria sintattica possono richiedere "proiezioni" diverse. I criteri che usiamo per identificare qualcosa nel mondo come uno zio sono assai diversi da quelli che usiamo per identificare qualcosa come una mela (o un uomo); e quando identifichiamo un comportamento come l'azione di picchiare non lo facciamo sulle stesse basi sulle quali descri­ viamo un comportamento come l'azione di consigliare. È sen­ sato supporre che queste differenze fra i criteri che usiamo per proiettare le parole sul mondo si rispecchino nelle no­ stre rappresentazioni del significato lessicale, quale che sia la forma di rappresentazione che preferiamo. Per questo le proposte di rappresentazione del significato lessicale che prevedono un medesimo formato per tutte le parole della stessa classe grammaticale sono spesso poco convincenti. Per esempio, è stato proposto 1 0 di rappresenta­ re il significato associando specificazioni strutturali e speci­ ficazioni funzionali. Per una parola come 'sedia', la sola defi­ nizione funzionale sarebbe insufficiente (per sedercisi sopra si possono usare molte cose che non sono sedie); d'altra par­ te, come è stato osservato anche da Johnson-Laird, 11 è diffi­ cile che un termine artefattuale (come appunto 'sedia') pos­ sa essere definito in termini puramente strutturali: le sedie non hanno una struttura "oggettiva" (la natura delle sedie 81

non è oggetto di ricerca scientifica; non si può scoprire che un oggetto è una sedia nel senso in cui si può scoprire che una pianta è una monocotiledone). D'altra parte, non si può fare a meno di una specificazione anche strutturale, come si vede ancor meglio se si pensa all'italiano 'sedia' (o al francese 'chaise') anziché all'inglese 'chair'. Le sedie sono un sottoinsieme proprio delle chairs: quale sottoinsieme, è determinato probabilmente da aspetti strutturali, non fun­ zionali. Non ci può essere una definizione puramente fun­ zionale di 'chaise' che distingue 'chaise ' da 'fauteuil'. Ma la coppia strutturale/funzionale non funziona altret­ tanto bene per tutte le parole, e neanche per tutti i nomi co­ muni. Per esempio, che dire dei nomi di specie naturale ? C'è una definizione funzionale di 'oro', o 'gatto', o 'limone'? A meno di avere forti inclinazioni teleologiche, non credo che ce ne siano. E d'altra parte, può esserci una definizione strutturale del verbo 'riuscire' ? o 'tentare' ? o 'credere' ? Non mi pare. Possiamo caratterizzare la classe di parole per cui lo sti­ le di rappresentazione di Minsky funziona bene? Grosso modo, mi pare che sia naturale dare una definizione strut­ turale di parole in relazione alle quali si può pensare a un esempio tipico (o, equivalentemente, a un insieme di valori di default, per tutte le proprietà rispetto a cui il significato è definito). Si può pensare a una tipica sedia, o a un gatto tipico; ma non c'è niente che sia un tipico atto di riuscire, o di credere. Analogamente, possiamo forse dare una defini­ zione funzionale di parole in relazione alle quali possiamo pensare a una funzione tipica, vale a dire possiamo pensare a un fine tale che la parola in questione si riferisce a un mezzo tipico rivolto a quel fine. Ci sono quindi verbi che ammettono sia una definizione strutturale che una defini­ zione funzionale, come 'calafatare' o 'trebbiare', verbi che ammettono solo una definizione funzionale, come 'dedurre' o 'giocare', e verbi che non ammettono né l'una né l'altra, come 'credere' e 'riuscire'. Tutto questo è molto provviso­ rio, e vengono subito in mente dei controesempi. Per esem­ pio, si potrebbe sostenere che nel nostro mondo l'oro è tipi­ camente connesso con il fine di acquisire beni (o forse di in­ corporare un valore di scambio), sicché dovrebbe avere una definizione funzionale; e tuttavia pare fuori luogo dare una definizione funzionale di una parola che denota un mine­ rale. Si tratta chiaramente di problemi che attendono ancora una sistemazione teorica soddisfacente. Essa verrà, io cre­ do, più da un'analisi a largo raggio di molti settori del lessi82

co che da un'elaborazione puramente teorica delle proposte esistenti.

NoTE t

Bonomi (1983), p. 1 68; vedi anche Partee (1 980).

2 Johnson-Laird (1983), pp. 232 e 259. 3 L'espressione 'semantica strutturale' (structural semantìcs) è stata in-

trodotta da B. Partee ( 1980, pp. 6 1 -62). 4 Il riferimento, ovvio, è a Putnam (1 970), p. 143. 5 Per esempio Thomason 1974, p. 48. 6 Johnson-Laird (1 983), pp. 1 8 1 e 259. 7 Devo l'attuale formulazione della critica a Johnson-Laird (come quella che si trova in D. Marconi, Two aspects of lexical competence, in "Lingua e Stile", 1987) alle discussioni con G.A. Antonelli (cfr. la sua tesi di laurea Teo­ rie semantiche rappresentaz.ionali, Torino 1985). Non sono però sicuro che egli condividerebbe la critica, anche in questa formulazione. 8 Wittgenstein ( 1953), 1 1 . 9 Johnson-Laird (1983), p . 195. S i può anche far riferimento agli scritti di Putnam sui nomi di specie naturale, per esempio Putnam ( 1 975). IO Da M. Minsky in questo stesso volume, pp. 253-259. Il Johnson-Laird (1 983), p. 196.

RIFERIMENTI BIBLIOGRAFICI Bonomi, A. (1983), Linguistica e logica, in C. Segre (a cura di), Intor­ no alla linguistica, Feltrinelli, Milano. Johnson-Laird, P. ( 1 983), Mental Models, Cambridge, Cambridge University Press (trad. it. l modelli mentali, Il Mulino, Bologna). Partee, B. (1 980), Montague Grammar, Mental Representations and Reality, in Oehman e Kanger (a cura di), Philosophy and Gram­ mar, Reidel, Dordrecht. Putnam, H. (1 970), ls Semantics Possible?, ora in Philosophical Pa­ pe rs, vol. 2, Cambridge University Press, Cambridge 1 975 (trad. it. in Scritti filosofici, Adelphi, Milano 1 987). Putnam, H. (1 975), The Meaning of Meaning, ora in Philosophical Papers, cit. vol. 2 (trad. it. in Scritti filosofici, cit.). Thomason, R. (1974), lntroduction, in Formai Philosophy, Selected Pape rs of Richard Montague, Yale University Press, New Haven and London. Wittgenstein, L. ( 1 953), Philosophische Untersuchungen, Suhrkamp, Frankfurt 1 969 (trad. it. Ricerche filosofiche, Einaudi, Torino 1 983).

83

Mente e matematica di Gabriele Lolli

L'accostamento di mente e matematica nel titolo ha la funzione di esortazione; lo scopo è quello di spezzare una lancia perché si presti una maggiore attenzione all'attività matematica nello studio della mente, sia essa intesa come mente umana sia invece l'obiettivo dell'Intelligenza Artificia­ le. È vero che la matematica è menzionata in tutti i convegni dedicati all'argomento, e puntualmente lo è in questo, nel ti­ tolo dei lavori della prima giornata, ma nella forma appunto delle computazioni; e le computazioni non esauriscono la matematica, ma ne rappresentano una piccola parte, una propaggine sia pure fondamentale (forse anche come sosten­ gono alcuni la sua ragione d'essere ultima, 1 che però non ne rivela la forma tipica di pensiero). Le computazioni sono la parte della matematica affidabile alle macchine, ma se ci si ferma ad esse si resta impegolati in un mondo wittgenstei­ niano di regole e tecniche isolate, non comunicanti, che si pos sono solo usare ma di cui non si può neanche dire cosa fanno e perché lo fanno. L'Intelligenza Artificiale, nel suo pendolare tra algoritmi e neurofisiologia, risente ancora og­ gi del paradigma wittgensteiniano, a giudicare da come i suoi grandi dibattiti continuano a ruotare intorno al gioco dell'imitazione, con una ricezione riduttiva del test di Tu­ ring. 2 Gli psicologi per parte loro quando parlano dell'attività matematica si basano sulle poche e scarne autoanalisi di al­ cuni matematici, 3 dove troppo facilmente si finisce per fare appello al lavorio dell'inconscio; in nessun caso ci si assesta sull'unico livello che potrebbe dare delle informazioni par­ ziali ma ben vagliate, che è il livello dell'analisi logica. Un li­ vello che era invece ad esempio ben presente nella riflessio84

ne di Turing il quale, all'interno del suo obiettivo di costruire un cervello logico introduceva tutti gli aspetti della fenome­ nologia matematica, dall'intuizione all'interazione tra teoria e metateoria nell'attività dimostrativa, al carattere sperimen­ tale della formazione della matematica infinitistica; li intro­ duceva nel senso di indagarli con gli strumenti anche più raf­ finati della logica matematica (logiche ordinali, teorie dei ti­ pi) per organizzare il materiale necessario per la costruzione di un modello logico della mente. 4 Bisogna ammettere che logici e filosofi della matemati­ ca non danno un grande aiuto a psicologi e ricercatori di Intelligenza Artificiale, quasi avessero finito loro stessi per lasciarsi convincere dello scarso interesse delle loro cono­ scenze. Questa ritrosia o incapacità culturale finisce poi per soffocare la loro stessa riflessione e consegnare ad al­ tre discipline, ad altri settori, delle ricerche che dovrebbe­ ro invece radicarsi nella matematica. Si pensi ad esempio alle migliaia di pagine scritte sull'attività simbolica con scarso o nullo riferimento al luogo principe di questa atti­ vità, la matematica, e scavando invece nel mito o nella lin­ guistica. Sembra che nessuno abbia riflettuto sul significa­ to del fatto che nella parte della matematica dove si stu­ dia, e non si usa soltanto, la manipolazione simbolica, la logica matematica, i simboli sono oggetti matematici, con tutto quello che ciò comporta sulla loro astrattezza e mol­ teplicità di rappresentazioni. Bochner cita Cassirer, Filoso­ fia delle forme simboliche ( 1 953-57) e A.N. Whitehead, Sym­ bolism. Its Meaning and Effect (1928)5 come esempi clamo­ rosi, in quanto unici, di una minima attenzione alla mate­ matica. L'impressione è penosa, è come parlare del cielo senza sapere cosa fanno gli astronomi. E quando queste ri­ cerche ritornano alla matematica ne danno una immagine deformata. I matematici non si riconoscerebbero certo nella pura at­ tività computazionale. Qual è allora la caratteristica fonda­ mentale della matematica come è svolta oggi ? Forse non è neppure quella delle dimostrazioni rigorose (anche se da un certo punto di vista è così, ma i matematici hanno qualche riserva) proprio perché le dimostrazioni assomigliano troppo alle computazioni, almeno quando vengono scritte. La carat­ teristica fondamentale è quella dell'astrazione. Dal secolo scorso è incominciato a proliferare un mondo di strutture e 85

di nozioni astratte, che sono parte integrante del discorso matematico, anche nelle sue applicazioni. Per rendersene conto basta considerare il contributo di T. Poggio in questo libro. Gli algoritmi efficienti per il pro­ blema della visione derivano da uno studio del problema (della ricostruzione dell'immagine tridimensionale a partire da immagini bidimensionali) impostato come un tipico pro­ blema non ben posto, nel senso tecnico di Hadamard; e le soluzioni discendono dalla trattazione variazionale6 del pro­ blema, secondo la tecnica della regolarizzazione. Naturalmente in una certa misura il processo di astra­ zione è sempre stato essenziale alla matematica, ma ad esempio i greci, per dirla con Bochner, non si sono mai sol­ levati dalla semplice idealizzazione della realtà al processo "di astrazione dalle astrazioni", che si è innescato a partire dall'Ottocento. Questa fioritura di strutture sempre più complicate e astratte ha una sua funzione nel quadro della generale attività esplicativa delle scienze. Yu. Manin ha re­ centemente illustrato il ruolo essenziale che i concetti più esoterici della matematica moderna giocano nella formazio­ ne della spiegazione in fisica: 7 spazi di Hilbert, geometrie intrinseche, traslazioni per parallelismo, connessioni, di­ mensioni infinite, solitoni, e via patologizzando. Sono nozio­ ni della matematica infinitistica, ma anche i tasselli delle teorie fisiche fondamentali. "Sono queste le astrazioni che le scienze chiedono alla matematica, molto più che non le tec­ niche matematiche in sé." 8 Secondo Manin le nozioni astratte, come oggetto tipico della matematica, nella loro definizione insiemistica, gioca­ no il ruolo di immagini-ponte tra la realtà concreta delle formule, di cui rappresentano il mondo dei significati, e quella della fisica. La spiegazione fisica consiste nel co­ struire e nel proporre un'immagine del mondo intessuta di queste nozioni. Per giustificarne la produzione e l'efficacia, Manin suggerisce, in via ipotetica, ma con l'aria di creder­ ci, che formule e idee siano il prodotto separato delle due parti del cervello diviso. Questa ipotesi sembra proprio but­ tata lì, indipendentemente dalla sua plausibilità. C'è una bella differenza tra le immagini e le nozioni insiemistiche che ci sembra che evochino delle immagini. Accontentarsi di attribuire il momento computazionale e il momento, di­ ciamo così, immaginifico della matematica alle due parti del cervello diviso significa illudersi di avere una spiegazio­ ne completa e precludersi l'ulteriore analisi dell'interazione tra queste due componenti della matematica, oppure affi­ darla ad altri. 86

Il dualismo tra formule e immagini è ben presente all'at­ tenzione dei matematici, talvolta in terminologia diversa; ad esempio compare spesso nella forma del dualismo tra di­ screto e continuo. 9 Ma una netta separazione, addirittura fi­ siologica, per quanto magari sia giusta, distoglie dal coglie­ re le varie relazioni che si instaurano tra questi due momen­ ti dell'attività matematica, relazioni anch'esse presenti, sia pure in modo più vago, alla sensibilità dei matematici. Così Bochner rileva come nel processo di astrazione è fondamentale la "possibilità di adattare e reinterpretare certe proprietà operazionali da un livello a quello superio­ re", 10 perché "le astrazioni senza corrispondenti operazioni sono prive di senso dal punto di vista matematico". È un luogo comune che certi tipi di astrazione, come quello degli spazi n-dimensionali, sono suggeriti e quasi imposti dal for­ malismo delle coordinate cartesiane. Ma anche le costruzio­ ni astratte dell'Ottocento possono essere viste come escre­ scenze di formalismi, di cui sono in effetti i modelli: 11 "mol­ ta matematica è concentrata e messa in orbita da formule di peculiare peso specifico". 1 2 Contrariamente a quanto si pensa, da parte di coloro che vogliono affidarsi ad altri interpreti, o a imprecisate facoltà intuitive, il fenomeno ha una natura prettamente logica, ed è indagato come è naturale dalla logica matematica. O alme­ no si può dire che tra i risultati della logica matematica ce ne sono parecchi che sono rilevanti a questo proposito, a co­ minciare dal teorema di Godel. Ci scusiamo di finire a par­ lare di Godel, ma non si tratta della solita querelle sull'uo­ mo e la macchina; come sopra detto per il test di Turing, è ora di liberarsi di vecchi stereotipi e approfondire i fonda­ menti. Vogliamo solo illustrare con un esempio come la lo­ gica sia il luogo dell'analisi di tutto ciò che è rilevante nel pensiero matematico, e questo teorema è una fonte inesauri­ bile di ispirazione. Il teorema di Godel è presentato di solito come la sepol­ tura del programma di Hilbert, e in quanto tale come la di­ mostrazione della irriducibilità delle nozioni astratte ai for­ malismi. Per quanto questo sia vero, non ha nulla di dram­ matico, se non per chi persegue una tale riduzione; curioso era, se si vuole, il programma di Hilbert, che col senno di poi appare una mossa difensiva (residuo positivistico ?) in­ coerente con la visione vincente che Hilbert stesso aveva contribuito a diffondere: 1 3 quella di un doppio movimento nella matematica, da una parte verso la dimostrazione di 87

nuovi teoremi, dall'altra verso la formulazione di nuovi as­ siomi di carattere più generale, astratto e comprensivo, di nuove Beweisgrunden. Ora sappiamo che l'infinito, cioè l'astratto, non è perfet­ tamente controllabile dal basso, dal concreto-formale. Ma lo sappiamo attraverso una dimostrazione che ci offre gli stru­ menti per cominciare a capire come si realizza la Tieferle­ gung dei fondamenti di cui parlava Hilbert, come si manife­ sta la produzione delle idee astratte a partire dai formalismi concreti. Nel commento di Godei stesso, il suo teorema pro­ va che "la contemplazione propria dei formalismi dà origine a nuovi assiomi che sono altrettanto evidenti e giustificati di quelli da cui siamo partiti"Y Gli assiomi delle teorie non sono solo derivati, come si pensa usualmente, da una analisi informale di nozioni intuitive e preesistenti, in un flusso unidirezionale dalle idee agli assiomi, perché assiomi e teo­ remi reagiscono creativamente sulle idee. L'idea della inuti­ lità della formalizzazione è obsoleta. La contemplazione di cui parla Godei non va intesa in senso mistico, ma come produzione effettiva, dal formali­ smo, di quelle che si chiamano nozioni astratte: la dimostra­ zione del teorema poi ci illumina sulla necessità e sul ruolo delle nozioni astratte. La situazione è ben nota: c'è una for­ mula A(x) tale che tutti i casi particolari A(n) sono dimostra­ bili in una teoria che può essere, per fissare le idee, l'arit­ metica di Peano PA, n variabile sui numerali della teoria, cioè sui termini che sono stati scelti per denotare i numeri. Invece la chiusura universale (vx) A(x) non è dimostrabile in PA, mentre è vera, o così si dice. Ma non è che la nozione di verità, come tipica nozione di ordine superiore, oppure l'i­ dea del modello naturale, siano il prodotto di una facoltà mistica che trascende le limitazioni del formalismo. Di fatto quello che si verifica è che la chiusura universale è dimo­ strabile nella metateoria; questa è normalmente lasciata in uno stato informale, ma può essere precisata e formalizzata; di solito la si precisa in una metateoria semantica, perché più vicina all'atteggiamento intuitivo. Comunque il motivo intuitivo per cui la metateoria riesce a dimostrare la formu­ la di Godei non è magico, ma consiste nel fatto già stabilito che A(x) è dimostrabile in PA per tutti i numerali, che sono in corrispondenza biunivoca con i numeri della metateoria. La formula vale per tutti i numerali, ma i numerali sono de­ finiti sintatticamente, al momento della definizione formale del linguaggio, e sono appunto in corrispondenza biunivoca con i numeri di cui parla la metateoria, non con quelli di cui vuole parlare la teoria. 88

Un'analisi formale mostra che il punto critico sta nella impossibilità di garantire che i quantificatori universali del­ la teoria e della metateoria, rispettivamente nella formula e nell'affermazione della dimostrabilità della formula, varino sullo stesso insieme infinito; questo anche se si assume che teoria e metateoria coincidano, perché non si può escludere il riferimento a due modelli diversi. E infatti l'enunciato di Godei è dimostrabile anche senza fare appello a nozioni se­ mantiche, ma in una metateoria che contenga i principi di riflessione, che non esibiscono alcuna nozione astratta o se­ mantica. I principi di riflessione non sono altro però che un modo di esprimere, per certe formule, la coincidenza del campo di variabilità del quantificatore universale delle for­ mule e di quello dell'affermazione della loro dimostrabilità, cioè della teoria e della metateoria. Il fenomeno si può commentare dunque così: il confronto di due teorie, di cui una funge da metateoria rispetto all'al­ tra (e non si può fare a meno di usare una metateoria per­ ché si deve uscire dal sistema se si vogliono avere interpre­ tazioni, quindi significati), suggerisce l 'affermazione meta­ teorica che i due sistemi coincidono (parzialmente almeno) nel loro ambito di riferimento. La suggerisce per poter sfruttare il controllo sui modelli determinato dal fatto che questi dipendono dal linguaggio e il linguaggio è definito nella metateoria. Naturalmente quello che si guadagna è provvisorio perché poi il fenomeno si ripropone rispetto al­ la nuova assiomatizzazione. La prima e fondamentale nozione astratta, e inesauribile, è dunque quella del quantificatore universale su un dominio infinito; è il tentativo di estendere il controllo su di essa che spinge alla formulazione di nuovi assiomi. Si ritrovano qui legittimate diverse anticipazioni della riflessione logica e fondazionale, come anche diverse intuizioni spontanee sulla natura della verità matematica; 1 5 ma si ritrova anche il mo­ do privilegiato attraverso cui l'astratto si inserisce nella teo­ ria della calcolabilità, e nella Intelligenza Artificiale: l'affer­ mazione primaria di ordine superiore in questo campo è quella dell'identità estensionale di due funzioni numeriche, nozione di cui non si può fare a meno se si vuole parlare di (definizioni di) funzioni, di programmi, di cosa fanno e così via. Il luogo della matematica contemporanea dove si stanno sperimentando i vincoli e le potenzialità di tale situazione è quello della cosiddetta matematica non-standard. Essa è no89

ta al largo pubblico più che altro come una impostazione curiosa che riporta in onore l'analisi del Settecento. Questo avviene lavorando in strutture arricchite con elementi infi­ nitesimi e infiniti. Essa è un campo particolarmente astrat­ to e infinitistico dunque, anche negli strumenti che usa, ma il suo punto di partenza in realtà, il punto di partenza che poi permette l'introduzione di questi oggetti altamente infi­ nitistici, è il riconoscimento che l'impostazione corretta, po­ st-godeliana, del lavoro con le nozioni astratte è quello di la­ vorare sempre con una coppia di teorie. Una parte della me­ tateoria intuitiva viene ritagliata e identificata come una teoria esplicita allo stesso livello della teoria oggetto, e con­ tinua a svolgere il ruolo di metateoria pur coincidendo con la teoria proprio per creare la duplicazione. In termini semantici, si danno due modelli delle nozioni matematiche di base, i numeri ad esempio, e l'uno è standard rispetto al­ l'altro. Si instaura così un movimento back-and-forth che sfrutta positivamente la non coincidenza, insieme alla non esprimibilità della non coincidenza, tra i relativi domini. Il principio del transfer che afferma che le due strutture han­ no la stessa teoria, nel linguaggio originale, ne è l'utile con­ seguenza. I matematici ci hanno messo alcuni anni, ma alla fine hanno incominciato a capire che bisogna imparare a vivere con la bomba, e ad amarla: le nozioni astratte sono necessa­ rie per l'espressione di affermazioni generali (anzi sono le affermazioni generali); esse sono inevitabilmente relative; al­ lora la soluzione corretta è quella di rendere esplicita e non nascondere questa relatività, esibendola nell'accostamento di due teorie; i formalismi sono dunque definiti come coppie di teoria e metateoria, con la seconda che fissa provvisoria­ mente sia la sintassi che un modello di riferimento per la teoria. Una simile lezione dovrebbe essere utile anche nell'Intel­ ligenza Artificiale, una volta individuati i punti su cui fare leva. Si veda ad esempio il saggio di D. Parisi in questo vo­ lume e il suo discorso sulla formalizzazione dell'autoco­ scienza, sulle frasi che cominciano con "io"; quelle veramen­ te significative, da parte di una macchina, come pure del­ l'uomo, sarebbero quelle in cui la macchina dice "io sono capace di svolgere questo compito", di fare le moltiplicazio­ ni per esempio; ma questa coscienza di possedere una rego­ la e di saperla usare nasconde un'affermazione universale, e come abbiamo visto comporta uno sdoppiamento tra teoria e metateoria, con il fenomeno della incompletezza. E il teore­ ma di Godei implica tra l'altro che il possesso della regola è 90

compatibile con il fatto che io, per certi numeri, la regola non sono in grado di applicarla. 1 6 Non è detto che gli stessi sviluppi debbano essere perse­ guiti nella matematica pura e nell'informatica, ma almeno un travaso di informazioni e stimoli è auspicabile. L'arricchi­ mento dei linguaggi con un predicato metateorico di dimo­ strabilità, al fine di sfruttare la maggior efficienza delle di­ mostrazioni metateoriche è ad esempio una possibilità inda­ gata oggi seriamente nella programmazione logica.

NoTE I R. Feynman ha detto che lo scopo della fisica è sempre quello di arri­ vare a un numero, proprio uno di quelli con virgola e decimali; ma anche questo è discutibile, e riduttivo. Nell'attività di spiegazione teorica ci si atte­ sta su altri livelli, come vedremo oltre. 2 Si veda come esempio il duello ariostesco tra Dennett e Searle di cui alcuni più recenti rounds sono: il saggio di Dennett in questo volume; J.R. Searle, Minds, Brains and Programs, in "The Behavioral and Brain Scien­ ces", 3, Cambridge Univ. Press, Cambridge 1980, ristampato in D.R. Hof­ stadter, D.C. Dennett (a cura di), The Mind's l, Basic Books, New York 198 1 , pp. 353-373 (trad. it . L 'io della mente, Adelphi, Milano 1 985) quest'ultimo vo­ lume e la recensione di Searle in "New York Review of Books", 29 aprile, 1 982, pp. 3-6. 3 Quasi sempre J. Hadamard, The Psychology of lnvention in the Mathe­ matical Field, Princeton Univ. Press, Cambridge 1945 (Dover, New York 1 954). 4 Si veda G. Lolli, Alan M. Turing, in R. Simili (a cura di), L 'epistemolo­ gia di Cambridge 1850-1 950, Il Mulino, Bologna 1 987, pp. 357-369 (Atti del Convegno di Bologna, 30 maggio-l giugno 1985). 5 S. Bochner, The Role of Mathematics in the Rise of Science, Princeton Univ. Press, Princeton 1 966, pp. 14-15). Cita ancora da un libro di H. Frank­ furt sul mito un'osservazione che potrebbe venire direttamente dall'analisi della natura dei simboli in matematica: "c'è una coalescenza del simbolo e di ciò che significa, come c'è una coalescenza di due oggetti confrontati in mo­ do tale che l'uno può stare per l'altro". 6 Il che significa che si cercano estremi di funzionali in spazi di funzioni. 7 Yu. l. Manin, Mathematics and Physics, Birkaiiser, Boston-Basel 198 1 . 8 S . Bochner, op. cit., p . 58. 9 Si veda ad esempio W. Kuyk, Complementarity in Mathematics, Reidel, Dordrecht 1 977, o anche B. Segre, Il contrasto tra continuo e discontinuo e la geometria algebrica, in Atti del Co nvegno di Studi Metodologici (1952), Tay­ lor, Torino, 1 954, pp. 232-237. I O S. Bochner, op. cit., p. 55. II Questo processo si può seguire su una miriade di esempi, dai più sem­ plici ai più complessi, dalla nozione di coppia alla teoria delle quantità co­ niugate di Hamilton alle serie infinite; si veda G. Lolli, La matematica: i lin­ guaggi e gli oggetti, in C. Mangione (a cura di), Scienza e filosofia. Saggi in onore di L. Geymonat, Garzanti, Milano 1985. 12 Si pensi agli spazi di Hilbert e alla formula di Pitagora da cui proven­ gono; l'osservazione, non svolta ma che ben si adatta al presente discorso, è ancora di Bochner, op. cit., p. 257.

91

Il Si veda M. V. Abrusci, 'Proof', 'Theo ry ' and 'Foundations ' in Hilbert's mathematical work from 1885 to 1900, in M.L. Dalla Chiara (a cura di), ltalian Studies in the Philosophy of Science, Reidel, Dordrecht 1 980, pp. 453-49 1. 1 4 K. Godei, Remarks before the Princeton Bicentennial Confe rence o n Problems in Mathematics 1946, ristampato in M. Davis (a cura di), The Undeci­ dable, The Raven Press, Hewlett, New York 1965, pp. 84-88.

1 5 "La nozione di verità (della maggior parte) delle affermazioni matema­ tiche si basa sulla capacità di immaginare una serie infinita di prove", osserva ad esempio Manin, op. ci t., p. 3 . 16 S i accenna qui alle versioni finite della incompletezza messe in luce da G. Chaitin.

92

Linguaggio mentalistico e modelli computazionali della mente di Roberto Cordeschi

Ha osservato Marvin Minsky che un'alternativa storica­ mente plausibile alla concezione comportamentistica della mente è stata quella di "trovare utili interpretazioni mecca­ nicistiche di quelle nozioni mentalistiche che hanno un'effet­ tiva importanza", come significato, scopo, scelta, ecc. Tale al­ ternativa si è realizzata, "in una forma più elementare" pri­ ma e "in una forma progredita" poi, con l'avvento, rispettiva­ mente, della cibernetica e dell'lA (Intelligenza Artificiale). A queste due discipline si può far risalire il tentativo più re­ cente e riuscito di "usare il linguaggio mentalistico come co­ struttivo e potente strumento per descrivere le macchine". All'lA, in particolare, si deve la dimostrazione che almeno certe descrizioni mentalistiche dei processi del pensiero tro­ vano una specificazione operazionale nelle procedure com­ putazionali di certi programmi per calcolatore. Concludeva Minsky: È un'ironia che queste idee discendano più dalle tendenze "idea­ listiche" del pensiero metafisica e psicologico che non da quelle "meccanicistiche" ! Infatti, la tradizione meccanicistica è stata fatalmente dominata dallo stock fortemente limitato delle im­ magini cinematiche disponibili, e non ha prodotto modelli in grado di elaborare l'informazione in modo adeguato. Gli ideali­ sti sono stati meglio attrezzati (e più audacemente disposti) a considerare strutture e interazioni astratte più sofisticate, pur non disponendo di una base meccanica su cui fondarle. (Minsky, 1 968, p. 2)

Abbiamo riportato per intero questo giudizio di Minsky perché ci sembra che esso esprima con penetrante esattezza le ragioni dell'apparente paradossalità - o ironia - della re93

cente "riumanizzazione" (il termine, come vedremo, è di Mar­ garet Boden) della scienza della mente proprio attraverso le macchine, con la conseguente costruzione di un nuovo voca­ bolario teorico della psicologia, quello basato sui processi di elaborazione dell'informazione. Ciò ha permesso di tornare ad assegnare alla psicologia un nuovo livello di ricerca rela­ tivamente autonomo dalla neurofisiologia, ma in un modo si­ gnificativamente diverso dal comportamentismo criticato da Minsky. Schematizzando alquanto, secondo il comportamen­ tismo radicale la psicologia è autonoma, ineliminabile e irri­ ducibile (se non in linea di principio) alla neurofisiologia, perché scienza del comportamento, sviluppabile al livello molare. Secondo il punto di vista della psicologia che si ispi­ ra all'lA, o meno genericamente della cosiddetta scienza co­ gnitiva, la psicologia è, sì, autonoma, ineliminabile e irridu­ cibile (se non in linea di principio) alla neurofisiologia, ma in quanto scienza dei processi mentali, collocabile allo specifi­ co livello dell'elaborazione dell'informazione, livello interme­ dio tra quello (molare) del comportamento manifesto e quel­ lo (molecolare) della neurofisiologia. In questo senso il lin­ guaggio mentalistico usato dalla psicologia, nella misura in cui risulta garantito da modelli computazionali di processi mentali, non è eliminabile dall'attuale impresa scientifica degli psicologi e, in generale, dei filosofi della mente. 1 La preoccupazione di distinguere una pluralità di livelli (e di lasciare così allo psicologo un suo posto al sole, per ri­ petere un'espressione di Tolman) spiega perché, ad esempio, Herbert Simon abbia parlato indifferentemente, in occasioni diverse, di "riduzionismo in linea di principio" e di "olismo pragmatico" e Margaret Boden abbia usato l'insolita espres­ sione "riduzionismo antiriduzionistico" per rivendicare la specifica autonomia della psicologia dagli schemi esplicativi e dal vocabolario teorico delle scienze fisiche e neurofisiolo­ giche. Questa ammissione di una pluralità di livelli, d'altra par­ te, mentre ha portato talvolta a ridefinire il rapporto tra psi­ cologia e neurofisiologia in analogia più o meno stretta con la canonica distinzione dei livelli in informatica (approssima­ tivamente, quello del software e quello dello hardware), ha anche posto il problema del carattere effettivamente esplica­ tivo, e non genericamente metaforico, del linguaggio menta­ listico-intenzionale impiegato nella scienza cognitiva e in fi­ losofia della mente. Quanto al primo punto ci limitiamo qui a osservare come vi sia stata (e sia tuttora in atto) un'evoluzione quasi-paralle­ la tra lo sviluppo delle tecniche di realizzazione dei modelli 94

meccanici della mente, nelle diverse "forme" ricordate da Minsky, e la riflessione dei filosofi della mente. In prima ap­ prossimazione, si può convenire che dopo l'egemonia di una filosofia della mente fisicalistico-riduzionistica (Feigl, Arm­ strong, Smart), ancora dominante all'epoca della cibernetica, è venuto via via prevalendo un orientamento funzionalista (Putnam, Fodor, Dennett, Pylyshyn), in particolare presso i ricercatori e i teorici della "forma più progredita" del mecca­ nicismo moderno, quella dell'lA e della scienza cognitiva. Più recentemente, a partire dagli anni ottanta, al recupero di al­ cuni temi della neurocibernetica (reti neuroniche, sistemi au­ torganizzanti) all'interno della stessa IA (sistemi connessioni­ stici e a parallelismo elevato) sembra far eco in filosofia del­ la mente una ripresa di alcuni temi del fisicalismo e un at­ tacco al funzionalismo stretto e alla legittimità scientifica della psicologia intenzionalista, nonché alla sua asserita au­ tonomia dalla neurofisiologia (Patricia Smith Churchland, ad esempio). Detto questo, va riconosciuto che è nell'ambito del pen­ siero funzionalista che si è riqualificato l'altro problema al quale ci siamo riferiti, che risulta centrale nella nostra di­ scussione: quello del carattere effettivamente esplicativo del linguaggio mentalistico-intenzionale. Come punto di partenza può essere utile richiamare una delle nozioni a cui più spesso si è fatto riferimento negli ulti­ mi anni tanto in filosofia della mente quanto in IA e in scien­ za cognitiva: la "posizione intenzionale" (intentional stance) di Daniel Dennett. In breve, essa consiste nel considerare un sistema (sia organico sia artificiale) come intenzionale, e dunque descrivibile con il linguaggio mentalistico, quando, assunta la razionalità del sistema, le sue azioni risultano in­ tenzionalmente prevedibili (Dennett, 1 978, p. 6). Come Dennett precisa, l'uso del linguaggio mentalistico nei confronti del sistema è in primo luogo un'opzione da par­ te dell'osservatore che interagisce con esso. In effetti, nella sua generalità questa tesi era stata sviluppata con la massi­ ma coerenza da Donald MacKay, che aveva già parlato di un "atteggiamento personale" (personal attitude) che l'osservato­ re o utente può assumere anche nei confronti di sistemi arti­ ficiali (o "artefatti") di vario genere (vedi MacKay, 1 962): da un'automobile (della quale posso dire che "non vuole parti­ re") a meccanismi come un termostato (che "ha lo scopo di mantenere la temperatura costante"), al calcolatore con il quale si gioca a scacchi (che "vuole battermi elaborando una data strategia"). Una tesi analoga era stata sostenuta da un punto di vista diverso anche da Hilary Putnam, per il quale 95

passare dall'uso del linguaggio della fisica a quello del lin­ guaggio mentalistico nei riguardi di artefatti come un robot "richiede non una scoperta, bensì una decisione" (Putnam, 1 964, p. 407). Putnam sollevava esplicitamente una questione sulla quale vorremmo insistere, e che per i nostri scopi potrem­ mo formulare in questi termini: c'è qualcosa del sistema (ar­ tificale, in questo caso) che giustifica la decisione dell'osser­ vatore di passare al livello della descrizione intenzionale ? Secondo Putnam, è la complessità dell' "organizzazione del comportamento" dell'artefatto con cui l'osservatore intera­ gisce a giocare il ruolo centrale nella sua decisione. Quando tale organizzazione non è complessa al punto da esibire un comportamento paragonabile a quello di un animale o di un essere umano, normalmente restiamo al livello di una sua descrizione fisica. Nel caso di una pianta possiamo ammet­ tere che è la sua "struttura" che ci fa decidere, ad esempio, se si tratta di un organismo o di una simulazione artificiale: "una pianta, tutto sommato, non esibisce un comportamen­ to", conclude Putnam. Egli, tuttavia, non elabora a sufficien­ za per il nostro problema la nozione di organizzazione del comportamento, che giustificherebbe l'attribuzione di inten­ zionalità. Occorre tornare a Dennett. Egli mantiene in sostanza l'assunto di MacKay: la relati­ vità all'osservatore della descrizione intenzionale. Per quan­ to riguarda le caratteristiche del sistema o dell'oggetto della descrizione (il problema che abbiamo sollevato rifacendoci a Putnam), la posizione di Dennett è quanto meno ambigua. A volte sembra che a rendere ineludibile per l'osservatore l'at­ tribuzione di intenzionalità al sistema è la sua complessità come sistema rappresentazionale. Un programma evoluto di lA è considerato da Dennett un sistema del genere. Altre volte, tuttavia, questa complessità non sembra conoscere un livello critico di effettività, sfumando in una serie di grada­ zioni che di fatto la rendono del tutto aspecifica. Ora, se cominciamo a richiedere al sistema una sua spe­ cifica complessità (quella rappresentazionale) per poter le­ gittimamente parlare di esso in "mentalese", abbiamo rico­ nosciuto che l'uso del linguaggio intenzionale non è solo un'opzione pragmatica dell'osservatore, ma riguarda deter­ minate proprietà del sistema stesso che non possono essere spiegate se non attraverso generalizzazioni esplicative me­ diante quel linguaggio - a quel livello. L'insistenza di Den­ nett sulla relatività all'osservatore dell'attribuzione di inten­ zionalità, viceversa, fa del livello intenzionale un livello as­ sumibile per puri scopi pragmatici, che dunque può essere 96

indifferentemente sempre eliminato o sempre mantenuto nei diversi casi. La mia definizione di sistema intenzionale - precisa Dennett non dice che i sistemi intenzionali hanno realmente credenze e desideri, ma che è possibile spiegarne e prevederne il comporta­ mento ascrivendo loro credenze e desideri, e chiamare ciò che si ascrive a un calcolatore credenze o analoghi di credenze o com­ plessi informazionali o inezie intenzionali non fa differenza per quanto riguarda la natura del calcolo fatto sulla base delle ascrizioni. Si arriva alle stesse previsioni sia che si pensi diret­ tamente in termini di credenze e desideri del calcolatore sia che si pensi in termini di informazione memorizzata e di specifica­ zione degli obiettivi del calcolatore. (Dennett, 1 978, p. 7)

Ma in questo modo è . inevitabile concludere che il lin­ guaggio intenzionale è una semplice façon de parler, e non occorre più invocare necessariamente la complessità del si­ stema per renderne ineludibile l'impiego a scopi autentica­ mente esplicativi. Di fatto, secondo Dennett, si possono de­ scrivere in termini intenzionali sistemi adattativi diversi: certo gli uomini, i calcolatori e gli animali superiori e dome­ stici (dico del mio calcolatore, non meno che del mio cane, che "ha deside ri"), ma anche (magari con qualche cautela in più) gli animali inferiori, le piante (dico della mia vite ameri­ cana che "cerca la luce"), i termostati e i fulmini (che "cerca­ no il percorso più breve": vedi Dennett, 1978, p. 272; 1983, p. 38 1). Insomma, possiamo adottare la posizione intenzionale quando la complessità del sistema rende irrealistici altri li­ velli di spiegazione e previsione delle sue prestazioni (Den­ nett, 1978, p. 240) e ... quando ci pare! L'ascrizione di inten­ zionalità, "euristica" e "pragmatica" qual è per definizione, si fa qui così "blanda" (il termine è di Dennett, 1 978, p. 272) da estendersi legittimamente a ogni sistema che sia sottoposto al principio di razionalità genericamente inteso come princi­ pio di adattamento. Certo non si può negare che Dennett sia conseguente quando conclude: "Naturalmente, se è vera (co­ me io credo che sia) una qualche versione del fisicalismo meccanicistico, non c'è mai necessità di ascrivere in senso assoluto intenzioni a niente" (Dennett, 1978, p. 273). Ma dopo quanto abbiamo detto, questo non è che l'altro lato della me­ daglia: se non dobbiamo ascrivere in senso assoluto intenzio­ ni a niente, ascriviamo pure pragmaticamente intenzioni a tutto. Queste considerazioni non sono dirette a rivendicare una improponibile (come giustamente rileva Dennett, 1 983, p. 382) "egemonia predittiva" assoluta della descrizione menta­ listico-intenzionale sulle altre possibili (quella fisica, ad 97

esempio). Il problema è se l' "egemonia predittiva" sia tale almeno relativamente a un livello di spiegazione individuabi­ le come reale e autonomo: in altri termini, se non sia interes­ sante una qualche interpretazione per così dire "forte" della posizione intenzionale di Dennett. Un suggerimento in questa direzione potrebbe venire dal­ la proposta di Allen Newell del livello della conoscenza, un livello di descrizione intenzionale di un sistema o agente ra­ zionale (sia organico sia artificiale) ipotizzabile sopra il livel­ lo dei simboli e il livello fisico: rispettivamente quello del programma e quello dello hardware nel caso di un sistema artificiale come un calcolatore. In quest'ultimo sistema il li­ vello intenzionale o della conoscenza è giustificato dall'esi­ stenza del livello immediatamente inferiore, quello dei sim­ boli o del programma. È a questo livello che si può pensare di ottenere le ininstanziazioni operative (i modelli) dell'attivi­ tà rappresentazionale del sistema. Una parte essenziale della proposta [del livello della conoscen­ za] è l'esistenza del secondo livello di approssimazione, cioè il livello dei simboli. Abbiamo ora i modelli del livello dei simbo­ li ... (Newell, 1 982, p. 1 1 1)

Se è giusta la nostra tesi, tra la posizione intenzionale e il livello della conoscenza ci sono meno analogie di quanto non suggerisca lo stesso Newell (1 982, pp. 1 22-1 23). Ad esempio, il livello della conoscenza è compromesso esplicitamente con una particolare ipotesi sulla complessità della capacità rap­ presentazionale del sistema (al livello dei simboli), cosa che Dennett sembra escludere (vedi Dennett, 1 983, p. 38 1). Tale specifica complessità individua dunque un "genere naturale" di sistemi nei confronti dei quali si può cominciare a esplo­ rare la necessità di una loro descrizione in linguaggio menta­ listico. 2 Insomma, la mente non è dappertutto, come teme si do­ vrebbe invece concludere John Searle, se non si riconoscesse che l'intenzionalità degli artefatti di ogni tipo e complessità (automobili, termostati, calcolatori, ecc.) è sempre e solo re­ lativa all'osservatore, mai "originaria" o "intrinseca" al siste­ ma (Searle, 1 980, p. 420). E non vale l'obiezione, sull'opposto versante, di John McCarthy, il quale, ritenendo di poter attri­ buire intenzionalità a meccanismi "semplici" come i termo­ stati, concludeva che la complessità di un sistema non costi­ tuisce di per sé una ragione primaria di attribuzione dell'in­ tenzionalità, dal momento che non si pensa di dare una de­ scrizione intenzionale di un sistema "complesso" come, po­ niamo, un'automobile. 3 In effetti, in quest'ultimo caso la 98

complessità neppure riguarda il livello dell'elaborazione del­ l'informazione, e nel caso di un termostato non lo riguarda come livello dei simboli nel senso di Newell. L'attribuzione di intenzionalità è nei due casi effettivamente una semplice opzione da parte dell'osservatore, e risulta puramente meta­ forica e pragmatica. Si pensi, ad esempio, alla classica descrizione intenziona­ le di un termostato, e la si confronti con quella di un sofisti­ cato sistema rappresentazionale di lA. Che cosa differenzia in primo luogo le due descrizioni? Almeno questo: posso ri­ fiutare o ritirare in qualsiasi momento la mia ascrizione di intenzionalità al primo sistema, scendendo al livello di una sua descrizione come meccanismo fisico, senza perdere con ciò nulla della comprensione e della previsione delle sue pre­ stazioni, mentre un'opzione negativa del genere nel caso del sistema citato mi porterebbe a scendere a livelli sempre me­ no esplicativi delle sue prestazioni, magari fino al livello del­ lo hardware: "acme della riduzione e della incomprensibili­ tà", secondo Simon ( 1 973, p. 26). Insomma, il livello di descrizione del sistema in termini mentalistici o intenzionali ha un suo specifico "primato esplicativo", per ricorrere alla terminologia di Wimsatt (1976, p. 242): esistono cioè previsioni e generalizzazioni esplicative a tale livello che non risultano direttamente for­ mulabili nel vocabolario del livello o dei livelli inferiori. Questo riconoscimento impone un'analisi approfondita delle relazioni tra i diversi livelli di spiegazione (e tra i sottolivelli in cui è possibile scomporre certi livelli); impone inoltre che si indaghi fino a che punto e in che senso è fondato richiede­ re, una volta riconosciuto il "primato esplicativo" del livello intenzionale, che i sistemi computazionali della dovuta com­ plessità posseggono un'attività intenzionale che non è sem­ plicemente derivata dall'osservatore e dunque mai "vera" o "reale" o " intrinseca". In definitiva occorre indagare se sia possibile per i modelli computazionali della mente "qualcosa

di più forte di una semantica derivata". Questa espressione è di Zenon Pylyshyn ( 1 984), al quale si deve l'analisi forse più impegnativa e coerente degli argo­ menti ricordati, in fondo tra i più caldi della scienza cogniti­ va e della filosofia della mente. Rifiutando di porre il proble­ ma nei termini della solita "metafora computazionale", 4 Pylyshyn accetta di misurarsi con le implicazioni di un' "e­ quivalenza forte" o "letterale", come egli la chiama, tra com­ putazione e cognizione, fino al punto di ritenere limitante e fuorviante anche la vecchia caratterizzazione della scienza cognitiva come "simulazione del comportamento" (Pylyshyn, 99

1 984, p. 43). Anche se non è possibile dare "condizioni neces­ sarie e sufficienti" per l'intenzionalità effettiva di un siste­ ma, l'ineliminabilità del livello intenzionale (il suo "primato esplicativo") resta garantita "se vanno perse generalizzazioni [esplicative] respingendo un vocabolario intenzionale che si riferisce a oggetti e proprietà rappresentati dal sistema, e se esistono restrizioni relative al suo comportamento che pos­ sono essere catturate solo mediante principi semantici quale quello di razionalità" (Pylyshyn, 1 984, p. 46). Un importante chiarimento di molti problemi posti da Newell (e dalla precedente scienza cognitiva) sul rapporto tra i principi esplicativi al livello intenzionale e le restrizioni al livello dei simboli viene dalla nozione di "architettura fun­ zionale" di Pylyshyn. Qui ci limitiamo a sottolineare come es­ sa stabilisca di fatto un ponte tra il livello del biologico e quello dell'intenzionale, riaprendo l'esame del rapporto tra scienza cognitiva e neuroscienze in un modo inedito per il funzionalismo, fornendo così un utile quadro concettuale per il chiarimento di alcune critiche neofisicalistiche alla spiegazione intenzionale, alle quali ci siamo riferiti all'ini­ zio. 5 Non possiamo neppure tentare in questa sede l'inventario dei problemi lasciati aperti e delle difficoltà sollevate dalla proposta di Pylyshyn nel suo complesso. 6 Se, tuttavia, si vuo­ le prendere sul serio un approccio meccanicistico (computa­ zionale) alla mente (o "una qualche versione del fisicalismo meccanicistico", nella ricordata espressione di Dennett) è difficile sottrarsi all'impegno di esplorarè le implicazioni di un'equivalenza "letterale" (non metaforica) tra cognizione e computazione, o, come abbiamo già scelto di dire, di una ver­ sione "forte" della posizione intenzionale di Dennett. Le con­ seguenze, d'altra parte, di una sua versione per così dire "de­ bole" per un verso appaiono, come abbiamo suggerito, filoso­ ficamente ambigue e riduttive, e per l'altro finiscono per ri­ sultare sorprendentemente paradossali in certe sue varianti giustificative della "metafora computazionale". Margaret Boden, ad esempio, ha dedicato analisi eccel len­ ti alla psicologia intenzionale e all'uso del linguaggio menta­ listico nella descrizione dei programmi di lA, sottolineando anche come solo questi ultimi, in quanto dotati di sistemi di rappresentazione complessi, possano considerarsi come mo­ delli computazionali di attività mentali, diversamente dai va­ ri meccanismi teleologici della cibernetica classica. E rispet­ to ai programmi di lA, la posizione intenzionale di Dennett è per lei ineludibile (Boden, 1 979, p. 3). Secondo la Boden, tut­ tavia, le caratteristiche salienti dell'intenzionalità "possono 100

essere attribuite agli artefatti solo in un senso secondario" o "derivato" (Boden, 1 977, pp. 425 e 42 1). Qualsiasi macchina attuale non è "veramente intenzionale o intelligente": tali ca­ ratteristiche (e altre più impegnative) sono ascrivibili alle macchine solo "in senso debole" (Boden, 1 984a, pp. 2 1 7-2 1 9). 7 Boden parla anzi di "metafora rappresentazionale" (il corsivo è suo) proprio per sottolineare il carattere "non letterale" dei modelli computazionali della mente (con, sembrerebbe, qual­ che concessione all'intenzionalità originaria di Searle: vedi Boden, 1 984b, pp. 1 3 1 - 1 32). Ora si notino alcune conseguenze che ci sembra seguano da questo insieme di tesi "deboli" a sostegno dei modelli computazionali. Ci riferiamo qui a un aspetto del problema in esame forse secondario, ma che la Boden sembra ritenere filosoficamente importante. Ella ha in più occasioni tentato di tranquillizzare gli psicologi e i pensatori "umanisti", "er­ meneutici", "intenzionalisti" (secondo le espressioni di volta in volta da lei impiegate) ribadendo che il meccanicismo, nel­ la sua "forma progredita" proposta dal paradigma dell'lA, non solo non implica la negazione della soggettività e non ri­ sulta essere "disumanizzante" (come tradizionalmente sostie­ ne l'umanista), ma dà luogo addirittura a una "riumanizza­ zione" della scienza della mente (essenzialmente, per via del­ l'ispirazione anticomportamentistica dei modelli computa­ zionali, cui abbiamo accennato all'inizio). Di conseguenza, la proposta dei sistemi rappresentazionali dell'lA "consente di recuperare la discussione della soggettività umana" ed "è in sintonia con le teorie umanistiche o ermeneutiche (interpre­ tative) della psicologia" (Boden, 1 984b, p. 1 3 1). Eppure, date le premesse "deboli" ricordate, sospettiamo che, al di là delle intenzioni della Boden, questa riappropriazione meccanici­ stica della mente finisca per risolversi in, per così dire, con­ solazioni per l'umanista. Il sospetto è motivato dal fatto che la Boden reclama con­ temporaneamente la necessità del linguaggio intenzionale per descrivere i modelli meccanici della mente proposti in generale dall'lA e l'insufficienza di questi ultimi per spiegare le "vere" caratteristiche della mente. La Boden dice, in so­ stanza, che il meccanicista vince un'importante scommessa con l'umanista: egli, cioè, riesce a dimostrare "nei dettagli", vale a dire "operativamente" (non "intuitivamente", come so­ lo può fare l'umanista), che la mente umana è estremamente complessa (si ricordi la complessità rappresentazionale dei modelli dell'lA). 8 Ora questa vittoria rischia di risultare al­ quanto paradossale per il meccanicista, giusta la tesi della Boden sul carattere metaforico, non "letterale", dell'intelli101

genza e dell'intenzionalità artificiali. Infatti, il meccanicista dimostrerà che il ricco linguaggio intenzionale, tradizional­ mente usato dall'umanista, è indispensabile per costruire il proprio modello di razionalità (l'analogia meccanica), ma do­ vrà riconoscere che tale linguaggio è insufficiente a descrive­ re l'asserito "vero" funzionamento della mente, una volta che esso sia usato attraverso le macchine (queste si mostrano pri­ ve di "vera" intelligenza e "vera" intenzionalità, nonostante siano descritte - e non potrebbero che essere descritte con il linguaggio intenzionale). Ma, allora, l'umanista potreb­ be sentirsi consolato: appurata la non pericolosità del model­ lo meccanico - che ai suoi occhi coincide ormai con la sua stessa metaforicità (riferita a "intelligenza", "intenzionalità", ecc. tra virgolette) - egli si sentirebbe autorizzato a tornare a usare il suo linguaggio intenzionale senza le macchine (sen­ za usarlo attraverso le macchine), per tentare di cogliere al­ trimenti quella complessità della mente (la "vera" complessi­ tà della mente) che il meccanicista gli ha - operativamente (cioè con le macchine) - dimostrato esistente e non "vera­ mente" afferrabile con le macchine.

NoTE l

Per dettagli vedi Cordeschi (1 984, 1985). In realtà, la natura della specifica complessità rappresentazionale dei sistemi di lA andrebbe precisata meglio di quanto non sia qui possibile at­ traverso l'esame puntuale delle restrizioni dei diversi livelli, nonché di quel­ le imposte dall'ambiente. In quest'ultimo caso occorre pensare a sistemi do­ tati di trasduttori, che permettono loro di interagire con relativa libertà con l'ambiente esterno (vedi Pylyshyn, 1978, 1980, 1 984, e, da un punto di vista diverso, Sayre, 1 986). Si pensi ad esempio alla comprensione linguistica: aveva già osservato Dennett come "un calcolatore i cui ingressi e uscite fos­ sero esclusivamente verbali sarebbe cieco riguardo al significato di ciò che viene scritto" (Dennett, 1969, p. 1 82). 3 Vedi McCarthy ( 1979, p. 192). McCarthy sembra tuttavia riconosce­ re che l'attribuzione dell'intenzionalità "non è necessaria per studiare i ter­ mostati, dato che il loro funzionamento può essere ben compreso senza tale attribuzione"; la sua è piuttosto "in parte una provocazione nei confronti di quanti considerano l'attribuzione di credenze alle macchine un semplice ce­ dimento intellettualistico" (ibidem, p. 1 73). 4 Osserva Newell: "Metafora computazionale non sembra un'espressio­ ne felice, se non come espediente retorico per lasciarsi dietro le idee teori­ che provenienti dal calcolatore ed evitare di prenderle sul serio come scien­ za" (Newell, 1 980, p. 178). 5 Come esempio, si vedano la critica della Churchland (1 980) alla psico­ logia intenzionalista e la replica della Kitcher (1984). 6 Si vedano gli interventi che seguono Pylyshyn (1 980), e anche Gallino (1 987). Sayre (1986), pur tentando un approccio in buona parte alternativo, tiene conto di molte proposte di Pylyshyn. 2

102

7 E le macchine future? La Boden sembra confermare anche per esse un verdetto ne g ativo. 8 Si veda il saggio della Boden in questo volume.

RIFERIMENTI BIBLIOGRAFICI Boden M.A. (1 977), Artificial intelligence and natural man, Basic Books, New York. Boden, M.A. ( 1 979), Minds and mechanisms: philosophical psycho­ logy and computational models, Harvester, Brighton. Boden, M.A. (1 984a), Artificial intelligence and human freedom, in M. Yazdani e A. Narayanan (a cura di), Artificial intelligence: hu­ man effects, Chichester, Horwood. Boden, M.A. (1 984b), Methodological links between artificial intelli­ gence and other disciplines, in S.B. Torrance (a cura di), The

mind and the machine: philosophical aspects of artificial intelli­ gence, Chichester, Horwood. Cordeschi, R. (1 984), La teoria dell 'elaborazione umana dell 'infor­ mazione. Aspetti critici e problemi metodologici, in B. Continen­ za e altri, Evoluzione e modelli, Editori Riuniti, Roma. Cordeschi, R. (1 985), Mechanical models in psychology in the 1950's, in S. Bem, H. Rappard e W. van Hoorn (a cura di), Studies in the History of Psychology and the Social Sciences, 3, Psychologi­

sches Institut, Leiden. Churchland Smith P. (1 980), A perspective on mind-brain research, in "J. Phil.", 77, pp. 1 85-207. Dennett, D.C. (1 969), Content and consciousness, Routledge & Kegan Paul, London. Dennett, D.C. (1 978), Brainstorms: philosophical essays on mind and psychology, The MIT Press, Cambridge (Mass.) (trad. it. in corso di pubblicazione). Dennett, D.C. (1 983), Intentional system in cognitive ethology: the "Panglossian paradigm defended, in "Behav. Brain Sci.", 6, pp. 343-388. Gallino L. (1 987), L 'attore sociale. Biologia, cultura e intelligenza ar­ tificiale, Einaudi, Torino. Kitcher, Patricia (1 984), In defense of intentional psychology, in "J. Phil.", 8 1 , pp. 89- 1 06. MacKay, D.M. (1 962), The use of behavioural language to refer to mechanical processes, in "British J. Phil. Sci.", 1 3, pp. 89- 1 03. McCarthy, J. ( 1 979), Ascribing mental qualities to machines, in M. Ringle (a cura di), Philosophical perspectives in artificial in telli­ gence, Harvester, Brighton. Minsky, M.L. (a cura di) (1 968), Semantic information processing, The MIT Press, Cambri dge (Mass.). Newell, A. ( 1 980), Physical symbol system, in "Cognitive Sci.", 4, pp. 1 35-183. Newell A. (1 982), The knowledge level, in "Artificial Intelligence", 1 8, pp. 87- 1 27. •

103

Putnam, H. (1 964), Robots: machines or artificially created life ?, ora in Philosophical papers, 2, Cambridge University Press, Cam­ bridge (Mass.) 1 975. Pylyshyn, Z.W. (1 978), Computational models and empirica[ con­ straints, in "Behav. Brain Sci.", l . pp. 93- 127. Pylyshyn, Z.W. (1980), Computation and cognition: issues in the foundations of cognitive science, in "Behav. Brain Sci.", 3, pp. 1 1 1 - 1 69. Pylyshyn, Z.W. (1 984), Computation and cognition. Toward a foun­ dation for cognitive science, The MIT Press, Cambridge (Mass.). Sayre, K.M. (1 986), Intentionality and information processing: an al­ ternative model for cognitive science, in "Behav. Brain Sci.", 9, pp. 1 2 1- 1 65. Searle, J.R. (1 980), Minds, brains, and programs, "Behav. Brain Sci", 3, 4 1 7-457 (trad. it. Mente, cervelli e programmi, Clup, Milano 1984). Simon, H.A. (1 973), The organization of complex systems, in H.H. Pattee (a cura di), Hierarchy theory, Braziller, New York. Wimsatt, W.C. ( 1 976), Reductionism, levels of organization, and the mind-body problem, in G.G. Globus, G. Maxwell e l. Savodnik (a cura di), Consciousness and the brain: scientific and philosophi­ cal inquiry, Plenum, New York.

104

Epistemologia, cognizione e razionalità deduttiva * di Riccardo Viale

Verso la naturalizzazione della razionalità? Tra le più fondamentali questioni cui l'epistemologia* * ha cercato di rispondere vi sono le seguenti: " l ) Come dobbiamo arrivare alle nostre credenze? 2) Come arriviamo alle nostre credenze ? 3) I processi con cui arriviamo alle nostre credenze sono quelli con cui dobbiamo arrivare alle nostre credenze ?" (Kornblith, 1 985, p. 1). Tradizionalmente si usava rispondere a queste domande nel modo seguente: sia l'epistemologia che la psicologia de­ vono compiere la loro ricerca autonomamente e separata­ mente e poi, dopo avere risposto rispettivamente alle doman­ de l e 2, si tenterà di rispondere alla domanda 3 . Per esempio, anche se l e ricerche i n psicologia fossero ca­ paci di dimostrare che la persona arriva alle proprie creden­ ze attraverso un qualche genere di meccanismo inconscio che misura la coerenza delle nuove credenze con il corpo del­ le credenze già esistenti e che accetta solo quelle coerenti e rifiuta le incoerenti, ciò non avrebbe alcun valore di soste­ gno per la teoria epistemologica normativa della coerenza, secondo la quale uno può accettare solo credenze coerenti con quelle che già possiede. * Alcune modifiche alla prima versione del testo sono state apportate in seguito alle preziose osservazioni di Massimo Egidi, Diego Marconi, Wil­ liam Newton Smith e Angelo Petroni. La versione definitiva è stata realizza­ ta presso l'USRT del Cnr di Milano. ** In questo saggio si userà il termine epistemologia nel senso di "epi­ stemology" della filosofia anglosassone che in Italia corrisponde a teoria della conoscenza.

1 05

Le questioni normative che si pone l'epistemologo sono completamente indipendenti dalle questioni descrittive che si chiede lo psicologo. Esiste però un altro modo di rispondere alle tre doman­ de. È il modo di rispondere del programma di naturalizzazio­ ne dell'epistemologia: alla domanda l non si può rispondere indipendentemente dalla domanda 2. Il problema di come ar­ riviamo effettivamente alle nostre credenze è quindi rilevan­ te per il problema di come dobbiamo arrivare ad esse. Questa posizione è ben riassunta dal seguente passo di Quine: L'epistemologia diventa un capitolo della psicologia e quindi delle scienze naturali. Essa studia un fenomeno naturale, un soggetto fisico umano. A questo soggetto umano è dato un certo input controllato sperimentalmente - ad esempio certi modelli di irradiazione secondo determinate frequenze - e in una •certa quantità di tempo il soggetto elabora come output una descri­ zione del mondo tridimensionale e la sua storia. La relazione tra lo scarno input e il torrenziale output è una relazione che siamo indotti a studiare per le stesse ragioni che hanno spinto allo studio dell'epistemologia; cioè per vedere come l'evidenza si rapporta con la teoria e in che modo la propria teoria della natura trascende ogni evidenza disponibile (Quine, 1 985, p. 24).

Come si è arrivati a questo capovolgimento di prospetti­ va? Principalmente a causa del fallimento del programma fondazionalista che cercò di dimostrare che vi era una classe di credenze - quelle sulle nostre esperienze sensoriali - su cui è impossibile commettere errori. Inoltre queste credenze erano ritenute sufficienti per giustificare il resto delle cre­ denze. Il programma di Carnap mirava alla traduzione, alla ricostruzione razionale di ogni asserzione intorno al mondo nei termini dei dati sensoriali, della logica e della teoria de­ gli insiemi. Se il programma fosse riuscito da un punto di vista "con­ cettuale", cioè della possibilità "tecnica" di questa traduzio­ ne, esso avrebbe in ogni caso mancato di superare lo scoglio "dottrinale", cioè il problema del mantenimento del contenu­ to di verità all'interno della traduzione. Il mero fatto che una asserzione sia tradotta nei termini dei dati sensoriali, della logica e della teoria degli insiemi non significa che essa pos­ sa essere verificata da questa traduzione. La più modesta delle generalizzazioni osservazionali coprirà sempre più casi di quelli osservati da chi la produce. È senza speranza quin­ di ogni tentativo di fondare da un punto di vista logico le credenze sull'esperienza immediata, anche se si tratta della più semplice generalizzazione empirica. 106

Anche da un punto di vista concettuale questo program­ ma di traduzione ha dato scarsi risultati. Il tentativo era di ridurre ogni asserzione della scienza in un linguaggio neutro di dati osservazionali, logica e teoria degli insiemi. Dappri­ ma si tentò con "definizioni dirette", successivamente con "definizioni contestuali" per cui venivano tradotte as serzioni contenenti un termine in asserzioni equivalenti mancanti di quel termine. Da ultimo con i "moduli di riduzione" del pro­ gramma liberalizzato di Carnap si abbandona la speranza di tradurre una as serzione in una equivalente e ci si riduce a prospettare la possibilità di spiegare un nuovo termine spe­ cificando sia alcune asserzioni che sono implicate dalle pro­ posizioni contenenti il termine in questione, sia altre asser­ zioni che implicano asserzioni contenenti il termine. Come sostiene Quine, questo obiettivo minimale fa perde­ re però l'unico vantaggio di un programma di ricostruzione razionale cioè il vantaggio della riduzione attraverso la tra­ duzione. Se tutto ciò a cui miriamo è una ricostruzione che colleghi la conoscenza del mondo alla esperienza in modalità esplicite, ma non di traduzione, allora sembra più efficace optare per la psi­ cologia. È meglio scoprire come la conoscenza del mondo si svi­ luppa nella realtà che fabbricare una storia fittizia di come i no­ stri progenitori avrebbero introdotto determinati termini attra­ verso una successione di "moduli di riduzione" carnapiani (Qui­ ne, 1 985, p. 2 1 ).

Ciò significa che la base empirica della conoscenza, il si­ gnificato empirico delle asserzioni intorno al mondo non ha più fondamenti su cui poggiarsi ? Il contrario. La conoscenza del mondo a questo punto ha la sua base e fondamento pro­ prio nel significato empirico del linguaggio come viene rag­ giunto realmente nella dinamica dell'apprendimento lingui­ stico di ogni individuo. Il significato comune che attribuia­ mo alle parole ed alle asserzioni sul mondo esterno e su cui si basa la nostra possibilità di comunicare e di comprender­ si, come lo stesso significato empirico della scienza, poggia in ultima analisi sulla comune base empirica del comune si­ gnificato che attribuiamo alle nostre asserzioni sul mondo, base empirica che può venire descritta e spiegata solo dalla psicologia empirica. Un ulteriore slittamento verso una naturalizzazione del­ l'epistemologia lo si ha nel momento in cui si incomincia ad approfondire il senso delle tre domande di prima con l'atten­ zione rivolta ai meccanismi cognitivi della razionalità, ai va­ ri processi interni di elaborazione cognitiva delle credenze, 107

ai processi attraverso cui da una credenza si arriva a una credenza diversa, ai processi cioè di inferenza e ragionamen­ to logico deduttivo e induttivo probabilistico. È il momento della decisione su quale azione intraprendere; della valuta­ zione di assunti e ipotesi; del perseguimento di argomenta­ zioni e ragionamenti; del decidere su quale peso e importan­ za dare ai dati dell'evidenza; della soluzione di problemi. Nel passato si è creduto che l'uomo fosse un animale ra­ zionale in quanto il suo ragionare era considerato aprioristi­ camente conforme ai canoni prescrittivi della logica classica. Si è assunta quindi come non problematica e stabilita a-prio­ ri la risposta alla domanda 2 nei termini di una risposta po­ sitiva alla domanda 3 . Quella che sembrava essere solo una congettura che poteva spiegare la ragione di questa credenza negli antichi, sembra rivelarsi invece un pregiudizio ancora diffuso perfino tra i più sofisticati e moderni psicologi. An­ che un demolitore di certezze razionalistiche come Phil Johnson-Laird giustifica in un certo qual modo aprioristico la razionalità logica (anche se non nel senso della logica clas­ sica, ma in quello della teoria psicologica dei "modelli men­ tali") dell'uomo con il fatto che "se la gente fosse intrinseca­ mente irrazionale allora l'invenzione della logica, della mate­ matica e di molte altre cose sarebbe incomprensibile" (John­ son-Laird, 1 983, p. 66). Ora quando si deve giudicare sulla razionalità logica del­ l'uomo, un conto è parlare di "ragionamento con carta, pen­ na, calcolatore, Biblioteca Nazionale e tempo a disposizio­ ne", per usare un'immagine metaforica, un'altro è analizza­ re, come d'altronde fanno nelle loro ricerche la maggior par­ te degli scienziati cognitivi, compreso Johnson-Laird, il ra­ gionare deduttivo intuitivo senza strumenti, le abilità logi­ che di base, la capacità di argomentare tipica dell'uomo del­ la strada, nella vita di tutti i giorni in cui non sono a disposi­ zione gli ausili tecnologici e concettuali dello scienziato o del tecnico. Mentre, nel primo caso si potrà osservare una con­ formità almeno parziale del ragionare a modelli logici come il calcolo delle proposizioni, il ragionamento sillogistico o qualche altro strumento formale di calcolo o ragionamento, nel caso dell'uomo della strada e del ragionamento logico in­ tuitivo questa conformità ai canoni della logica classica è, come sarà evidente in seguito, molto più problematica. All'interno del programma di naturalizzazione dell'episte­ mologia, un capitolo importante assume quindi uno studio dei meccanismi naturali di ragionamento e di formazione delle credenze che sia immunizzato da ogni preconcetto e apriorismo di tipo logicista. 108

Ragionare logico e schizofrenico La presenza di radicati pregiudizi di tipo logicista nello studio delle performance inferenziali dell'uomo è bene illu­ strata da alcune tradizionali teorie sul pensiero schizofre­ nico. In molta parte infatti delle teorie sul pensiero abnorme e in particolare schizofrenico presenti nei trattati di psicopa­ tologia e psichiatria, troviamo esposta la tesi sulla conformi­ tà del ragionare deduttivo umano normale ai canoni della lo­ gica classica. Per anni la psicopatologia, per caratterizzare il ragionare psicotico schizofrenico, si è servita di un modello del ragio­ nare normale che lo considerava aprioristicamente conforme ai dettami della logica classica. Secondo alcune teorie preva­ lenti nella psichiatria, nello schizofrenico si può evidenziare una chiara deviazione dai canoni classici del ragionamento logico. Questo diverso comportamento logico è stato giudica­ to caratteristico oltre che dello psicotico, anche dei compor­ tamenti cognitivi di uomini cresciuti in culture arcaiche ed è stato quindi denominato, ad esempio dall'Arieti, "paleologi­ co" (Arieti, 1 963). L'individuo paleologico non ragiona più usando la logica aristotelica ma si serve di una logica sui ge­ neris chiamata paleologica. La paleologica è in gran parte basata su un principio enunciato da von Domarus ( 1 925, 1 944). Questo autore dopo i suoi studi sulla schizofrenia, for­ mulò una teoria che in forma lievemente modificata si può enunciare come segue: "Mentre la persona normale accetta l'identità solo sulla base di soggetti identici, il pensiero pa­ leologico accetta l'identità basata su predicati identici." Per esempio, se si dice a un individuo normale: "Tutti gli uomini sono mortali; Socrate è un uomo", egli sarà in grado di concludere: "Socrate è mortale". Questa conclusione è va­ lida perché il soggetto della premessa maggiore (tutti gli uo­ mini) contiene il soggetto della premessa minore (Socrate). Se, invece, uno schizofrenico pensa: "a ha la proprietà x " e "b ha la proprietà x " in certi casi può concludere che "a è b". Questa conclusione, che a una persona normale sembra delirante, viene tratta, secondo alcuni autori, perché l'identi­ tà del predicato delle due premesse, "x " , fa accettare allo schizofrenico l'identità dei soggetti, "a" e "b". Alla parola predicato, inoltre, lo schizofrenico attribuisce un senso più vasto. Può essere, per esempio, solo una parte tangibile del soggetto. Vi è la tendenza a identificare una parte con il tutto (per esempio, una stanza con la casa in cui si trova) per cui si può dire che a = a + b + c poiché i due 109

termini hanno a in comune (termine che assume la funzione di "legame identificatore"). Di solito nello schizofrenico queste forme di ragionamento paleologico sono automatiche come, secondo gli autori, l'ap­ plicazione della logica aristotelica da parte delle persone nor­ mali. Secondo il principio di von Domarus si annullano le pri­ me tre leggi della logica tradizionale aristotelica (principio di identità, di non contraddizione, del terzo escluso). Inoltre il pensiero paleologico ricerca la ragione e la causa di un avve­ nimento in modo diverso dal pensiero logico: esso infatti per la sua confusione tra mondo fisico e mondo psicologico, ricer­ ca le cause di un evento piuttosto che in ragioni di natura esterna in ragioni personali e soggettive. In altre parole la causalità presente in spiegazioni oggettive che riguardano il mondo fisico è sostituita dalla causalità mediante fattori causali psicologici e soggettivi. Anche qui secondo gli autori esiste un chiaro legame col pensiero infantile e in particolare con quello primitivo. Un'altra teoria che è legata al modello tradizionale di ra­ zionalità e normalità del ragionare nel senso di conformità ai principi della logica classica, è quella di Matte Bianco ( 1 98 1 ). Egli individua nello schizofrenico alcune leggi fondamentali e in base ad esse tenta di spiegare la sintomatologia riscon­ trata. l) Principio di generalizzazione: una cosa singola viene trattata come se fosse un elemento di una classe; questa classe viene considerata a sua volta come sottoclasse rispetto a una classe più generale e così di seguito fino a costituire una catena di generalizzazioni. La differenza con il comportamento nor­ male è che spesso le classi di ordine superiore vengono scelte per caratteristiche in comune di tipo accessorio e non fonda­ mentale; 2) Principio di simmetria: lo schizofrenico tratta l'inversa di una relazione come se fosse identica alla relazione stessa. Ne derivano importanti corollari come: la scomparsa del tempo e la parte diventa uguale all'intero. Secondo Matte Bianco questi principi sono capaci di spiegare alcune caratteristiche del pen­ siero schizofrenico come l'interpretazione letterale delle meta­ fore, lo spostamento, la condensazione, il pensiero concreto. Il principio di simmetria ha la proprietà di annullare ogni possi­ bilità di organizzazione logica in quel settore del pensiero ove venga applicato. Il ragionamento tipico dello schizofrenico può essere definito "bi-logico" in quanto rispetta in parte la tradi­ zionale logica bivalente e in parte quella simmetrica. Queste teorie sono edifici concettuali che hanno le loro fondamenta su una definizione a priori della performance de1 10

duttiva dell'uomo normale, oggigiOrno confutata empirica­ mente dalla psicologia cognitiva. Ci basti fare qui due esempi evidenziati da Wason e John­ son-Laird ( 1 972, pp. 236-238). La tesi secondo cui la paleologica si caratterizza rispetto alla logica dell'individuo normale in quanto è governata dal principio che due classi sono identiche se hanno qualche at­ tributo comune, non è adeguata, poiché questa particolare fallacia inferenziale è proprio un esempio di quello che Chapman e Chapman (1 959) chiamano "inferenza probabili­ stica", un errore spesso compiuto dai soggetti normali quan­ do devono affrontare un argomento che manca di contenuto tema tico. Analogamente, la tesi di Matte Bianco secondo cui le radi­ ci del pensiero schizofrenico stanno nel fatto che i termini relazionali sono trattati come se fossero simmetrici sembra indebolita dal riscontro di un analogo fenomeno chiamato "conversione illecita" (Chapman e Chapman, 1 959) che si ma­ nifesta frequentemente fra gli individui normali quando i test sono astratti. Si dimostra quindi da queste come da altre osservazioni sperimentali che anche i soggetti normali evidenziano a volte forme di ragionamento, tradizionalmente valutato come aberrante e considerato peculiare della sintomatologia co­ gnitiva degli schizofrenici. Non sembra più convincente quindi una caratterizzazione del ragionare schizofrenico in base alla infrazione delle leggi dell'ideale logicistico classico di razionalità deduttiva.

Alcune difficoltà teoriche del modello tradizionale di razio­ nalità deduttiva Dato che per secoli è stata assunta la logica classica come canone razionale del ragionare deduttivo dell'uomo normale, la prima domanda che viene da porsi è la seguente: è giustifi­ cata la pretesa normativa della logica classica di porsi come criterio per la giustificazione della bontà o meno delle infe­ renze deduttive umane ? È giustificata la pretesa di un crite­ rio esterno come questo di decidere sulla razionalità delle in­ ferenze deduttive nell'uomo ? A questa domanda varie sono le risposte di carattere teo­ rico o derivanti dai risultati empirici della scienza cognitiva. A. Per prima cosa ci si potrebbe chiedere perché la logi­ ca classica e non una delle molte logiche che sono state svi111

luppate in questo secolo, come una delle infinite logiche rno­ dali che hanno anche il vantaggio di formalizzare i concetti di possibilità e necessità o logiche più esotiche come le logiche non-rnonotoniche o la logica "fuzzy" che hanno il vantaggio di cercare di emulare le caratteristiche reali del ragionare urna­ no come la sua ambiguità, scarsa definizione e la sua capacità di navigare efficacemente in un mare di contraddizioni, incoe­ renze e imprecisioni e ciononostante raggiungere risultati soddisfacenti nella soluzione dei problemi e nelle inferenze. Anche se una particolare branca della logica fosse stata isolata, rimarrebbe sempre il problema di scoprire la natura della sua specificazione mentale. Ogni logica infatti può esse­ re formulata in un numero differente di modi a seconda della scelta degli assiomi e delle regole di inferenza nella sua speci­ ficazione sin tattica. Ogni assiomatizzazione di questo tipo non avrà alcuna influenza sulla validità o meno delle inferenze, che è un problema di natura sernantica, ma influirà grande­ mente sulla facilità relativa con cui queste inferenze vengono fatte dalla mente umana. A seconda o meno che vengano intro­ dotte determinate regole di inferenza nella assiomatizzazione una data inferenza implicherà un maggiore o minore sforzo e stress cognitivo-computazionale che potrebbe limitare, condi­ zionare e influire negativamente sulla riuscita ed esattezza della inferenza stessa (Johnson-Laird, 1983, pp. 26-28). B. Non esiste una fondazione della validità delle inferenze che non poggi sulle intuizioni logiche di chi le fa e che invece abbia una giustificazione basata su una qualche teoria logica. Secondo Cohen, non è possibile questo ricorso alla logica co­ me modello prescritto della validità delle deduzioni dell'uomo in quanto anche la logica stessa trova la sua giustificazione ul­ tima nell'intuizione umana. Vi sono due possibili strategie per evitare un ricorso alla intuizione (Cohen, 1 98 1 , pp. 3 1 8-3 1 9): l . La strategia ernpirico-induttiva di tipo positivista: la lo­ gica è vista come un'aggiunta alla scienza e ciò che viene ac­ cettato come verità logica va a costituire una componente del sistema olistico che viene accettato come verità scientifica. La capacità predittiva ed esplicativa del sistema totale giustifi­ cherà non solo la scienza ma anche la logica insita in essa. Questa posizione non è sostenibile per varie ragioni oltre a quelle classiche contro ogni tentativo fondazionalista di tipo positivista: a) a certi principi norrnativi per la costruzione delle teorie scientifiche come la semplicità, coerenza e cornprensività de­ ve essere garantito uno statuto a priori che può essere difeso solo in maniera intuitiva; 1 12

b) molta parte del ragionamento in cui è necessaria una giustificazione logica si trova non nella scienza ma nel dirit­ to e nell'amministrazione e ha a che fare non con ciò che "è" il caso ma con ciò che "deve essere"; c) asserzioni vere logicamente devono essere vere in tut­ ti i mondi possibili e l'evidenza fattuale di questo mondb non è sufficiente a fondarle. Inoltre in tutti i più importanti capitoli della epistemolo­ gia e della logica applicata - modalità (Quine, 1 960), condi­ zionali controfattuali (Lewis, 1 97 3), discorso indiretto (Car­ nap, 1 947), identità relativa (Griffin, 1 977), nomi propri (Kripke, 1 972), avverbi (Davidson, 1 966) ecc. - per fornire le necessarie premesse nell'argomentazione viene spesso utiliz­ zato un implicito o esplicito appello all'intuizione. 2. La giustificazione metamatematica: ogni sistema in cui le regole di derivazione siano specificate formalmente viene detto valido se, usando una qualche interpretazione per il sistema formale, può essere provato che, applicando queste regole, da premesse vere si derivano conclusioni ve­ re. Così potrebbe sembrare come se, usando una definizione semantica di conseguenza logica al fine di controllare un si­ stema sintattico, sia possibile stabilire la razionalità di un insieme di regole inferenziali con una prova metamatemati­ ca senza ricorso ad alcuna intuizione se non quella presente nella percezione della dimostrazione (Dummett, 1 978). Ciò non sembra però, secondo Cohen, offrire nessuna argomen­ tazione a favore della tesi che le particelle logiche del lin­ guaggio naturale possano essere mappate in quelle dei con­ nettivi e quantificatori del sistema formale che si è dimo­ strato valido (e cioè che il sistema formale serva da modello normativo per giudicare la correttezza o meno del compor­ tamento linguistico umano e quindi la validità delle dedu­ zioni fatte in linguaggio naturale). Infatti se, ad esempio, in ogni sistema di deduzione natu­ rale per il calcolo delle proposizioni, dalla proposizione: ((A - B) & (C - D))

è derivabile: ((A

-

D) V (C - B)

allora secondo l'interpretazione del calcolo proposizionale proposta da Russell ( 1 9 1 9) dovrebbe essere giustificata una inferenza da: Se l'automobile di Carlo è una Fiat "500", Carlo è povero e se l'automobile di Carlo è una Ferrari, Carlo è ricco. 1 13

a: O se l'automobile di Carlo è una Fiat "500", Carlo è ricco o se l'automobile di Carlo è una Ferrari Carlo è povero.

che è, secondo l'esperienza comune, falsa. Ciò è un esempio di come il tentativo di Russell di in­ terpretare il calcolo proposizionale (che si può dimostrare essere valido) come una logica del ragionare di tutti i gior­ ni è errato perché non riesce a catturare le nostre intuizio­ ni in fatto di correttezza deduttiva e inferenziale (Cohen, 1981 p. 3 1 9). ' C. Anche se potessimo accettare la proposta della logica classica come modello della logica mentale e delle caratte­ ristiche inferenziali del ragionare umano non si eviterebbe un altro grave problema. Ogni insieme di premesse implica un numero infinito di differenti conclusioni valide. Molte saranno completamente banali come la semplice congiunzione di premesse. Solo po­ che verranno tratte spontaneamente in circostanze ordi­ narie. Ad esempio, date le premesse: Se viene dato fuoco alla paglia essa si incendia Viene dato fuoco alla paglia

la maggior parte della gente dedurrà: La paglia si incendia

e non conclusioni altrettanto valide come: Viene dato fuoco alla paglia e la paglia si incendia Viene dato fuoco alla paglia e se viene dato fuoco alla paglia essa si incendia Viene dato fuoco alla paglia o se viene dato fuoco alla paglia essa si incendia.

Devono allora sussistere dei princìpi euristici che fanno in modo di evitare questa ridondanza delle conclusioni, che fanno in modo di filtrare il banale e l'inutile. Princìpi euri­ stici che risiedono fuori della logica e che sono incorporati nelle caratteristiche inferenziali della psicologia del ragio­ nare umano. Princìpi euristici che pur filtrando e selezio­ nando la conclusione in genere riescono a mantenere il contenuto di informazione semantica delle premesse (John­ son-Laird, 1 983, pp. 34-39). Con l'eccezione di casi come questo: 1 14

p non-p V q : p&q .

in cui la conclusione che l'individuo usa trarre è: q

che possiede meno contenuto di informazione semantica delle premesse. Ciò si spiega in quanto è superfluo ripetere una semplice premessa categorica quando essa può essere data per acquisita. Ripeterla vorrebbe dire violare la convenzione di Grice, secondo cui nel discorso ordinario chi parla non af­ ferma l'ovvio, convenzione che rappresenta parte del princi­ pio cooperativo che ci dà la possibilità di dialogare (Grice, 1975).

Alcune falsificazioni empiriche del modello tradizionale di ra­ zionalità deduttiva La logica classica non sembra adeguata come criterio della correttezza di una inferenza sia perché le sue relazioni logiche non corrispondono in maniera accurata alle convenzioni lin­ guistiche sia a causa di un uso preciso invece che sfumato dei concetti di verità e falsità. Vari risultati empirici della scienza cognitiva dimostrano come non esista alcuna logica mentale in accordo con i canoni della logica classica, ma che la capaci­ tà cognitiva deduttiva umana abbia caratteristiche peculiari difficilmente conformi a modelli a priori. Ciò è ben evidenziato dai seguenti esempi. l . Il modo standard di definire la disgiunzione in logica è nei termini delle sue tavole di verità. Se vi sono due disgiunti P e Q, la disgiunzione è vera nella situazione in cui P è vero e Q è falso e nella situazione in cui P è falso e Q è vero, ma è falsa quando entrambi sono falsi. Per quanto riguarda la situazione in cui P e Q sono veri, tradizionalmente la logica ha considerato questa una condi­ zione di verità della disgiunzione. Ciò non corrisponde invece al comportamento linguistico e cognitivo dell'uomo. In questo caso vi è un modo diverso di interpretare la disgiunzione ri­ spetto ai dettami della logica tradizionale. Mentre questa in­ tende la disgiunzione in senso "inclusivo" (la disgiunzione è vera quando i due disgiunti sono veri), nel comportamento lin115

guistico umano essa viene intesa in senso "esclusivo" per cui nel caso della verità dei due disgiunti la disgiunzione è falsa (Newstead e Griggs, 1983, pp. 76-78) (si veda la tavola 1). Tavola I p

Q

Disgiunzione inclusiva

Disgiunzione esclusiva

v v F F

v F v F

v v v F

F v v F

F = falso

V = vero

Da un punto di vista logico la preferenza per la disgiun­ zione inclusiva ha una sua ragione in quanto usando una in­ terpretazione inclusiva della disgiunzione e la negazione pos­ sono essere definite tutte le altre operazioni logiche (Suppes, 1 957). Anche Piaget e Inhelder (1 958) caratterizzano lo stadio delle operazioni formali nei termini di sedici operazioni bi­ narie che usano solo la negazione, la disgiunzione inclusiva e la congiunzione (inoltre una forma di disgiunzione inclusiva la si ritrova nella teoria degli insiemi con l'operazione di unione " U ). Questa preferenza però non è giustificata dal punto di vista del linguaggio e del ragionare di tutti i giorni che invece fanno propendere per una interpretazione di tipo esclusivo (Newstead e Griggs, 1 983, p. 78). Ad esempio se prendiamo queste due frasi: "

(da una pubblicità) I candidati devono possedere o una laurea o esperienza di insegnamento (da una mamma al bambino) Tu puoi avere o qualche caramella o qualche biscotto

è chiaro come presentino una interpretazione differente del­ la disgiunzione, nel primo caso di tipo inclusivo e nel secon­ do caso di tipo esclusivo. Questa situazione che non si conforma alla logica tradi­ zionale è stata studiata sperimentalmente, e dai risultati di questi esperimenti si possono trarre secondo Newstead e Griggs ( 1 983, pp. 79- 103) delle spiegazioni del fenomeno: a) che nel caso della disgiunzione l'interpretazione dipen­ de principalmente dai seguenti fattori: il contesto linguistico ed extralinguistico in cui essa avviene, l'esatta forma delle parole usate e il tipo di compito per la valutazione dell'inter­ pretazione; 1 16

b) che la logica classica fornisce criteri troppo restrittivi per avere un'applicazione al linguaggio e all'attività inferen­ ziale umana. Infatti il significato di "o" talvolta si riferisce a una disgiunzione inclusiva, talvolta a una disgiunzione esclu­ siva, talvolta a nessuna delle due come nel caso in cui il con­ testo esprima intenzione. Tra l'altro è interessante notare che alcuni linguaggi come quello dei Kpelle in Liberia, quel­ lo finlandese e il latino possiedano una parola per la disgiun­ zione inclusiva e una per quella esclusiva, ciò che sanziona ancora di più il distacco da una interpretazione del linguag­ gio nei termini della logica tradizionale; c) che nel caso della disgiunzione, come nel caso di altre operazioni logiche ciò che corrisponde di meno al comporta­ mento inferenziale dell'uomo è l'interpretazione bivalente del contenuto assertorio del linguaggio. La logica tradiziona­ le aderisce al principio aristotelico del terzo escluso per cui ogni proposizione deve essere vera o falsa e non può avere un valore intermedio come "possibilmente vera" o "possibil­ mente falsa". Dai risultati degli esperimenti sulla disgiunzio­ ne (citati nel saggio di Newstead e Griggs, 1 983) sembra inve­ ce che esista un continuum tra vero e falso nella interpreta­ zione delle asserzioni soprattutto per quanto riguarda la se­ parazione tra disgiunzione inclusiva ed esclusiva. Infatti nel caso: pVq p :. non-q

mentre la conclusione è vera nella esclusiva è falsa nella inclu­ siva. Nella realtà gli individui si pongono con le loro risposte in tutto l'arco che va dal vero (esclusiva) al falso (inclusiva). Ritorna a questo punto la necessità forse di fare appello ad altri strumenti logici. Forse per un concetto "fuzzy" come quel­ lo disgiuntivo potrebbe essere di aiuto rivolgersi alla logica "fuzzy". Facendo ciò, l'operatore disgiunzione "V" non dovreb­ be essere più definito nei termini delle sue tavole di verità e ogni conclusione che fosse da trarre da una disgiunzione sa­ rebbe di natura probabilistica invece che del tipo tutto-o-nulla. 2. Una delle più importanti regole di inferenza è il modus ponens della implicazione materiale che stabilisce che data la proposizione "se A allora B", e anche dato A, allora uno può validamente inferire B. La maggior parte della gente non presenta molta difficol­ tà nell'accettare argomenti basati sul modus ponens, ma 1 17

spesso ha problemi con un'altra regola di inferenza cono­ sciuta come modus tollens. Questa regola stabilisce che, data la proposizione "se A allora B ", e dato anche il fatto che B è falso, allora possiamo dedurre che A è falso. Sebbene entrambe queste regole di inferenza sembrino abbastanza ovvie la gente mostra una certa difficoltà nell'ap­ plicarle. La difficoltà deriva dall'incapacità di comportarsi in un modo che combaci con la corretta interpretazione delle regole, e dalla tendenza a trarre conclusioni che non sono giustificate. a) Per quanto riguarda la regola del modus ponens non è giustificato concludere che B sia falso in base alle premesse "se A allora B" e "non-A": A - B non-A nessuna conclusione

b) Per quanto riguarda la regola del modus tollens non è giustificato concludere che A sia vero in base alle premesse "se A allora B" e "B": A - B B nessuna conclusione

Si è osservato nel ragionare umano il trarre con frequen­ za false conclusioni basate su (a) e (b). Un lavoro sperimentale usando esempi ipotetici è stato eseguito da Rips e Marcus (1 977). Essi chiesero a degli stu­ denti universitari di valutare alcune asserzioni come: Se la palla rotola a sinistra, allora la lampada verde si accende. La lampada verde si accende. Allora la palla è rotolata a sinistra.

Rips e Marcus presentarono tutte le possibili combinazio­ ni di premesse e conclusioni. Nel caso del modus ponens tut­ ti i soggetti selezionarono le conclusioni corrette. Invece, con asserzioni di altro tipo, una proporzione cospicua di soggetti commisero degli errori dal punto di vista della logica della implicazione materiale. Ad esempio, nel caso a esposto precedentemente uno non può dire che B non è "mai" vero, giacché ciò non può essere deciso. Invece "mai" fu la risposta data nel 16 per cento dei casi. Questo particolare errore è denominato "fallacia della negazione dell'antecedente". 118

Un altro esempio ha a che fare con il caso b esposto prece­ dentemente che, come quella di prima, non è una valida dedu­ zione. Uno non può dire che A è "sempre" vero, anche se può essere vero qualche volta. Ciononostante, il 23 per cento delle risposte affermò che era "sempre" vero. Questo errore è cono­ sciuto come "fallacia dell'affermazione del conseguente". Anche con l'applicazione della regola del modus tollens furono scoperti molti errori. La conclusione giusta nel mo­ dus tollens è che A è "sempre" falso. Ma solo il 57 per cento delle risposte fu di questo tipo. Il 39 per cento rispose con "qualche volta" (si veda la tavola II). Perché vengono commessi questi errori ? Una possibile causa di questi errori nasce dall'interpretazione della stessa asserzione condizionale. Se "A - B" significa solo che se av­ viene A allora avviene B. Non significa che se avviene B allo­ ra avviene A. Questo carattere unidirezionale di B che segue A è rappresentato bene dalla freccia "A - B". Ciò è totalmen­ te differente da ciò che è conosciuto sotto il nome di bicondi­ zionale "A -. B". Ciò è rappresentato dall'espressione "Se e solo se". Perché l'uomo tratta "A - B" come se fosse "A -. B " ? La risposta congetturale si basa sul modo in cui il problema è costruito dal soggetto. Supponiamo che venga presentata un'asserzione relativamente senza significato come: "Se la palla rotola a sinistra allora la luce verde si accende". Que­ sta asserzione suona come se fosse presentata una relazione bidirezionale. Non è stata certamente menzionata alcun'altra condizione che potrebbe accendere la luce verde sebbene ciò sia logicamente possibile. Il problema è che nell'asserzione precedente si parla solo di una palla e una luce verde e non si fa intravvedere alcun'altra possibilità per l'accensione del­ la luce verde. La possibilità logica emerge raramente dalla povertà semantica di asserzioni come quella precedente. Alcune di queste inadeguatezze del ragionare nell'uomo sono chiaramente manifeste nel selection task di Wason (1 966). Wason e Johnson-Laird ( 1 972) hanno segnalato una serie di risultati che appaiono evidenziare che i soggetti hanno un'innata tendenza a verificare la verità di asserzioni condi­ zionali attraverso la ricerca di casi di conferma e non ren­ dendosi conto che un caso di falsificazione sarebbe più con­ clusivo. Questa difficoltà è data dalla incapacità di applicare il modus tollens in una situazione in cui è necessario farlo. Il test è conosciuto come il problema delle quattro carte. Il soggetto vede quattro carte che giacciono su un tavolo. Sul lato non coperto, sono scritti sulla prima carta la lettera A, 119

Tavola IL Percentuale di risposte totali in otto tipi di argomenti condizionali (Rips e Marcus, 1 977) Argomento A - B A

l)

1 00

o

o

o

o

100

5

79

16

21

17

2

23

77

o

4

82

14

o

23

77

57

39

4

Mai

:. B

A - B A :. non B A - B non A --

:. B

A - B non A

4)

S)

Qualche volta

--

2)

3)

Sempre

:. non B A - B B --

6)

:. A A -B B :. non A

A - B non B 7) -:. A

8)

A - B non B :. non A

sulla seconda carta la lettera D, sulla terza carta il numero 4, sulla quarta carta il numero 7 . Al soggetto è specificato che ciascuna carta ha una lettera su un lato e un numero sul­ l'altro lato. Gli viene allora chiesto quali carte deve girare al 1 20

fine di stabilire la verità o la falsità della seguente regola (fig. 1): Se una carta ha una vocale su un lato, allora essa ha un numero pari sull'altro.

Figura l .

La cosa interessante del comportamento nella maggioran­ za degli esperimenti sui soggetti di Wason fu che essi scelse­ ro A e quattro al primo tentativo, anche se non c'è nessun modo per cui tale combinazione serva a stabilire la verità o la falsità della regola. Supponiamo che essi trovino un nume­ ro pari sull'altro lato di A, allora questo sarebbe coerente con la regola. Se essi trovassero una vocale sull'altro lato della carta del numero 4, allora anche questo sarebbe coe­ rente con la regola. Ma come abbiamo visto prima questa è la classica "fallacia dell'affermazione dell'antecedente". Mol­ to pochi soggetti decisero di voltare la carta con il 7. Secon­ do la regola del modus tollens è proprio scoprendo che la carta con il 7 ha una vocale sull'altro lato, che la regola può essere falsificata. La procedura ottimale infatti è di girare la carta A e la carta 7, entrambi test critici per la regola gene­ rale. L'esperimento di Wason è stato replicato diverse volte con approssimativamente lo stesso risultato. Anche chiaren­ do esplicitamente ai soggetti che l'interpretazione bicondi­ zionale non è quella giusta, non si notava alcun cambiamen­ to del comportamento precedente. Ciò che i soggetti hanno mostrato è un "pregiudizio di conferma": essi scelgono le lo­ ro carte per confermare delle ipotesi piuttosto che verificare la possibilità di rifiutarle. Attraverso successivi tentativi di replicazione di questo esperimento si è scoperto che la utiliz­ zazione efficace del modus tollens dipende da caratteristiche del test che sono irrilevanti da un punto di vista puramente logico. Consideriamo, ad esempio, la versione ideata da Johnson-Laird, Legrenzi e Sonino-Legrenzi ( 1 972). Le quattro carte furono sostituite con quattro buste da lettera; due mo­ stravano il lato del francobollo, che in una era di 5 pence e nell'altra era di 4 pence; le altre due mostravano l'altro lato e una era non sigillata mentre l'altra era sigillata. Ai soggetti 121

fu chiesto di immaginarsi al lavoro come postini. Essi aveva­ no da verificare la seguente regola: Se una lettera è sigillata allora ha un francobollo da 5 pence.

Secondo questa versione del test molti più soggetti adot­ tarono la strategia corretta scegliendo la busta sigillata e la busta col francobollo da 4 pence. Questo suggerisce che una versione "concreta" del test è in qualche modo più facile da comprendere e così permette ai soggetti di adottare la strate­ gia corretta. Con situazioni della vita reale, è più facile saper usare i metodi corretti per verificare delle regole che hanno a che fare con quelle situazioni. Questa interpretazione del termine "concreto" è dimo­ strata dai seguenti esperimenti. Manktelow e Evans ( 1979) usarono la seguente regola: Se mangio carne allora bevo gin.

Questa versione non produce risultati differenti dalla ver­ sione originale delle quattro carte. È chiaro quindi che il ser­ virsi di parole familiari piuttosto che di simboli artificiali non può spiegare i risultati ottenuti dall'esperimento delle lettere e francobolli. Mentre la regola precedente è da consi­ derarsi senza senso e arbitraria, la seguente regola indagata da Cox e Griggs (1 982), può non essere considerata arbitraria (almeno.in Inghilterra): Se una persona sta bevendo birra allora ha più di diciotto anni.

Con questa regola i soggetti in maggioranza scelsero la strategia di verificare l'ipotesi piuttosto che cercare di con­ fermarla soltanto. Ad esempio, essi verificarono se sotto la carta "sotto diciotto" c'era "bevitore di birra". Questa regola si riferisce a qualcosa di familiare. È abbastanza possibile che ognuno che è a conoscenza del problema delle bevande alcoliche nei minori, l'avrà immagazzinata nella memoria co­ me regola di questo tipo: Se c'è gente sotto X anni che sta bevendo alcool, allora essi de­ vono smettere di bere o saranno puniti.

Una regola di questo tipo incorpora una procedura di prova per il bere nei minori. Ora se i soggetti capiscono il problema precedente, mappandolo in una regola memorizza­ ta come quella suggerita precedentemente, allora la conse­ guenza sarà una tendenza a provare la possibilità di bevitori 122

minorenni. Questa è la stessa cosa che verificare la presenza di controesempi alla regola. Se questa spiegazione è corretta, allora il "comportamen­ to logico" dei soggetti in certe versioni concrete del test di Wason può derivare da semplici prescrizioni sociali. La conclusione di questi studi sembra indicare due im­ portanti principi: a) gli individui non si comportano in accordo con il prin­ cipio logico di cercare di falsificare una regola eccetto che in particolari circostanze; b) queste circostanze sono quelle in cui l'interpretazione del problema è raggiunta attraverso la sua mappatura in una descrizione della situazione presente nella memoria la quale incorpori efficacemente un'appropriata procedura di prova. Proprio come le procedure di problem-solving sono determi­ nate dalla iniziale rappresentazione del problema, così avvie­ ne anche con questo particolare test di ragionamento logico. Non soltanto l 'esatta forma del problema determina le strategie usate dal soggetto, ma anche se è stata data una corretta risposta a un dato problema concreto, il soggetto ra­ ramente si comporta correttamente di fronte a una successi­ va versione astratta dello stesso. In breve egli non dimostra di avere nemmeno imparato a trasferire la sua conoscenza della situazione concreta in una situazione astratta struttu­ ralmente identica. Questi risultati sollevano un problema di fondo. Mentre per altri connettivi come la congiunzione sembra che possa ammettersi la possibilità che l'uso della regola inferenziale derivi dall'apprendimento delle condizioni di verità che si applicano al connettivo stesso, nel caso del connettivo condi­ zionale "se" della implicazione materiale non è così sicuro che il significato sia di tipo vero-funzionale. Una formulazione della semantica del condizionale nei termini delle condizioni di verità sembra troppo restrittivo. Ciò che si richiede è un resoconto più generale del significa­ to di "se" che possa accomodare condizionali particolari co­ me quelle contenenti una domanda o una richiesta nell'as­ serzione conseguente. Infatti si configurano casi in cui il condizionale non è né vero né falso. Le proprietà logiche del condizionale sono determinate dalle proposizioni che sono interrelate e dal tipo di rapporto che configurano. Ogni proposizione in genere definisce il suo proprio contesto e nel caso del condizionale ciò è realizzato in tre modi: una volta per l'antecedente, una volta per il con­ seguente e una volta per la relazione tra i due. Secondo una teoria che sembra la più plausibile il soggetto usa le sue ere123

denze e conoscenze provocate dalla interpretazione del con­ dizionale per costruire un modello mentale di uno scenario in cui l'antecedente venga a realizzarsi. A questo punto il conseguente viene interpretato alla luce del modello e dello scenario costruito (Johnson-Laird, 1 983, pp. 54-62). 3. La logica sillogistica è stata usata frequentemente da­ gli psicologi interessati al ragionare deduttivo. Il paradigma tipico comprende la presentazione di due premesse a un sog­ getto che tenta poi di decidere se una data conclusione segue logicamente dalle premesse suddette. Le ragioni dell'interesse degli psicologi sono varie. Prima di tutto si è argomentato che una grande quantità di ragiona­ menti presenta elementi che sono intrinsecamente sillogisti­ ci. Ad esempio Johnson-Laird (1 983) ha evidenziato che, ogni qualvolta una persona ragiona dal generale al particolare, sta impiegando una forma del seguente tipo: Tutti gli A X è un A :. X è

un

sono

B

B

Una seconda ragione di questo interesse è che la gente prova una grande difficoltà a ragionare sillogisticamente. Presumibilmente la più grande difficoltà associata con il ra­ gionamento sillogistico deriva da una crescita nel numero delle operazioni mentali che deve essere eseguito e dalla complessità delle stesse. I sillogismi sono anche ragionevolmente pochi come nu­ mero. Questo risulta dal fatto che in essi compaiono solo quattro tipi di enunciati: Tutti gli A sono B; nessun A è B; qualche A è B; qualche A non è B. I quantificatori usati negli esperimenti di psicologia cognitiva sono i termini "tutti", "nessuno", "qualche". Le due premesse possono essere com­ binate in un numero di modi per produrre quattro figure nelle quali cambia l'ordine dei termini. Il risultato netto di queste possibilità combinatorie è un totale di 256 sillogismi. Però mentre logicamente le seguenti premesse sono equivalenti, dal punto di vista della elabora­ zione dell'informazione non lo sono: A B

---

B C

B --- e A B

Il totale da un punto di vista "psicologico" è quindi di 5 1 2 premesse. Di queste solo 54 hanno una conclusione valida. 1 24

Le restanti non hanno conclusione (che sia una proposizione categorica). Il tema chiave delle ricerche sul ragionamento sil­ logistico come nel caso del ragionamento proposizionale è sta­ to decidere tra il punto di vista "logico", secondo il quale la gente si comporta razionalmente e logicamente di fronte a problemi di logica e il punto di vista "non-logico" che sostiene che la gente spesso si interessa ad aspetti del problema che so­ no irrilevanti per quanto riguarda la sua struttura logica e che portano a vari tipi di risposte fallaci. Il primo punto di vista predice livelli estremamente alti di performance nei test di ra­ gionamento logico mentre la seconda posizione predice per­ formance povere. Secondo il punto di vista "logico" (Henle, 1 962) molti errori avvengono semplicemente perché la gente non capisce o rappresenta male il problema. Henle sostiene anche che gli errori potrebbero avvenire per la mancata accet­ tazione del test logico da parte del soggetto, ad esempio nel ca­ so in cui gli si chieda di considerare solo la verità o la falsità della conclusione piuttosto che se essa segua dalle premesse. In ogni caso i risultati empirici degli esperimenti sul ra­ gionamento sillogistico hanno evidenziato livelli molto bassi di performance. Una delle prime teorie sulla performance nel ragionamen­ to sillogistico fu proposta da Woodworth e Sells (1 935). Con la teoria dell'"effetto atmosfera" essi sostennero che la gente non riesce a ragionare logicamente a causa della natura delle premesse che crea un'atmosfera che porta il soggetto a trarre certe conclusioni. Più specificamente essi suggerirono che premesse positive inducono il soggetto ad accettare conclu­ sioni positive, mentre premesse negative lo portano a una conclusione negativa. Se una delle premesse è positiva e l'al­ tra negativa allora il soggetto inclina verso una conclusione negativa. Essi presero in considerazione anche asserzioni uni­ versali (ad esempio, "tutti gli A sono B") e asserzioni partico­ lari (per esempio, "qualche A è B"). Secondo l'effetto atmosfe­ ra le premesse universali predispongono la gente verso l'ac­ cettazione di una conclusione universale mentre una conclu­ sione particolare è accettata dopo premesse particolari. Il soggetto preferisce inoltre una conclusione particolare quan­ do una premessa è universale e l'altra particolare. L'evidenza sperimentale conferma ampiamente questa teoria. Consideriamo i quattro sillogismi categorici seguenti (tutti non validi): ( l) Tutti gli A sono B Tutti i C sono B Allora tutti gli A sono C. 1 25

(2) Nessun A è B Tutti i C sono B Allora nessun A è C. (3) Nessun A è B Nessun B è C Allora nessun A è C. (4) Nessun A è B Nessun B è C Allora tutti gli A sono C.

Quali di questi sillogismi sono validi ? Secondo la teoria dell'atmosfera la gente sembrerebbe più propensa ad accet­ tare le conclusioni dei sillogismi ( l ) e (3) rispetto ai sillogi­ smi (2) e (4). Ciò è dimostrato da studi fatti recentemente da Evans ( 1 982). La teoria dell'effetto atmosfera è stata messa in discus­ sione da Johnson-Laird e Steedman ( 1 978). Secondo l'effetto atmosfera i soggetti avrebbero dovuto accettare nello stesso modo ciascuna delle conclusioni errate dei seguenti due sil­ logismi: ( l) Qualche A è B Qualche B è C Allora qualche A è C. (2) Qualche B è A Qualche C è B Allora qualche A è C.

I soggetti dell'esperimento furono più propensi ad accet­ tare la conclusione errata nel sillogismo (l) che nel (2). Ciò è stato spiegato con la presenza di un altro fenomeno che sem­ bra particolarmente resistente e pervicace: "l'effetto figura­ le". La gente è portata ad accettare una conclusione avente A come soggetto e C come conclusione se c'è una catena che, porta da A a B in una premessa e da B a C nell'altra. Un'ulteriore difficoltà per la teoria dell'effetto atmosfera viene da interpretazioni alternative degli stessi risultati spe­ rimentali. Secondo alcuni le ragioni per cui una conclusione errata viene accettata, deriva da una cattiva interpretazione delle premes�e. Secondo Chapman e Chapman (1 959) e la loro "ipotesi di conversione", come evidenziato più sopra nel para­ grafo sul ragionare schizofrenico, i soggetti comunemente 126

interpretano in maniera invertita sia le proposizioni univer­ sali affermative (invece di "tutti gli A sono B" viene inteso "tutti i B sono A"), sia le proposizioni particolari negative (in­ vece di "qualche A non è B" viene inteso "qualche B non è A"). In definitiva di fronte all'interrogativo se la gente ragioni in maniera logica o illogica nei problemi sillogistici, l'eviden­ za sperimentale suggerisce che l'uomo ragiona in maniera non conforme alla logica sillogistica. Un più diretto sostegno all'idea che il ragionare umano è spesso illogico viene dal lavoro sul belief bias. Questo feno­ meno rappresenta la tendenza a valutare una conclusione sul­ la base delle credenze soggettive piuttosto che in conformità con le premesse. La sua evidenza sperimentale è stata ottenu­ ta in parecchi studi. Ad esempio J anis e Frick (1943) eviden­ ziarono una correlazione tra l'attitudine dei soggetti alle con­ clusioni dei sillogismi e i loro giudizi sulla validità o invalidi­ tà di quei sillogismi. In questa correlazione c'erano più errori quando i soggetti erano d'accordo con la conclusione di sillo­ gismi invalidi che quando essi convenivano su sillogismi vali­ di e vi erano più errori nei sillogismi validi quando essi non erano d'accordo con la conclusione.

Conclusioni Alle tre domande iniziali lievemente modificate:

l-bis) Come dobbiamo arrivare alle nostre credenze razio­

nali ?

2-bis) Come arriviamo alle nostre credenze razionali ? 3-bis) Sono i processi con cui arriviamo alle nostre cre­ denze razionali quelli con cui dobbiamo arrivare alle nostre credenze razionali ? s i è tentato parzialmente di rispondere affrontando per pri­ ma la razionalità logico deduttiva e lasciando per il momento da parte il capitolo altrettanto fondamentale della razionalità nelle inferenze induttivo-probabilistiche (si faccia riferimen­ to al lavoro fondamentale del 1 982 e a quelli successivi del gruppo di Kanheman, Slovic e Tversky). Il motivo di questa priorità deriva da ragioni di carattere storico filosofico in quanto si è vista assumere nei secoli pas­ sati la logica classica come canone prescrittivo del comporta­ mento razionale dell'uomo. La scienza cognitiva ha studiato empiricamente in questi anni, per rispondere alla domanda 2-bis, la performance de127

duttiva dell'uomo confrontandola soprattutto con il calcolo delle proposizioni e con la logica sillogistica, che per secoli hanno rappresentato l'ideale prescrittivo di razionalità dedut­ tiva. Come è accennato nel testo, i risultati sperimentali di queste ricerche hanno confutato questa pretesa conformità. Evidenza empirica e vari problemi di ordine concettuale sembrano porsi come ostacolo a una pretesa identificazione della razionalità deduttiva umana con la logica classica, con le regole di inferenza che sono date o deducibili nei sistemi cosiddetti di deduzione naturale e più in generale con qual­ siasi branca della logica: le relazioni logiche difficilmente corrispondono in maniera accurata alle convenzioni lingui­ stiche; nel ragionare umano vi è un uso sfumato dei concetti di verità e falsità; il linguaggio ordinario generalmente si ri­ ferisce non a condizioni di verità ma a situazioni, a fatti del mondo su cui l'abilità inferenziale sembra esprimersi in ba­ se alla familiarità e organizzazione in schemi e modelli dei fatti da elaborare, piuttosto che in base a regole logiche e formali stabilite a priori. Sembra quindi che i concetti o le regole della logica non abbiano un corrispondente analogo nel nostro repertorio concettuale mentale (Goldman, 1 986, p. 286). D'altra parte la risposta alla domanda l -bis sembra non poter fare a meno della ris posta alla domanda 2-bis. Ciò può parere inaccettabile a chi assegna al concetto di razionalità un significato prescrittivo esterno, qualitativamente distinto e su un piano diverso rispetto alla descrizione empirica del comportamento inferenziale del decisore umano. Il proble­ ma è che non sembra esistere una fondazione dell'accettabi­ lità delle inferenze che non poggi in ultima analisi sull'intui­ zione umana, ma che invece abbia una sua giustificazione esterna. Né la strategia emp irico-induttiva, né quella meta­ matematica riescono ad assicurare questa giustificazione esterna. Anche se si può dimostrare, ad esempio, la validità del calcolo delle proposizioni con ciò non si dimostra la pos­ sibilità del suo utilizzo come teoria delle inferenze nel ragio­ nare di tutti i giorni. Un conto è la giustificazione della vali­ dità di una teoria logica, un'altra è la possibilità della sua applicazione alla realtà cognitiva. Nel caso del calcolo pro­ posizionale, ad esempio, la sua applicazione ha a che fare con il significato che si dà alle particelle logiche "se", "e", "o", il cui significato si basa sull'intuizione della legittimità delle relazioni deduttive di proposizioni in cui compaiono queste particelle logiche. Al fine di determinare la pretesa da parte di un sistema formale interpretato di costituire una teoria della razionalità deduttiva del ragionare quotidiano 1 28

non possiamo evitare di fare appello alle intuizioni sulla le­ gittimità delle inferenze di questo sistema. È quindi soltanto dallo studio empirico della razionalità deduttiva dell'uomo e in particolare dagli studi cognitivi sul­ l'intuizione logica, è soltanto dalla risposta alla domanda 2-bis che è possibile rispondere alla domanda l-bis. Risulta rafforzata in questo caso la posizione di Quine per un pro­ gramma di naturalizzazione dell'epistemologia che si basi sulla realtà dei limiti e dei vincoli cognitivi della mente uma­ na, unici in grado di fondare la nostra possibilità di cono­ scenza del mondo e (io aggiungerei) la nostra capacità ad af­ frontarlo razionalmente. Cosa ha di più fondamentale da offrirei ogni discussione sulla razionalità se non quello di rendere conto di situazioni come le semplici decisioni della vita di tutti i giorni ? E come è possibile rendere conto di situazioni come queste facendo appello a teorie ideali e olimpiche di razionalità deduttiva e induttiva, invece che ai meccanismi cognitivi reali di perce­ zione, ragionamento e azione del decisore umano, a quella che si potrebbe definire la "razionalità cognitiva" ? Ogni teoria della razionalità deduttiva dell'uomo dovrà quindi fare riferimento ai vincoli reali (causa degli errori nei test di logica) evidenti nel ragionare di tutti i giorni come, tra gli altri: la limitatezza, a collo di bottiglia, della memoria a breve termine che riduce le capacità computazionali e in­ duce effetti distorcenti nel ragionamento (ad esempio, l'effet­ to figurale nei sillogismi); la divisione in compartimenti del­ la memoria a lungo termine che facilita la creazione di in­ coerenze e contraddizioni nel ragionamento (mentre la coe­ renza è sempre stata un requisito ideale necessario minimo per un attore razionale) (Chemiak, 1 986, p. 56); la limitata di­ sponibilità di tempo a disposizione nei ragionamenti e l'e­ splosione combinatoriale (di tipo esponenziale) di ogni pro­ blema che si volesse risolvere con strumenti deduttivi forma­ li che indicano la necessaria presenza di scorciatoie e mecca­ nismi euristici di filtro, semplificatori e acceleratori del ra­ gionamento. Caratteristiche queste che difficilmente si spo­ sano con un qualsiasi modello a priori della razionalità de­ duttiva della mente umana. Scrive Simon: "La razionalità denota generalmente uno stile di comportamento che è appropriato al raggiungimento di un dato obiettivo secondo i limiti imposti da certi vincoli e condizioni [. ] Le condizioni e vincoli possono essere le ca­ ratteristiche oggettive dell'ambiente esterno all'individuo, possono essere le caratteristiche percepite dal soggetto o possono essere le caratteristiche dell'individuo stesso che egli . .

1 29

considera fisse e non soggette al suo controllo. Il confine tra il primo tipo e gli altri due si può evidenziare distinguendo da un lato la 'razionalità oggettiva' e dall'altro la 'razionalità soggettiva' o 'limitata"' (Simon, 1 982, II, 8. 1). E aggiunge Boudon richiamandosi a Simon: "La razionalità soggettiva è il prodotto della discordanza tra la complessità del mondo e le capacità cognitive del soggetto" (Boudon, in corso di pub­ blicazione).

RIFERIMENTI BIBLIOGRAFICI Arieti, S. (1 963), Interpretazione della schizofrenia, Feltrinelli, Mi­ lano. Boudon, R. (in corso di pubbl.), La razionalità soggettiva e la spiega­ zione del comportamento sociale, in H. Simon et al., Razionalità e conoscenza, Editrice La Rosa, Torino. Carnap, R. (1 947), Meaning and necessity, University of Chicago Press, Chicago. Chapman, L.J. e Chapman, J.P. ( 1 959), Atmosphere effect re-exami­ ned, in "Journal of Experimental Psychologyn. Chapman, L.J. e Chapman, J.P. (1 973), Disordered thought in schizo­ phrenia, Appleton Century Cropts. Cherniak, C. (1 986), Minima[ Rationality, The MIT Press, Cambridge (Mass.). Cohen, J.L. (198 1), Can human irrationality be experimentally de­ monstrated, in "Brain and Behavioural Sciences ". Cox, J.R. e Griggs, R.A. ( 1 982), The effects of experience on perfor­ mance in Wason 's selection task, in "Memory and Cognition", 10.

Davidson, D. ( 1 966), The logica[ forms of action sentences, in N. Re­ scher (a cura di), The logic of decision and action, University of Pittsburgh Press. Domarus, E. von (1 925), Ueber die Besiehung des normalen zum schizophrenen Denken, in "Arch. Psych.". Domarus, E. von ( 1944), The specific laws of logic in schizophrenia, University of California Press. Dummett, M. (1 978), The justification of deduction, in M. Dummett (a cura di), Truth and other enigmas, Duckworth, London. Evans, J. (1 982), The psychology of deductive reasoning, Routledge and Kegan Paul, London. Goldman, A.l. (1 986), Epistemology and Cognition, Harvard Univer­ sity Press, Cambridge (Mass.). Grice, H.P. (1975), Logic and conversation, in D. Davidson e G. Har­ man (a cura di), The logic of grammar, Dickenson. Griffin, N. (1977), Relative Identity, Oxford University Press, Ox­ ford. Henle, M. (1 962), On the relation between logic and thinking, in "Psychological Review", 69. 1 30

Kanheman, D., Slovìc, P. e Tversky, A. (1 982), Judgement under un­ certainty: heuristics and biases, Cambridge University Press, Cambridge. Kornblith, H. (1985), Introduction: what is naturalistic epistemo­ logy?, in H. Kornblith (a cura di), Naturalizing epistemology, The MIT Press, Cambridge (Mass.). Kripke, S. (1972), Naming and necessity, in D. Davidson e G. Bar­ man (a cura di), Semantics of natura[ language, Reidel, Dordre­ cht (trad. it. Nome e necessità, Boringhieri, Torino 1 982). Inhelder, B. e Piaget, J. (1 958), The growth of logica[ thinking from childhood to adolescence, Basic Books, New York (trad. it. Dalla logica del fanciullo alla logica dell'adolescente, Giunti-Barbera, Firenze). Janis, I.L. e Frick, F. (1 943), The relationships between attitudes to­ wards conclusions and errors in judging logica[ validity of syllo­ gisms, in "Journal of Experimental Psychology", 33. Johnson-Laird, P.N. (1 983), Menta[ Models, Cambridge University Press, Cambridge (trad. it. Modelli mentali, Il Mulino, Bologna). Johnson-Laird, P.N., Legrenzi, P. e Sonino Legrenzi (1 972), Reaso­ ning and a sense of reality, in "British Journal of Psychology". Johnson-Laird, P.N. e Steedman, M. (1 978), The psychology of syllo­ gisms, in "Cognitive Psychology", 1 0. Lewis, D. (1 973), Counterfactuals, Blackwell, Oxford. Manktelow, K.l. e Evans, J. (1 979), Facilitation of reasoning by reali­ sm: effect or non-effect?, in "British Journal of Psychology". Matte Bianco, l. ( 1 98 1), L 'inconscio come insiemi infiniti, Einaudi,

Torino. Newstead, S.E. e Griggs, R.A. (1 983), The language and thought of disjunction, in Evans, J.B.T. (a cura di), Thinking and reasoning, Routledge and Kegan Paul, London. Quine, W.V.O. (1 960), Word and object, The MIT Press, Cambridge (Mass.). Quine, W.V.O. (1 985), Epistemology naturalized, in H. Kornblith (a cura di), Naturalizing epistemology, The MIT Press, Cambridge (Mass.). Rips, L.J. e Marcus, S.L. (1 977), Supposition and the analysis of con­ ditional sentences, Erlbaurn, Hillsdale (N.Y.). Russell, B. ( 1 9 1 9), Introduction to mathematical philosophy, Allen & Unwin, London (trad. it. Introduzione alla filosofia matematica, Longanesi, Milano 1 946). Simon, H. ( 1982), Models of bounded rationality, MIT Press, Cam­ bridge (Mass.). Suppes, P. (1 957), lntroduction to logic, Van Nostrand, Amsterdam. Wason, P.C. (1 966), Reasoning, in B. Foss (a cura di), New horizons in psychology, Penguin Books, London. Wason, P.C. e Johnson-Laird, P.N. (1 972), The psychology of reaso­ ning, Harvard University Press, Cambridge (Mass.). Woodworth, R.S. e Sells, S.B. ( 1935), An atmosphere effect in formai syllogistic reasoning, in "Journal of Experimental Psychology".

131

Parte seconda

Cervello, mente e calcolatore

Per una teoria meccanicista della mente e della percezione di Colin Blakemore

Necessità di un punto di vista filosofico nelle scienze neurologiche Pochi sviluppi scientifici hanno interessato e diviso i filo­ sofi quanto la nascita dell'Intelligenza Artificiale, nonostante questa disciplina, strettamente parlando, non abbia più di una trentina d'anni (vedi McCorduck, 1 979). L'idea che dei frammenti indiscutibilmente inanimati di silicio e di rame possano essere paragonati a delle persone per quanto riguar­ da la loro abilità a risolvere problemi, rispondere a domande e ad attenersi a un comportamento intelligente sembra aver seminato il panico fra i ranghi dei filosofi. E singolare che di­ versi secoli di indagine scientifica sul cervello umano non sia­ no riusciti a catturare l'interesse dei filosofi (escludendo, na­ turalmente, poche notevoli eccezioni), mentre pochi decenni di ricerca sulla possibilità di costruire macchine pensanti hanno provocato un vero e proprio uragano filosofico. La ra­ gione sta probabilmente nel fatto che i calcolatori sono dispo­ sitivi chiaramente meccanici: se a volte sembra che in loro vi sia qualcosa di magico, tale magia è il prodotto della comples­ sità della loro struttura materiale e non di un qualche tipo di "spezia spirituale" aggiunta alla ricetta in un secondo mo­ mento. Per quanto si possano ammirare o temere i calcolato­ ri, l'alone di mistero che li circonda è diverso dalle proprietà misteriose comunemente attribuite al cervello umano: se i calcolatori potessero realmente simulare le prestazioni uma­ ne, ciò porterebbe alla refutazione di ogni forma di dualismo radicale e alla sdrammatizzazione del problema mente-corpo. Questo rinnovato interesse per la natura della mente uma­ na è stato accompagnato da un interesse analogo per la mente 135

e la coscienza che si è sviluppato fra coloro che si dedicano allo studio del cervello. Qualunque studioso di scienze neu­ rologiche, se messo alle strette, ammetterebbe che uno dei più importanti obiettivi strategici della ricerca sul cervello è la spiegazione dell'esperienza, della percezione, della co­ scienza e dell'intenzionalità in termini di operazioni cerebra­ li . Ciò nonostante questo obiettivo è a lungo rimasto dietro le quinte, almeno per quella maggioranza di scienziati che disdegna la filosofia e che raramente si avvicina al problema della coscienza in modo men che superficiale. Ora l 'Intelli­ genza Artificiale ha gettato un ponte fra la neurologia e la fi­ losofia su cui marceranno sempre più numerosi quei ricerca­ tori che intendono usare le proprie conoscenze di informati­ ca per fare ingresso nell'arena del dibattito filosofico. Quanto più il problema dell'esperienza conscia e dell'in­ tenzionalità sarà affrontato da un punto di vista meccanici­ sta tanto più la ricerca sul cervello avrà bisogno di un qual­ che tipo di prospettiva filosofica. Gli sforzi e le conquiste dell'Intelligenza Artificiale possono aiutare i neurologi a ri­ spondere a un'importante domanda filosofica concernente i limiti della propria impresa scientifica: quali problemi pos­ sono essere risolti, almeno in linea di principio, dalla ricerca sul cervello ? È chiaro che se un programma per calcolatore può simulare in modo completo una certa funzione mentale o cerebrale, allora tale funzione può essere ricondotta a pro­ cessi puramente materiali, la natura logica delle cui opera­ zioni non richiede alcun intervento spirituale renitente ai metodi scientifici convenzionali. Molte funzioni mentali, che la scienza del cervello non è ancora riuscita a spiegare, sa­ ranno, o sono già state simulate con successo mediante pro­ grammi per calcolatore: il contributo dell'Intelligenza Artifi­ ciale alla neurologia del cervello risiede nella dimostrazione che sono in linea di principio possibili spiegazioni non magi­ che di complessi comportamenti mentali.

La pericolosità di limitazioni a priori al punto di vista scientifico Sono molti gli scienziati e i filosofi che condividono l'opi­ nione comune che i metodi scientifici convenzionali (fondati su leggi fisiche universali e ispirati al materialismo), benché perfettamente adeguati per spiegare la maggior parte degli eventi dell'universo, siano in ultima istanza irriducibilmente limitati nel loro potere esplicativo. Secondo questo punto di vista, la scienza convenzionale non riuscirà mai a spiegare 136

compiutamente la mente umana, né quei fenomeni che chia­ miamo libero arbitrio, scelta, volizione e intenzionalità. Pe­ ter Medawar (1 982) ha protestato contro l'applicazione di procedure cosiddette scientifiche in campi su cui la scienza non può vantare alcuna giurisdizione; in particolare, egli suggerisce che i problemi posti da domande come "Perché esistiamo ?" semplicemente non siano "risolvibili" per mezzo dell'indagine scientifica. Se Medawar ha ragione, la determi­ nazione di termini di riferimento corretti è un passo prelimi­ nare di ogni ricerca, che si ridurrebbe, altrimenti, a un'inuti­ le perdita di tempo su problemi che in linea di principio non possono essere risolti con l'esperimento e l'osservazione. Dobbiamo concludere, nel caso particolare della neurolo­ gia, che vi sono certe funzioni cerebrali che semplicemente non sono "risolvibili", nel senso di Medawar? Il dualismo ra­ dicale implica certamente che il comportamento umano (se non anche quello degli animali superiori) sia parzialmente causato da influenze immateriali che sfuggono alle leggi che governano la materia fisica. Come ha detto McGinn ( 1 982, p. 1 2): Secondo la dottrina del dualismo vi è una sostanza immateriale inerente ai fenomeni mentali che è radicalmente distinta dalla sostanza materiale di cui è composto il corpo: esattamente co­ me vi sono stati fisici che qualificano la materia, così gli stati mentali qualificano un diverso tipo di sostanza, dalla natura in­ corporea.

Al tempo di Cartesio il dualismo esplicava un'azione libe­ ratoria e favoriva l'avanzamento dell'indagine sul cervello (vedi Blakemore, 1 977): dopo aver ricondotto nel dominio delle forze spirituali quegli aspetti del comportamento uma­ no che più suscitavano meraviglia e più apparivano di natu­ ra divina, la strada era aperta a una considerazione brutal­ mente materialistica di ogni altro aspetto della funzionalità cerebrale. Le forze conservatrici della religione, che in pre­ cedenza avevano considerato l'indagine scientifica sull'orga­ nizzazione del cervello alla stregua di un'eresia, si placarono immediatamente quando fu possibile ricondurre gli eventi mentali sotto due distinte categorie. Per molte ragioni, fra cui non ultima l'esplicita diffusione del dualismo, l'era "mo­ derna" della ricerca sul cervello va fatta datare ai tempi di Cartesio. Ma oggi, ciò che resta del dualismo costituisce piuttosto una barriera al progresso della neurologia (vedi Blakemore, 1 985): finché porremo dei limiti a priori alla ri­ cerca sul comportamento della mente, limiti che il metodo scientifico non è autorizzato a oltrepassare, sarà come se 137

stessimo camminando sulle sabbie mobili, senza esserne sta­ ti avvertiti. Il dualismo è un impedimento al progresso della neurolo­ gia perché pone dei limiti invalicabili all'applicabilità del metodo scientifico nello studio del cervello, senza precisare dove esattamente questi limiti cadano, minando così la fidu­ cia e l'entusiasmo dello scienziato nei confronti del proprio lavoro. La principale difficoltà cui va incontro la posizione dualista è proprio l'impossibilità di definire esattamente la natura delle "sostanze mentali" e i modi del loro interagire con la materia cerebrale (vedi McGinn, 1 982). Noi conoscia­ mo i nostri processi mentali solo attraverso l'esperienza in­ teriore che abbiamo di essi. Ma "ciò sembra essere equiva­ lente all'ovvia costatazione che i nostri stati mentali sono i nostri stati mentali, senza spiegare in che cosa essi consista­ no" (McGinn, 1 982, p. 24). Nessuno scienziato può accettare una limitazione a priori dell'ambito di applicazione del proprio metodo di ricerca, in assenza di una chiara definizione di tale limite. Nemmeno uno strenuo sostenitore del dualismo come Sir John Eccles (vedi Eccles e Robinson, 1 984) avrebbe potuto condurre i propri eccellenti esperimenti sulla fisiologia delle sinapsi e l'organizzazione del cervelletto, dell'ippocampo e della cor­ teccia cerebrale senza accantonare, almeno temporaneamen­ te, le proprie posizioni filosofiche. La ricerca scientifica deve pragmaticamente muovere dal presupposto che ogni aspetto della mente e del comportamento possa in linea di principio essere spiegato in termini materiali per mezzo di metodi convenzionali di ricerca (vedi Blakemore, 1 97 5). Questo pre­ supposto può essere abbandonato solo se la ricerca così im­ postata si rivela radicalmente incapace a spiegare certi feno­ meni, oppure se il metodo seguito risulta dimostrabilmente inadeguato all'oggetto dell'indagine. La neurologia deve guardarsi da ogni forma di vitalismo priva di fondamento: ricondurre un certo fenomeno a una causa in­ corporea significa negare che esso possa essere oggetto di inda­ gine scientifica, e ciò può essere accettato solo in assenza di ogni altra ipotesi. Che sarebbe accaduto se Galileo e Newton si fossero accontentati di spiegare il moto dei corpi celesti per mezzo di forze di natura angelica ? (Blakemore, 1 985)

Il problema della coscienza La coscienza è quanto di più prezioso abbiamo, e la no­ stra esperienza conscia ce lo conferma ogni giorno, ma da 1 38

dove deriva tale valore ? La perdita di un arto o di un organo di senso origina una tragica menomazione, immediatamente evidente a chiunque, ma quali sarebbero i segni esteriori de­ rivanti dalla perdita della coscienza ? Una prima ovvia rispo­ sta individua tali segni nella condizione di immobilità, in uno stato apparentemente comatoso, certamente inconsape­ vole, virtualmente insensibile agli eventi del mondo esterno. Così, ad esempio, durante il sonno non si hanno esperienze, non si controllano le proprie azioni e non si interagisce so­ cialmente con gli altri esseri umani. Tuttavia il sonno, e il concomitante stato impoverito di esistenza, non costituisco­ no una corretta indicazione del valore della coscienza duran­ te la veglia. Durante il sonno lo stato fisico del cervello cam­ bia totalmente: l'attività delle cellule nervose della corteccia cerebrale comincia a seguire particolari ritmi periodici; la chimica del cervello è radicalmente alterata; si entra in uno stato fisico e mentale chiaramente diverso da quello della ve­ glia. Indicazioni migliori sul valore della coscienza possono provenire dalla considerazione di ciò che non potremmo fa­ re, durante lo stato di veglia, senza il sostegno della coscien­ za. In altre parole, occorre trovare dei criteri per determina­ re lo stato, conscio o inconscio, di una persona sulla sola ba­ se delle sue azioni esteriori. La determinazione del valore della coscienza è così ridotta al classico problema filosofico delle "altre menti" : come si può giudicare con criteri oggetti­ vi se degli esseri umani o degli animali hanno stati mentali simili a quelli che ognuno di noi "sente" di avere ? Se è im­ possibile attribuire uno stato cosciente a un essere animato sulla base di segni esteriori, non si può definire in modo pre­ ciso il valore che va assegnato a quella particolare condizio­ ne che chiamiamo coscienza. Come ha sostenuto Strawson ( 1 959), l'attribuzione di esperienze, sentimenti e intenzioni ad altre persone, o anche ad altre specie di animali, è funzione della loro somiglianza fisica e comportamentale con noi. Anche se ciò può essere molto naturale, non è certo totalmente corretto da un punto di vista logico. I biologi sanno quanto sia pericoloso inferire omologie strutturali e funzionali fra organi di diverse specie animali sulla base di una semplice somiglianza superficiale. Ad esempio, è successo almeno una dozzina di volte nella storia dell'evoluzione che certe specie animali abbiano svi­ luppato, in modo del tutto indipendente l'una dall'altra, un organo sensoriale specializzato nella percezione della luce. In molti casi questi occhi evolutivamente indipendenti sono anche superficialmente diversi (si pensi all'occhio sfaccetta139

to dell'insetto e all'occhio "semplice", costituito da un singo­ lo apparato ottico, dei vertebrati), ma in altri sono molto si­ mili: alcuni cefalopodi come la piovra e il calamaro hanno occhi semplici, con una cornea, una pupilla circondata da un'iride pigmentata e un sistema ottico straordinariamente simile a quello dei vertebrati. I cefalopodi e i vertebrati han­ no seguito linee evolutive completamente diverse, che però hanno prodotto soluzioni insolitamente simili a un medesi­ mo problema di sopravvivenza, che richiedeva la percezione e il riconoscimento di immagini del mondo esterno (vedi Bla­ kemore, 1 977). Se è pericoloso porre vertebrati e cefalopodi sulla medesima linea evolutiva solo perché hanno organi cor­ rispondentemente simili, ancora più sbagliato sarebbe attri­ buire a un altro essere animato esperienze e stati mentali si­ mili ai nostri sulla base di una semplice somiglianza di com­ portamento. La scienza non ci permette ancora di attribuire con cer­ tezza un particolare stato mentale a un individuo: tale attri­ buzione può avvenire solo per analogia con i nostri compor­ tamenti esteriori. Noi tendiamo a ricondurre le nostre azioni a qualche caratteristica non meglio definita dei nostri stati mentali, e pensiamo che comportamenti simili siano dovuti a stati mentali simili: in molti casi, tuttavia, questa è un'infe­ renza scorretta, specialmente se si postula che gli stati men­ tali siano la causa delle azioni esteriori. Il procedimento di attribuzione di stati mentali per analogia è dunque doppia­ mente scorretto: il primo errore è dovuto a una concezione ingenua della biologia, per cui somiglianze di comportamen­ to fra organismi diversi implicherebbero un'identità di orga­ nizzazione funzionale; il secondo risiede nel presupposto (a favore del quale possiamo addurre solo la nostra esperienza conscia) che gli stati mentali determinino le azioni fisiche. Non abbiamo alcuna ragione per fidarci della nostra esperienza conscia, specialmente per quanto riguarda la de­ terminazione delle nostre azioni. Molti aspetti dell'esperien­ za mentale sono certamente ingannevoli, perché non vi è al­ cuna semplice relazione fra i nostri sentimenti e le nostre percezioni e il valore funzionale del comportamento che a es­ si facciamo corrispondere. A riprova di ciò, Barlow (1 986) fornisce due chiari esempi di come il valore biologico di un comportamento associato con un certo stato della coscienza risulti invisibile all'intro­ spezione. Il vincolo di coppia, l'eccitazione sessuale e altre forme di comportamento hanno chiaramente a che fare con la riproduzione e la sopravvivenza del patrimonio genetico dell'individuo, ma il sentimento conscio che ad essi si ac140

compagna è l'amore, un indefinibile attaccamento emotivo al proprio compagno che non ha alcuna esplicita relazione con la funzione biologica sottostante. Analogamente, quando sia­ mo feriti proviamo dolore, un'esperienza percettiva spiace­ vole che non mostra alcuna ovvia correlazione con il valore biologico dei modelli di comportamento a essa associati. L'e­ sperienza conscia del dolore, negli animali come negli uomi­ ni, comporta una cessazione della normale attività e l'adozio­ ne di modelli di comportamento che hanno lo scopo evidente di facilitare la guarigione ed evitare la cattura da parte di predatori mentre si è ancora in condizione di svantaggio. La natura delle sensazioni di amore e di dolore non ci dice nulla sul valore adattivo ,che i comportamenti a esse associati han­ no da un punto di vista biologico (vedi Barlow, 1 985). Persino la nostra percezione visiva del mondo esterno, apparentemente semplice e puramente passiva, è in realtà estremamente ingannevole, come hanno mostrato molti psi­ cologi e molti filosofi. Gli esempi non mancano: i sogni, le il­ lusioni ottiche, e persino il procedimento, complesso ma non per questo meno ingannevole, per cui le aree cieche del cam­ po visivo (corrispondenti ad esempio al disco ottico della re­ tina o ad aree danneggiate della corteccia visiva) sono "riem­ pite" in modo da avere un flusso di informazioni visive conti­ nuo e omogeneo, sono tutti casi in cui siamo ingannati dal nostro sistema visivo. Se la nostra esperienza conscia non è attendibile nemme­ no quando si tratta di eventi del mondo esterno, che valore dobbiamo attribuire alla credenza che i nostri stati mentali siano la causa delle nostre azioni fisiche ? Se fossimo interes­ sati al modo in cui il meccanismo delle funzioni adattive re­ gola l'assunzione di cibo da parte dei diversi organismi, non rivolgeremmo certo la nostra attenzione alle esperienze con­ sce della fame e della sete, né alla natura degli appetiti e dei gusti particolari, né tantomeno al senso di sazietà che segue l'assunzione del cibo. A maggior ragione, le impressioni della coscienza non possono essere di alcun aiuto per descrivere, in termini adattivi e funzionali, fenomeni complessi quali il libero arbitrio, la facoltà di compiere scelte, il controllo del­ le proprie azioni e l'intenzionalità. Non possiamo dunque essere certi che gli altri organismi, o persino le altre persone, abbiano esperienze consce simili alle nostre: le nostre stesse sensazioni sono spesso cattive in­ terpreti del mondo esterno e dei motivi (in termini adattivi) per cui facciamo ciò che facciamo. D'altra parte, è possibile dare spiegazioni coerenti del comportamento animale e dei meccanismi cerebrali che tale comportamento controllano 141

(anche se a un livello molto semplice), senza far riferimento al ruolo della coscienza. Se le esperienze mentali sono così inaffidabili, la ricerca sul cervello dovrebbe forse cercare una spiegazione del com­ portamento in termini puramente neurali, che non coinvolga stati ed esperienze mentali. Ciò porterebbe la neurologia molto vicina alla negazione dell'esistenza della coscienza: quest'ultima, non avendo più alcuna azione causale sul siste­ ma nervoso, cesserebbe di essere un oggetto di studio inte­ ressante. Questa sembra certamente una soluzione ragione­ vole, almeno per il neurologo interessato soprattutto agli aspetti pratici ed empirici del proprio lavoro, anche se è in così stridente contrasto con l'idea (che si ritrova anche in molti usi del linguaggio quotidiano, e che sembra conferma­ ta dalle impressioni soggettive di ognuno di noi) che l'inten­ zionalità sia la causa efficiente del comportamento umano (vedi Blakemore, 1 985). Tuttavia, per quanto possa risultare utile i gnorare la co­ scienza ai fini della riflessione sui fondamenti fisici del com­ portamento, vi sono due aspetti dell'esperienza conscia che sollevano problemi cui prima o poi bisognerà dare soluzione. Il primo è il fatto che certe esperienze, specialmente se di natura percettiva, hanno una qualità unica e personale che non può essere spiegata semplicemente facendo appello agli eventi, interni o esterni al corpo, che hanno condotto a esse. È probabilmente possibile dare una spiegazione riduzionista perfettamente autosufficiente di come sia possibile distin­ guere la luce blu dalla luce rossa, ma ciò non ci dice ancora nulla sulle sensazioni del blu e del rosso. Il dibattito filosofi­ co sul problema dell'unicità e personalità dell'esperienza ha avuto inizio con il Saggio sull'intelletto umano di Locke (1 690; vedi in particolare Libro 2, capitolo 32, par. 1 5), ma, più recentemente, i termini del problema sono stati ripresi in modo efficace da Thomas Nagel, nel suo articolo Che cosa

si prova a essere un pipistrello?:

Possiamo parlare a questo proposito di carattere soggettivo del­ l'esperienza. Nessuna delle analisi riduttive del mentale recenti e più conosciute ne dà conto, perché esse sono tutte logicamen­ te compatibili con la sua assenza. Il carattere soggettivo dell'e­ sperienza non è analizzabile nei termini di alcun sistema espli­ cativo di stati funzionali o di stati intenzionali, perché questi stati potrebbero essere attribuiti a robot o ad automi che si comportassero come persone anche senza avere alcuna espe­ rienza soggettiva [ . ] Qualsiasi programma riduzionista deve es­ sere basato su un'analisi di ciò che si deve ridurre. Se l'analisi lascia fuori qualcosa, il problema è posto in modo falso. È inuti­ le basare la difesa del materialismo su un'analisi dei fenomeni .

142

.

mentali che non tenga conto esplicitamente del loro carattere soggettivo [. . .] Ora, noi sappiamo che la maggior parte dei pipi­ strelli (i microchirotteri, per la precisione) percepisce il mondo esterno principalmente mediante il sonar, o ecorilevamento: es­ si percepiscono le riflessioni delle proprie strida rapide, fine­ mente modulate e ad alta frequenza (ultrasuoni) rimandate da­ gli oggetti situati entro un certo raggio [. . .] Ma il sonar del pipi­ strello, benché sia evidentemente una forma di percezione, non assomiglia nel modo di funzionare a nessuno dei nostri sensi e non vi è alcun motivo per supporre che esso sia soggettivamen­ te simile a qualcosa che noi possiamo sperimentare o immagi­ nare. Ciò, a quanto pare, rende difficile capire che cosa si provi a essere un pipistrello. (Nagel, 1 974)

Nonostante l'argomentazione di Nagel si fondi sul pre­ supposto che i pipistrelli abbiano esperienze consce (presup­ posto che, come abbiamo visto, dovrebbe essere giustificato indipendentemente), essa ha il merito di considerare la natu­ ra delle esperienze soggettive un problema significativo la cui soluzione, non importa se di ispirazione riduzionista o meno, è comunque necessaria. Il secondo problema sollevato dall'assunto dell'inesisten­ za della coscienza ha a che fare con il diverso grado di consa­ pevolezza richiesto dai nostri comportamenti: alcune delle nostre azioni sono sempre accompagnate da ciò che anche soggettivamente appare come un particolare stato mentale; altre invece sono condotte in modo totalmente inconscio; al­ tre ancora, infine, possono essere svolte in modo consapevo­ le o inconsapevole a seconda delle circostanze. Càpita a tutti di accorgersi improvvisamente, mentre si è alla guida di un veicolo o si sta svolgendo qualche altro compito complesso ma ripetitivo, di non aver posto alcuna attenzione a ciò che si stava facendo per un certo periodo, al punto da non sape­ re quali decisioni siano state prese, in circostanze in cui la decisione sbagliata potrebbe avere conseguenze mortali. È ben vero che questi fenomeni potrebbero essere causati da momentanee amnesie, piuttosto che da vere e proprie flut­ tuazioni dello stato conscio: tuttavia, se è vero che si può adempiere a compiti complessi e importanti senza esserne consapevoli, bisogna chiedersi quale sia il contributo della coscienza alle nostre azioni. Vi è certamente un ampio spettro di azioni e di funzioni corporee che rimangono sempre, per così dire, sullo sfondo della coscienza, svolgendo il proprio lavoro in modo tanto continuo ed efficiente quanto raramente consapevole. Si pen­ si ad esempio al meraviglioso meccanismo che regola il rit­ mo e la profondità del respiro, la temperatura corporea, la 143

frequenza e la forza del battito cardiaco; oppure ad attività più chiaramente comportamentali, come il mantenimento di una data posizione mediante la regolazione del tono dei mu­ scoli interessati, la capacità di tenere lo sguardo fisso su un certo punto, nonostante il movimento dell'oggetto os servato o dell'osservatore, per non parlare dei ragionamenti, calcoli e pensieri che restano sempre sotto la superficie della co­ scienza. In nessuno di questi casi è necessaria l'esperienza mentale. Il fatto che certe azioni e determinati comporta­ menti siano sempre accompagnati da uno stato conscio, mentre altri non lo sono mai, sembra tuttavia indicare che la coscienza sia richiesta da (o che richieda a sua volta) partico­ lari azioni cerebrali. Il problema naturalmente è che non è affatto facile distinguere le azioni che sono sempre associate a intenzioni mentali da quelle che non hanno alcuna relazio­ ne con la coscienza. Anche se può sembrare conveniente liberarsi del proble­ ma della coscienza semplicemente negando che il fenomeno richieda una spiegazione, certe caratteristiche dell'esperien­ za mentale sembrano suggerire che questa non sia la strada giusta: il problema si riproporrà da solo, a dispetto della no­ stra scelta di ignorarlo.

La logica della percezione Sembra ragionevole pensare che la percezione sia il pro­ blema che più si presta a essere spiegato in termini pura­ mente meccanicistici, e questo perché, come suggerisce Searle (1 984), gli stimoli del mondo esterno percepiti dagli organi di senso sembrano originare altrettante sensazioni consce, in una corrispondenza quasi perfetta. I fenomeni mentali, consci o inconsci, visivi o uditivi, il dolore, il prurito, il pensiero, in una parola tutta la nostra vita mentale, è originata da processi cerebrali [ ] Ad esempio, il dolore [. ] la ...

..

causa delle nostre sensazioni dolorose è una successione di eventi che inizia a una estremità nervosa e termina nel talamo e in altre regioni del cervello. Invero, finché si tratta solo di sen­ sazioni, gli eventi del sistema nervoso sono quanto basta a pro­ vocare il dolore [ . . ] Ma se il dolore e gli altri fenomeni mentali hanno un'origine cerebrale, bisogna cheidersi: cos'è veramente il dolore ? L'ovvia risposta, che si tratta di sensazioni spiacevoli, non può essere considerata soddisfacente, perché non ci dice ancora come questo tipo di fenomeni si inserisce nella nostra concezione generale del mondo. Ancora una volta, credo che la risposta sia ovvia, ma richieda di essere meglio precisata. Alla nostra prima affermazione (che il .

144

dolore e gli altri fenomeni mentali siano originati da processi cerebrali) occorre aggiungerne una seconda: il dolore e gli altri fenomeni mentali sono solo caratteristiche del cervello (e, forse, anche del resto del sistema nervoso centrale). (Searle, 1 984, pp.

1 8- 1 9)

Questa nuova posizione filosofica radicale, secondo cui la percezione, così come gli altri stati mentali, è semplicemente la conseguenza dell'attività delle fibre nervose, è in realtà molto vicina alla concezione di Cartesio (1 664), che ricondu­ ceva l'attivazione dello "spirito animale" del cervello alle vi­ brazioni trasmesse dalle fibre nervose sensoriali. Ad esem­ pio, la figura l , tratta da Cartesio, mostra come i comporta­ menti associati al dolore nel piede (movimento degli occhi e della testa verso la parte ferita, protezione del punto dolente per mezzo delle mani e del corpo) derivino dalle vibrazioni prodotte dal calore nei nervi del piede. Purtroppo, anche nel caso di una sensazione apparente­ mente automatica come il dolore, non vi è alcuna stretta cor­ relazione fra la gravità della ferita, e quindi il livello di atti­ vità delle "fibre dolorose", e la forza della sensazione spiace­ vole a essa associata. La soglia e l'intensità del dolore varia­ no a seconda della formazione culturale, dello stato d'animo, del tipo di dolore che ci si aspetta di avvertire e, soprattutto, della situazione presente al momento della ferita, situazione che può richiedere che il soggetto non senta dolore, per po­ ter svolgere attività particolarmente importanti (vedi Wall,

1985). Lo stesso può dirsi, e a maggior ragione, nel caso di un senso molto più ricco come la vista, che permette di racco­ gliere ed elaborare grandi quantità di informazioni: la distri­ buzione e l'intensità della luce che cade sulla retina sono dif­ ficilmente rapportabili alle percezioni associate. La nostra percezione visiva del mondo dipende dalla distribuzione del­ l'attenzione, dalle nostre aspettative e dalle precedenti espe­ rienze in situazioni simili. Vi sono aspetti fondamentali del­ l' immagine retinica che risultano virtualmente ininfluenti sull'esperienza conscia. È ad esempio molto difficile percepi­ re l'intensità generale di un'immagine: la scena di una stanza bene illuminata con luce artificiale non è percepibilmente meno luminosa di una scena d'esterni in piena luce solare, nonostante la luminosità di quest'ultima possa essere anche un migliaio di volte maggiore di quella della prima. Curiosa­ mente, la parte del cervello che controlla i muscoli dell'iride dell'occhio, qualunque essa sia (presumibilmente una porzio­ ne subconscia e sconosciuta del mesencefalo), "conosce" la 145

Figura l 146

luminosità media dell'immagine retinica, poiché la dilatazio­ ne della pupilla dipende dall'illuminazione generale. In que­ sto caso abbiamo un eccellente esempio di una funzione comportamentale affatto meccanica, che non affiora mai alla superficie della coscienza, senza tuttavia che vi sia alcun mo­ tivo perché non debba darsi il contrario. Detto per inciso, i pionieri dell'Intelligenza Artificiale, ne­ gli anni cinquanta, pensavano che i problemi di più immedia­ ta soluzione nella simulazione dell'intelligenza umana me­ diante programmi per calcolatore sarebbero stati la riprodu­ zione della vista, dell'udito e del movimento. Essi immagina­ vano d'altra parte che sarebbe stato molto difficile esprime­ re nella logica di un programma per calcolatore quelle con­ quiste dell'intelletto umano che più sono considerate indice di intelligenza, quali il ragionamento, la matematica e i gio­ chi di strategia come gli scacchi. Per una di quelle ironie che spesso hanno segnato il cammino della scienza, è avvenuto l'esatto contrario. È stato relativamente facile scrivere pro­ grammi capaci di fare calcoli complessi, giocare a scacchi piuttosto bene, dimostrare difficili teoremi e persino diagno­ sticare oscure malattie. Si è invece rivelato incredibilmente difficile controllare gli arti e le dita di un robot con la stessa efficienza dimostrata dagli esseri umani e interpretare i se­ gnali di un occhio artificiale. A dispetto degli sforzi enormi, e nonostante alcuni significativi progressi, la visione artifi­ ciale ha ancora una lunga strada di fronte a sé prima di rag­ giungere prestazioni paragonabili a quelle umane. Ancora una volta, la nostra esperienza conscia ci inganna, nascon­ dendoci l'incredibile complessità del compito. La nostra per­ cezione del mondo sembra virtualmente istantanea, del tutto affidabile e quasi mai ambigua; inoltre, non sembra richiede­ re alcuno sforzo della volontà o dell'intelletto. Ma dopo due­ mila anni di riflessione filosofica, tre secoli di studi sulla percezione e cinquant'anni di ricerca neurofisiologica, siamo ancora lontani dal comprendere il funzionamento della vi­ sione. A quanto si è potuto appurare, il sistema visivo di tutte le specie animali presenta una caratteristica ricorrente: le fi­ bre nervose che dall'occhio giungono al cervello tendono a formare delle "mappe", cioè delle rappresentazioni topogra­ ficamente ordinate di una scena visiva. Nell'emisfero cere­ brale di una scimmia, ad esempio, l'informazione visiva è raccolta in una zona posteriore del cervello, detta corteccia striata; qui, l'attivazione delle fibre nervose, che giungono al cervello in modo ordinatamente distribuito, forma una spe­ cie di immagine del mondo esterno. Questa mappa è in una 147

certa misura distorta, perché le fibre che vi giungono dalla fovea (l'area centrale della retina in cui la concentrazione di fotorecettori è più alta) sono proporzionalmente più numero­ se. Ciò nonostante, vi sono delle teorie che attribuiscono un significato alla distribuzione spaziale dell'attività nervosa in quest'area del cervello, come se essa potesse essere in qual­ che modo interpretata da un ipotetico osservatore. Ma già Cartesio aveva individuato la contraddizione di cui soffre una simile teoria: se vi fossero degli occhi interiori che os­ servano l'attività nervosa del cervello, come sarebbe possibi­ le interpretare le immagini prodotte da tali occhi? Vi sono naturalmente molte altre spiegazioni plausibili del fatto che le proiezioni delle fibre nervose nel sistema vi­ sivo tendono ad assumere una configurazione topografica: tale configurazione potrebbe ad esempio essere semplice­ mente la conseguenza della crescita ordinata delle fibre ner­ vose (assoni contigui che crescendo mantengono le recipro­ che relazioni spaziali), oppure potrebbe avere un qualche va­ lore adattivo che non ha tuttavia nulla a che fare con la for­ mazione di una "immagine dell'attività", quanto piuttosto con la necessità delle cellule nervose della corteccia di co­ municare in modo veloce e sicuro l'una con l'altra per per­ mettere, ad esempio, l'analisi di un'immagine in movimento. D'altra parte, recenti risultati hanno riportato in auge la possibilità che la disposizione delle cellule nervose abbia un significato. Calford e altri (1985) hanno esplorato per mezzo di elettrodi l'area sensoria somatica primaria (la parte del cervello che riceve informazioni cutanee dalla superficie del corpo) di una certa specie di pipistrelli. Ora, in altri mammi­ feri come il topo (vedi fig. 2A) la proiezione delle fibre nervo­ se in questa regione della corteccia forma una mappa del corpo, in cui le regioni altamente innervate come le labbra e le dita sono sovrarappresentate relativamente alle altre. L'o­ rientamento di questa rappresentazione sulla superficie del cervello è notevolmente coerente da una specie all'altra. L'a­ rea corrispondente al viso si trova nella parte laterale infe­ riore del cervello, quella relativa agli arti posteriori occupa la parte superiore della mappa, vicino alla linea che divide gli emisferi cerebrali. Analogamente, la rappresentazione della superficie dorsale punta alla parte posteriore del cer­ vello, quella dell'addome si trova nella parte frontale della mappa, mentre le aree corrispondenti alle dita degli arti an­ teriori e posteriori si protendono in avanti. Sotto quest'a­ spetto, invece, il pipistrello costituisce un'eccezione. La rap­ presentazione degli arti anteriori (le ali) si trova nella parte posteriore della mappa, vicina a quella della superficie dor148

sale del corpo: Calford ha avanzato l'ipotesi che quest'anoma­ lia sia da ricondurre all'abituale posizione del pipistrello, che si appende al trespolo con le ali raccolte contro la superficie della schiena, proprio come appaiono nella mappa cerebrale (vedi fig. 2B). Ciò sembrerebbe suggerire che l'orientamento e la disposizione delle mappe cerebrali rappresentino le rela­ zioni posizionali delle parti del corpo nello spazio esterno: tali

A

8

TOPO

PIPISTRELLO Figura 2

mappe verrebbero così ad avere un preciso significato. Tutta­ via, come già accennato, è disponibile una spiegazione più semplice: la vicinanza nel cervello di cellule nervose che tra­ smettono informazioni relative a eventi contigui o successivi facilita la comunicazione. Poiché le ali del pipistrello sono di solito ripiegate sulla schiena, entrambe le parti del corpo per­ cepiranno uno stimolo tattile simultaneamente, o una imme­ diatamente dopo l'altra: è sensato pensare che le parti corri­ spondenti del cervello stiano in un'analoga relazione. Una delle più importanti scoperte degli ultimi anni, nello studio del sistema visivo, è che l'area visiva primaria della corteccia è circondata da una quantità di aree secondarie (fi149

no a venti nella scimmia) che originano altrettante rappre­ sentazioni indipendenti del campo visivo sulla base delle in­ formazioni provenienti dall'area primaria o dall� altre map­ pe corticali. (Vedi Van Essen e Maunsell, 1983) E un vero e proprio atlante di mappe visive che, nella scimmia, occupa più della metà dell'intera superficie degli emisferi cerebrali: un segno ulteriore, se ve ne fosse bisogno, dell'importanza e della complessità del processo visivo. Se è difficile sostene­ re, come abbiamo visto, che le informazioni visive siano rap­ presentate dalle configurazioni di attività nervosa delle map­ pe (configurazioni che sarebbe poi necessario percepire in qualche modo), non resta che un'unica spiegazione meccani­ cista del processo percettivo. Ogni singola cellula nervosa che, insieme a milioni di altre cellule, costituisce la retina e le strutture visive centrali, ha particolari proprietà. Sappia­ mo, ad esempio, che i neuroni della corteccia visiva primaria del gatto e della scimmia sono in grado di dare un contribu­ to al processo di riconoscimento delle forme. Ogni cellula risponde selettivamente quando una linea o un profilo con un particolare angolo d'orientamento appare nella parte cor­ rispondente dell'immagine retinica (vedi Hubel e Wiesel, 1977). Cellule nervose diverse risultano sensibili ad angola­ zioni diverse e, per ogni piccola porzione del campo visivo, vi è un insieme di cellule nervose in grado di rilevare la presen­ za di linee e profili orientati secondo tutte le possibili ango­ lazioni. Sembra quindi che il primo passo nell'analisi percettiva di una scena visiva sia la scomposizione dell'immagine reti­ nica in un flusso di informazioni relative all'orientamento dei bordi e dei profili, informazioni rappresentate mediante le proprietà selettive delle cellule nervose individuali. Anche se non c'è accordo sulla precisa funzione di queste cellule nella codifica delle informazioni visive, sembra ormai chiaro che le loro caratteristiche non sono affatto casuali, ma fanno sì che esse prendano parte al processo di scomposizione del­ l'immagine. Sembra dunque che la corteccia visiva primaria (la cor­ teccia striata) sia il centro di raccolta e di elaborazione delle informazioni visive, almeno per quanto riguarda gli aspetti formali dell'immagine. Non è affatto escluso, tuttavia, che l'elaborazione di altri aspetti della scena visiva abbia luogo altrove, in una delle altre mappe che, insieme alla corteccia striata, formano un vero e proprio mosaico sulla superficie cerebrale. La presenza di molte successive rappresentazioni del campo visivo dà origine a una certa ridondanza, che può tuttavia essere spiegata assegnando a mappe diverse l'analisi ISO

di aspetti diversi dell'immagine. Invero, sembra provato an­ che sperimentalmente che l'analisi del colore e del movimen­ to degli oggetti del campo visivo avvenga in aree distinte (ve­ di Zeki, 1974; Van Essen e Mausell, 1983). L'analisi percettiva avviene dunque al livello della cellula individuale, o almeno al livello di insiemi locali di cellule. Si sa ormai abbastanza sul modo in cui i messaggi, sotto forma di successioni di brevi impulsi elettrici, viaggiano lungo le fi­ bre nervose; sappiamo meno, tuttavia, sul modo in cui que­ ste successioni codificano le informazioni, e ancor meno sul­ l'interpretazione o "decodifica" del segnale proveniente dalla cellula, o gruppo di cellule, precedente da parte delle cellule successive nella catena di connessioni (vedi Mollon, 1977). Un'ipotesi, che ha avuto origine nell'ambito degli studi fisio­ logici sull'elaborazione delle informazioni nella retina della rana, del piccione e del coniglio, è che ogni singolo neurone sensorio possa essere attivato quasi esclusivamente da certe caratteristiche distintive dell'immagine, come ad esempio il particolare orientamento di un profilo, il moto lungo una particolare direzione, il contrasto di luce (piuttosto che l'in­ tensità assoluta della luce), e così via. Il particolare elemento della scena visiva capace di attivare il neurone è detto "ca­ ratteristica scatenante". Quest'ipotesi permette di semplificare la codifica delle in­ formazioni nei neuroni sensori: non è necessario che la fre­ quenza degli impulsi nervosi codifichi precise informazioni quantitative sulla natura dello stimolo visivo; essa sta piutto­ sto solo a indicare la probabilità della presenza di una deter­ minata caratteristica scatenante (vedi Barlow, 1972). Inoltre, la scomposizione della scena visiva nei suoi elementi caratte­ ristici permette di spiegare l'adattamento all'ambiente del si­ stema visivo delle varie specie animali. Persino fra i verte­ brati vi è una certa variabilità nell'insieme degli elementi della scena visiva che risultano significativi per il comporta­ mento: corrispondentemente, le diverse specie differiscono per la lunghezza d'onda cui i fotopigmenti dell'occhio sono sensibili, per la capacità di individuare e riconoscere un og­ getto che si muove nel campo visivo a una determinata velo­ cità, e così via. Tuttavia, l'ipotesi della caratteristica scate­ nante non è da intendersi rigidamente: non si deve pensare che i neuroni siano completamente insensibili, o "invarianti" nelle loro risposte, in presenza di variazioni anche notevoli dello stimolo visivo che non coinvolgono la loro particolare caratteristica scatenante. Questa particolare codifica, sche­ maticamente illustrata nella figura, è certamente un'idealiz­ zazione che non coglie tutta la complessità del fenomeno. I 151

neuroni sensori, a ogni livello del sistema VISivo, tendono piuttosto a "filtrare" le caratteristiche dell'immagine: le ri­ sposte della cellula in relazione a un aspetto della scena visi­ va (ad esempio la direzione del moto dell'immagine) cadono entro un arco di valori piuttosto ristretto e si raccolgono at­ torno a un punto ottimo, ma dipendono anche in misura si­ gnificativa da altri aspetti della scena, come la posizione del­ lo stimolo sulla retina, il contrasto rispetto allo sfondo ecc. Come mostra la figura 3B, la funzione dei neuroni sensori, almeno nelle parti periferiche del sistema, unisce aspetti di "selezione" dello stimolo ad aspetti di "armonizzazione" delle diverse componenti dello stimolo fra loro (vedi Blakemore, 1975). Secondo una teoria alternativa, i neuroni sensori sono dei "filtri di codifica": ogni cellula fornisce, regolando la fre­ quenza dei propri impulsi, informazioni quantitative sulla variazione dello stimolo lungo una o più dimensioni. Per tor­ nare all'esempio della corteccia visiva primaria della scim­ mia, i neuroni di quest'area avrebbero proprietà filtranti re­ lative non solo all'orientamento di un bordo o di una linea nel campo visivo, ma anche alla sua lunghezza, alla sua lar­ ghezza (o, più precisamente, al periodo di una configurazio­ ne ripetitiva di barre), alla direzione e alla velocità del suo moto, alla sua composizione spettrale, e persino alla sua di­ stanza stereoscopica nello spazio tridimensionale. È chiaro che cellule dalle specificità filtranti multiple di questo tipo non possono segnalare univocamente la natura del compo­ nente della scena visiva da cui sono state attivate. L'idea che l'analisi percettiva sia dovuta all'interazione di grandi popo­ lazioni di cellule nervose che trattano aspetti simili di una stessa scena visiva (vedi Mollon, 1977), è in gran parte conse­ guenza di questa intrinseca ambiguità del messaggio, unita al fatto che nessun neurone individuale, da solo, è sufficien­ temente sensibile e preciso da determinare le azioni e le per­ cezioni dell'animale. L'interazione fra le cellule nervose di una stessa popolazione deve far sì che le prestazioni globali siano sensibilmente migliori di quelle ottenibili da una sin­ gola cellula. Una semplice modalità di interazione che pre­ senta queste caratteristiche è la somma di probabilità: qual­ siasi decisione percettiva (come il rilevamento di una sorgen­ te luminosa) prodotta da un gruppo, quale che sia, di cellule nervose simili è comunque più affidabile e sicura di quella di una cellula singola perché il fattore che limita le presta­ zioni di una cellula individuale è dato dal rapporto fra il se­ gnale rilevato e il "rumore" presente nel canale lungo cui ta­ le segnale viaggia. Sfruttando la probabilità che nel gruppo 152

a:

o Q. (/)

In

LU Q w(

....

LU z o a: ::> LU z

!

c.

iii ii 'S

"'

g

;;-

l l

DIMENSIONE DELLO STIMOLO+

4• DIMENSIONE DELLO STIMOLO +

3• DIMENSIONE DELLO STIMOLO+

2•

1• DIMENSIONE DELLO STIMOt.,O+

Figura 3

INVARIANZA

.,

a:

(/)





LU o

....

c LU z o a: ::> LU z

E

a.

ii ii 'S



;;-

VELOCITÀ DELLO STIMOLO +

CONTRASTO DELLO STIMOLO +

J

POSIZIONE SULLA RETINA +

DIREZIONE DEL MOVIMENTO +

/

'

l

n_

CARATTERISTICA SCATENANTE

B

A

)o. STIMOLI SEGNALE

STIMOLO CODIFICATO

vi sia comunque una cellula, magari anche una sola, che è in grado di rilevare uno stimolo debole, le prestazioni globali saranno sempre migliori, in media, di quelle di qualsiasi neurone individuale. Si è ormai diffusa in neurofisiologia l'idea che un mecca­ nismo simile a quello della somma di probabilità governi i rapporti fra gruppi di neuroni corrispondenti a uno stesso punto della retina. Partendo da questo presupposto si posso­ no paragonare le prestazioni percettive globali (umane o ani­ mali) con quelle ottenute, in media, da una singola cellula sottoposta un numero sufficiente di volte a uno stesso stimo­ lo visivo: mentre in quest'ultimo caso la media è calcolata su una serie di valori successivi nel tempo, il cervello compie lo stesso tipo di computazione sui valori prodotti in un dato istante da una popolazione di cellule simili simultaneamente sottoposte a uno stimolo visivo. Questa posizione, pur così diffusa, è stata recentemente rimessa in discussione da Par­ ker e Hawken (1 985), secondo cui molti neuroni della cortec­ cia striata della scimmia, sottoposti a un'unica presentazio­ ne di uno stimolo visivo, offrono prestazioni percettive para­ gonabili a quelle umane, anche se i valori della risposta non sono mediati con quelli prodotti da altri neuroni. Essi sono riusciti a spiegare in termini quantitativi, e facendo riferi­ mento unicamente ai neuroni individuali della corteccia visi­ va, un ampio spettro di funzioni e abilità visive: la sensibilità al contrasto, il potere risolutivo su particolari di piccole di­ mensioni (acutezza visiva), la determinazione del periodo di configurazioni di barre di diversa grandezza, e la capacità di determinare l'orientamento di una linea e la presenza di eventuali minuscole deviazioni e rotture (acutezza a ver­ niero). Nonostante quest'imponente sforzo teorico la neurofisio­ logia non è che all'inizio nella comprensione della visione. La scomposizione iniziale della scena visiva e la trasmissione di informazioni codificate al resto del cervello da parte dei neu­ roni visivi sono state sufficientemente esplorate. Non abbia­ mo ancora tuttavia alcuna spiegazione soddisfacente dell'a­ nalisi percettiva in tutta la sua complessità, né della catego­ rizzazione cognitiva del mondo visivo non solo negli esseri umani, ma nemmeno in animali più semplici come i piccioni (vedi Herrnstein, 1984). Certamente dovrà essere affrontata l'intrinseca limitatezza dei metodi neurofisiologici, che po­ trebbe risultare d'ostacolo a ogni progresso pratico. È ad esempio impossibile, oggi, rilevare dati accurati e sicuri sul­ l'attività elettrica di una singola cellula o fibra nervosa per più di poche ore, e potrebbe rivelarsi estremamente difficile 154

estendere questo limite. D'altra parte è possibile in linea di principio che certi neuroni individuali che richiedono stimo­ lazioni lunghe e complesse debbano essere posti sotto osser­ vazione in laboratorio per periodi più lunghi. Lo stesso pro­ blema si pone per lo studio della memorizzazione delle infor­ mazioni sensorie in neuroni che funzionano come banchi di memoria, e lunghi periodi di osservazione sono ugualmente richiesti per capire come si stabiliscono le connessioni ner­ vose funzionali nella prima fase dello sviluppo postnatale, periodo in cui le cellule della corteccia striata cominciano a mostrare le capacità di "armonizzazione" del segnale cui ab­ biamo accennato sopra (vedi Movshon e Van Sluyters, 198 1).

Il valore della simulazione e il punto di vista algoritmico C'è un'altra strategia, non alternativa ma complementare a quella della neurofisiologia, per affrontare il problema del­ l'analisi percettiva: la simulazione della visione su elaborato­ re elettronico. Si suppone di solito che la natura della scena visiva imponga certe limitazioni, a volte molto rigide, sul modo in cui si può estrarre il significato dall'immagine reti­ nica (vedi Gibson, 1 979). Recentemente, seguendo questa li­ nea di ricerca, David Marr e i suoi colleghi hanno ottenuto notevoli risultati (vadi Marr, 1 982; Poggio, 1 986). Per simula­ re il processo visivo bisogna trovare degli algoritmi (procedi­ menti logici rappresentabili per mezzo di un programma per calcolatore) capaci di fornire le informazioni appropriate su certe caratteristiche della scena visiva, come ad esempio la forma, la distanza stereoscopica, il movimento. È possibile che in certi casi il problema di estrarre le informazioni ne­ cessarie dai dati disponibili ammetta un'unica soluzione in termini logici. È chiaro che se così fosse, qualsiasi organi­ smo necessitato a estrarre tali informazioni dovrebbe avere un sistema visivo basato sull'unico algoritmo esistente in grado di assolvere al compito. Si compirebbe in questo modo un enorme progresso nella comprensione dell'analisi percet­ tiva senza bisogno di esperimenti su uomini o animali. Natu­ ralmente l'unicità dell'algoritmo non implica affatto l'unici­ tà della struttura neuronica materiale in cui esso trova, per così dire, la propria incarnazione, ma solo l'identità logica dei sistemi visivi che devono assolvere al compito in que­ stione. Sono sempre più numerosi gli scienziati che studiano i si­ stemi biologici servendosi di programmi per calcolatore. Sic­ come è improbabile che il processo biologico dell'analisi per155

cettiva sarà mai esaurientemente descritto in un manuale di neurologia, bisognerà accontentarsi di quanto riusciremo a sapere dai programmi per calcolatore scritti per la sua simu­ lazione. Tuttavia, anche la sola idea che un elaboratore elettroni­ co possa fornire una descrizione soddisfacente di un aspetto dell'esperienza conscia (in questo caso, la percezione) suona scandalosa all'orecchio di alcuni filosofi. Recentemente John Searle ha sostenuto con foga e convinzione che la semplice rappresentazione di un programma all'interno di un calcola­ tore non potrà mai, da sola, generare stati mentali. Searle (1 984) ha presentato a questo proposito un'argomentazione (nota come l'argomentazione della Stanza Cinese: vedi Hof­ stadter e Dennett, 198 1 ; Dennett, 1 986) tesa a provare che la simulazione di un aspetto del comportamento umano (persi­ no di un aspetto complesso come il comportamento linguisti­ co) per mezzo di un calcolatore non potrà mai duplicare gli stati mentali normalmente as sociati a tale comportamento. L'argomentazione di Searle fa uso di un dispositivo com­ putazionale di tipo un po' particolare. Supponiamo che un gruppo di persone (dotate, presumibilmente, di intelligenza) sia chiuso in una stanza, con il compito di rispondere in ci­ nese alle domande, anch'esse scritte in cinese, che vengono loro passate attraverso un'apertura. Nessuno di loro conosce la lingua, e le risposte sono scritte consultando un enorme li­ bro di istruzioni che rappresenta (è chiaro) il programma. In assenza di errori il dispositivo computazionale costituito dal­ la Stanza Cinese è in grado di superare il Test di Turing (ve­ di McCorduck, 1 979): un osservatore esterno non riuscirebbe a decidere, basandosi solo sull'abilità intellettuale dimostra­ ta in questo particolare compito, se chi fornisce le risposte è effettivamente un essere umano dotato delle necessarie co­ noscenze oppure un dispositivo meccanico. Il fatto che que­ sto dispositivo sia a sua volta costituito da esseri umani che non riescono ad associare alla propria attività alcuno stato intenzionale proprio in forza dell'assoluta ignoranza della lingua, è utilizzato da Searle per dimostrare che un pro­ gramma per calcolatore, pur avendo superato il Test di Tu­ ring, non può per questo produrre gli stati mentali che un essere umano assocerebbe alla medesima attività. L'argomentazione di Searle è stata fatta segno di molte obiezioni, ma due mi sembrano particolarmente convincenti. In primo luogo, non credo che la Stanza Cinese potrebbe fun­ zionare correttamente se le persone che vi sono chiuse non raggiungessero una comprensione "semantica" della loro at­ tività. Dopotutto, i neonati sono paragonabili alla Stanza Ci1 56

nese per certi aspetti: quando vengono al mondo non hanno alcuna conoscenza del vocabolario e della sintassi di quella che diventerà la loro lingua madre. Imparano le regole e il contenuto di tale lingua, così come si impadroniscono della relazione che unisce sintassi e semantica, interagendo con il mondo esterno e associando le parole di altre persone a og­ getti ed eventi. Non credo che si possa apprendere veramen­ te un linguaggio ignorandone l'aspetto del riferimento se­ mantico, senza sapere cioè quali siano gli oggetti di cui si parla, né quale relazione li unisca alle parole corrispondenti. Non disponendo di una tale conoscenza, il compito delle per­ sone nella Stanza Cinese è certamente arduo, se non impossi­ bile. Dunque, la mia prima obiezione mette in dubbio la pos­ sibilità di un funzionamento corretto del "dispositivo compu­ tazionale" immaginato da Searle. Ma anche se dalla Stanza Cinese provenissero le risposte previste, rimarrebbe pur sempre un problema filosofico più generale. Infatti, se fosse veramente possibile imitare in modo completo la competen­ za linguistica umana mediante le conoscenze puramente sin­ tattiche di un programma per calcolatore, senza l'intervento di stati mentali o intenzioni, dovremmo chiederci che ruolo hanno, allora, gli stati mentali nel mondo reale. Non è un punto banale, né di poca importanza. È chiaro che lo stesso Searle crede che gli stati mentali e le intenzioni siano crucia­ li per il modo in cui usiamo il cervello e ci muoviamo nel mondo: ma ciò sarebbe impossibile se, come sostiene Searle, una macchina priva di stati mentali potesse offrire presta­ zioni paragonabili a quelle di un essere umano. Siamo dunque di fronte al seguente dilemma: o la Stanza Cinese non può funzionare correttamente, non avendo alcu­ na comprensione delle proprie azioni a livello semantico; op­ pure, se il suo funzionamento è perfetto e convincente pur essendo del tutto inconsapevole, quale valore funzionale si deve attribuire agli stati mentali ? In conclusione, sembrano esserci buone speranze che gli sforzi comuni dell 'Intelligenza Artificiale e della neurologia producano una spiegazione plausibile dell'analisi percettiva, nonostante l'oscurità che circonda la natura delle percezioni e la nostra incapacità a spiegarle in termini meccanicisti. Po­ trà allora essere possibile specificare le modalità di filtrag­ gio ed elaborazione delle informazioni in base alle quali gli animali classificano il proprio mondo visivo e determinano il proprio comportamento come risposta a stimoli visivi. Que­ sto modo di affrontare il problema può anche lasciare insod­ disfatto il filosofo interessato all'esperienza percettiva in sé e per sé, ma è certamente un metodo remunerativo in termi157

ni di progressi concreti, che promette di fornirci spiegazioni complete, autosufficienti e mai banali.

R:IFERIMENTI BIBLIOGRAFICI Barlow, H.B. (1972), Single Units and Sensation: a Neuron Doctrine for Perceptual Psychology, in "Perception", l, pp. 371-394. Barlow, H.B. (1986), The Biologica[ Role of Consciousness, in C. Bla­ kemore e S. Greenfield (a cura di), Mind Waves, Blackwell, Ox­ ford. Blakemore, C. (1975), Centrai Visual Processing, in M.S. Gazzanaga e C. Blakemore (a cura di), Handbook of Psychobiology, Acade­ mic Press, New York. Blakemore, C. (1977), Mechanics of the Mind, Cambridge University Press, Cambridge (trad. it. I meccanismi della mente, Editori Riuniti, Roma 1981). Blakemore, C. (1985), The Nature of Explanation in the Study of the Brain, in C.W. Coen e (a cura di), Functions of the Brain, Oxford University Press, Oxford. Calford, M.B., Graydon, M.L., Huerta, M.F., Kaas, J.H. e J.D. Petti­ grew (1985), A variant of the Mammalian Somatropic Map in a Bat, in "Nature", 313, pp. 477-479. Dennett, D.C. (1989), Il mito dell'intenzionalità originaria, in questo volume, pp. 18-39. Cartesio, R. (1986), Traité de l'homme, trad. it. in R. Cartesio, Opere:

Il mondo, L 'uomo, Discorso sul metodo, Meditazioni metafisi­ che, Mondadori, Milano. Gibson, J.J. (1979), The Ecologica[ A,pproach to Visual Perception,

Houghton Mifflin, Boston. Hermstein, R.J. (1984), Objects, Categories, and Discriminative Sti­ muli, in H.L. Roiblat, T.G. Bever e H.S. Terrace (a cura di), Ani­ mal Cognition, Lawrence Erlbaum Associates, Hillsdale (N.J.). Hofstadter, D.R. e D.C. Dennett (1981), The Mind's I, Basic Books, New York (trad. it. L 'io della mente, Adelphi, Milano 1985). Hubel, D.H. e T.N. Wiesel (1977), Functional Architecture of Maca­ que Monkey Visual Cortex, in "Proc. Roy. Soc. B.", 198, pp. 1-59. Locke, J. (1951), Essay Concerning Human Understanding (1690), trad. i t. Saggio sull'intelletto umano, Laterza, Bari. McCorduck, P. (1979), Machines Who Think, W.H. Freeman, San Francisco. McGinn, D. (1982), The Character of Mind, Oxford University Press, Oxford. Marr, D. (1982), Vision, W.H. Freeman, San Francisco. Médawar, P.B. (1982), Pluto 's Republic, Oxford University Press, Ox­ ford. Mollon, J.D. (1977), Neurons and Neural Codes. Neural Analysis, in K. von Fiendt e I.K. Moustgaard, The Perceptual World, Acade­ mic Press, London, capp. 3 e 4. 158

Movshon, J.A. e R.C. Sluyters (1981), Visual Neural Development, in "Ann. Rev. Psychol.", 32, pp. 477-522. Nagel, T. (1981), What is it like to be a bat?, in "The Philosophical Review", ora in D.R. Hofstadter e D.C. Dennett, The Mind's I, ci t. Parker, A. e M. Hawken (di prossima pubblicazione), The Capabili­ ties of Monkey Cortical Cells in Spatial Resolution Tasks, in "J. Opt. Soc. Amer." Poggio, T. (1989), Visione: l' "altra" faccia dell'intelligenza artificiale, in questo volume, pp. 278-297. Searle, J. (1984), Minds, Brains and Science, BBC Publications, London. Strawson, P.F. (1959), Individuals Methuen, London (trad. it. Indivi­ dui, Feltrinelli, Milano 1978). Van Essen, D.C. e J.H.R. Maunsell (1983), Hierarchical Organization and Functional Streams in the Visual Cortex, in "Trends in Neu­ rosciences", 6 (9), pp. 370-375. Wall, P.D. (1985), Pain and No Pain, in C.W. Coen (a cura di), Func­ tions of the Brain, Oxford University Press, Oxford. Zeki, S.M. (1974), The Mosaic Organization of the Visual Cortex in the Monkey, in R. Bellairs e E.G. Gray (a cura di), Essays on the Nervous System, Clarendon Press, Oxford.

159

L'intelligenza naturale nella scienza della me n te e del cervello di Karl H. Pribram

Introduzione storica La riflessione contemporanea sul problema mente-cervel­ lo ha avuto inizio con Ernst Mach e la scuola positivista. Mach era un dualista e un parallelista: pensava che la mente e il cervello, pur avendo struttura identica, fossero entità radi­ calmente distinte. Da questa posizione hanno avuto origine due correnti di pensiero principali, centrate su aspetti diversi del problema. Secondo la prima di queste correnti, il cervello e la mente, pur essendo distinti, interagiscono l'uno con l'al­ tra secondo modalità che, naturalmente, bisogna spiegare. A questo riguardo Popper ha sostenuto che i processi mentali creano un "terzo mondo" (il mondo del linguaggio e della cul­ tura), che a sua volta è in grado, attraverso i sensi, di influen­ zare il meccanismo cerebrale. La mente stessa emergerebbe dall'operare del cervello, cioè da quei processi motori e senso­ ri che mettono in relazione il cervello con l'ambiente dell'or­ ganismo. La seconda di queste correnti di pensiero ha invece avuto i suoi esponenti di maggior rilievo fra i filosofi del Circolo di Vienna, e in Feigl in particolare. Questi pensatori avevano in­ dividuato un particolare problema nella posizione di Mach: che cosa si intende veramente quando si parla di identità strutturale fra mente e cervello? Secondo Feigl, coerentemen­ te con la tradizione positivista, il fondamento di tale identità va ricercato nel linguaggio: la lingua della mente e quella del cervello non sarebbero che aspetti diversi di una medesima struttura machiana (?) sottostante. Ciò significava spostare l'enfasi sull'identità strutturale e, in ultima istanza, abbando­ nare il dualismo in favore di una posizione monistica. 1 60

Al di là dei propri meriti, tanto la posizione di Popper quanto quella di Feigl fanno sorgere nuovi problemi che ri­ chiedono una più approfondita riflessione. La corrente di ispirazione popperiana deve spiegare, ad esempio, l'essenza del linguaggio e della cultura (che hanno una così profonda e immediata influenza sul cervello), nonché la natura del terzo mondo, mentre dal punto di vista di Feigl non è affat­ to chiaro quale sia il riferimento dei diversi aspetti dell'uni­ co sostrato che è alla base della mente e del cervello. Voglio rispondere a queste domande dal punto di vista dello scien­ ziato, piuttosto che da quello del filosofo: non cercherò di spingere questi programmi teorici fino ai loro limiti logici, ma tenterò di individuare l'insieme di dati o di fenomeni a cui ognuno di essi fa riferimento. Ne risulterà una forma di monismo neutrale rispetto al dualismo mente-cervello e su­ scettibile di realizzazioni diverse. La molteplicità degli aspetti descrittivi è rimpiazzata dal pluralismo delle inter­ pretazioni, aprendo una nuova dicotomia fra gli ordini po­ tenziali e le loro realizzazioni.

La smaterializzazione dell'energia C'è un assunto fondamentale senza il quale il problema mente-cervello non avrebbe senso, ed è quello secondo cui i fenomeni mentali sono essenzialmente diversi dall'universo materiale. Questo assunto riceve sostegno da un'analisi eu­ clideo-newtoniana nel dominio ordinario delle apparenze, nel senso che è possibile descrivere la situazione in termini dualistici in modo chiaro e completo, come vedremo. Ciò che invece non è affatto ovvio è la relazione fra il mentale e il materiale, relazione che è stata spesso trascurata in favo­ re della corrispondente dicotomia. La fisica moderna ha concentrato la propria attenzione sull'universo macroscopico, da un lato, e su quello micro­ scopico dall'altro, scegliendo sempre così un livello di anali­ si in cui il dualismo fra materiale e mentale non si pone nemmeno come problema. Tanto il principio di complemen­ tarità di Niels Bohr quanto quello di indeterminazione di Werner Heisenberg attribuiscono all'osservatore un ruolo essenziale nella comprensione del fenomeno osservato (vedi Bohr, 1 966 e Heisenberg, 1 959). La microfisica e la macrofi­ sica moderne, come ha efficacemente notato Eugene P. Wi­ gner, non hanno più per oggetto "relazioni fra oggetti osser­ vabili, ma relazioni fra osservazioni diverse" (vedi Wigner, 1 969). 161

La fisica si trova certamente in difficoltà a distinguere in modo netto gli enti osservabili dall'atto della loro osservazio­ ne, ma una tale difficoltà, si potrebbe obiettare, è solo tem­ poranea, superficiale, e di nessun interesse per il filosofo che va alla ricerca di verità eterne. Non è questo, tuttavia, che Bohr e Heisenberg hanno cercato di dirci quando hanno spinto lo scandaglio della scienza in un mondo in cui il di­ scrimine fra mentale e materiale è fastidiosamente labile, in un senso niente affatto secondario del termine. Le argomen­ tazioni che presenterò più avanti aiuteranno, spero, a com­ prendere la posizione di questi due grandi della fisica mo­ derna. Non è difficile rintracciare le origini di questo processo di "smaterializzazione della materia". Ad esempio, la fisica era una disciplina concettualmente trasparente ai tempi di James C. Maxwell, quando si pensava che le onde luminose si propagassero nell' "etere". In seguito i fisici abbandonaro­ no il concetto di etere, conservando però le equazioni d'onda sviluppate da Maxwell e, più recentemente, da Schroedinger e de Broglie (vedi Schroedinger, 1 928 e de Broglie, 1 964). È facile concettualizzare la propagazione delle onde in un mez­ zo, assumendo magari come modello lo spostamento delle onde sonore nell'aria, ma che cosa si intende dire afferman­ do che la luce o altre radiazioni elettromagnetiche "viaggia­ no" nel vuoto ? Solo ora i fisici stanno cominciando a riflette­ re sul problema: là dove si pensava non vi fosse nulla si sco­ prono concentrazioni di energia, intese come capacità di in­ teragire con la materia e compiere un lavoro. Tale potenzia­ lità (questa è la mia proposta) è in effetti neutrale rispetto al dualismo mentale-materiale.

Energia ed entropia (struttura informativa) come potenziale neutrale Nella scienza questi potenziali sono definiti in riferimen­ to al lavoro, effettivo o possibile, necessario per realizzarli, e cadono sotto il nome generico di "energia". Quindi, realiz­ zazioni multiple implicano un monismo neutrale in cui l'es­ senza, cioè il potenziale di realizzazione, è costituito dall'e­ nergia. E, come si afferma nel secondo principio della ter­ modinamica, l'energia è entropica, ovvero dotata di strut­ tura. Heisenberg (1 969) ha sviluppato una teoria matriciale per la comprensione dell'organizzazione dei potenziali di ener­ gia, teoria ora usata nelle matrici-S, nelle teorie quantistiche 1 62

del bootstrap* e in fisica nucleare da Henry Stapp (1 965) e Geoffrey Chew (1 966). Questi studiosi (insieme ad altri, fra cui Dirac, 1906) hanno messo in luce come sia possibile correlare una misura di un potenziale di energia a una misura di una lo­ cazione nello spazio-tempo per mezzo di una trasformazione di Fourier. Secondo il teorema di Fourier, si può rappresentare qualsiasi configurazione regolare mediante una serie di forme d'onda di diversa ampiezza e frequenza. Tali forme d'onda pos­ sono a loro volta venir sovrapposte e intrecciate l'una con l'al­ tra per mezzo della trasformazione inversa per ottenere la con­ figurazione originale. Il motivo per cui si usa una trasforma­ zione matematica di questo tipo è che in questo modo è possibi­ le mettere in relazione configurazioni diverse. La trasforma­ zione di Fourier di un insieme di configurazioni correlate ha un'organizzazione diversa rispetto a quella mostrata dallo stesso insieme dopo che è stata effettuata la trasformazione in­ versa. Dal punto di vista di Stapp e Chew, ciò significa che l 'orga­ nizzazione dei potenziali di energia è considerevolmente diver­ sa dall'organizzazione spazio-temporale delle nostre percezio­ ni ordinarie, percezioni che possono essere espresse in termini euclidei, cartesiani e newtoniani. David Bohm (197 1 ; 1 973) ha caratterizzato queste forme non classiche di organizzazione dei potenziali di energia come "implicate" o avviluppate (enfol­ ded), assumendo il caso dell'ologramma a esempio paradigma­ tico di questo tipo di ordine. Dennis Gabor (1 946; 1948), l'inven­ tore dell'ologramma, prese le mosse dal fatto che è possibile memorizzare su una pellicola fotografica i modelli di interfe­ renza delle forme d'onda prodotte dalla riflessione o dalla ri­ frazione della luce su di un dato oggetto, e ricostruire, quindi, l' immagine dell'oggetto a partire dalla pellicola. È ancora una volta una trasformazione di Fourier che permette di passare dalla descrizione dell'organizzazione avviluppata del potenzia­ le alla descrizione spazio-temporale "distesa" dell'oggetto. Il teorema di Fourier ha un ruolo importante anche in mol­ te recenti scoperte compiute dalla scienza del cervello. Alla fi­ ne degli anni sessanta in molti laboratori si cominciò a pensare che gran parte dei risultati sperimentali della ricerca visiva potessero essere spiegati ricorrendo al concetto di "frequenza spaziale". Il termine fu coniato da Fergus Campbell e John * La parola bootstrap (calzastivali)- donde l'espressione inglese on boot· strap, di cosa fatta senza aiuti esterni - ha trovato larga applicazione in cam­ po tecnico-scientifico: per esempio, un bootstrap process è, in aeronautica, un processo autoalimentato, un bootstrap system è, nel linguaggio dei computer, un sistema capace di autocaricarsi. La parola bootstrap consente sempre il si­ gnificato di coerenza interna, di qualcosa che non rimanda ad altro. [N. d. T.]

163

Robson (1968) dell'università di Cambridge per rendere conto di alcune inattese regolarità riscontrabili nei dati sperimenta­ li da essi raccolti. In particolare, le risposte a griglie di diversa ampiezza e spaziatura sembravano essere funzione non solo della griglia che veniva mostrata, ma anche di altri aspetti del­ l'immagine. Questi fenomeni risultavano più chiari se si de­ scrivevano le griglie in termini di forme d'onda regolari di una data frequenza e le loro regolarità in termini di armoniche. Poiché la frequenza era determinata dalla spaziatura della gri­ glia, il termine "frequenza spaziale" sembrò il più adatto a de­ scrivere il fenomeno. Vi è naturalmente una relazione fra le frequenze spaziali e quelle temporali: se si scandisce la griglia per mezzo di un raggio che si muove a velocità costante si ot­ tiene una descrizione della frequenza temporale. È per questo che i fisici usano l'espressione "numero d'onda" in riferimento a questa forma di descrizione delle configurazioni regolari. Alla fine degli anni cinquanta David Hubel e Thornsten Wiesel (1 959; 1 968) scoprirono che la risposta delle cellule della corteccia visiva era maggiore se il sistema visivo era stimolato mediante linee poste secondo un certo orientamen­ to, e nella prima metà degli anni settanta Daniel Pollen e al­ tri (197 1 ; 1 974) notarono che la risposta delle cellule al moto di tali linee orientate nel campo visivo non era uniforme, ma poteva essere descritta da una forma d'onda simile a quella usata da Fergus Campbell. Nel frattempo quest'ultimo aveva mostrato che le risposte delle singole cellule della corteccia visiva si conformavano alle armoniche della griglia che rap­ presentava lo stimolo, esibendo così un comportamento si­ mile a quello dell'intero organismo in generale (vedi Camp­ bell, 1 974). Infine, Russell e Karen De Valois provarono che l'orientamento della linea nel campo visivo, da solo, non per­ mette una descrizione accurata del comportamento delle cel­ lule della corteccia visiva, che sembra piuttosto in sintonia con la frequenza spaziale della griglia, in uno spettro di valo­ ri che va da un mezzo a un ottavo (vedi Russell, 1 948; De Va­ lois e De Valois, 1 980; De Valois, De Valois e Yund, 1 979; De Valois, Albright e Thorell, 1 978a; De Valois, Albright e Tho­ rell, 1978b). Questi stessi scienziati, inoltre, dimostrarono che le cellule del sistema visivo, stimolate con disegni a scac­ chi o di tipo "scozzese", hanno risposta massima in corri­ spondenza della trasformazione di Fourier delle configura­ zioni spaziotemporali (calcolata mediante un elaboratore elettronico), e che queste cellule sono essenzialmente insen­ sibili all'orientamento delle singole linee che compongono il di segno. Sembra dunque che il sistema visivo operi una tra­ sformazione di Fourier sull'immagine che colpisce la retina. 1 64

L'immagine ottica è decomposta nelle sue componenti di Fourier: forme d'onda regolari di diversa ampiezza e fre­ quenza. Le cellule del sistema visivo rispondono all'una o al­ l'altra di queste componenti e costituiscono così, nel loro in­ sieme, un filtro in grado di elaborare un'immagine ottica; ta­ le filtro è simile a quello che permette, in un ologramma, di ricostruire l'immagine a partire dalla trasformazione in­ versa. Tuttavia, vi sono alcune importanti differenze fra gli or­ dinari ologrammi fotografici e il sistema nervoso visivo. Gli ologrammi sono composti mediante una trasformazione di Fourier globale che distribuisce le informazioni contenute in un'immagine spazio-temporale sul suo intero dominio. Nel sistema nervoso visivo la distribuzione è anatomicamente li­ mitata alle informazioni incanalate verso una particolare cellula corticale. D'altra parte, vi sono tecniche olografiche che usano costruzioni molteplici (o "a toppe") simili a quelle del sistema nervoso. Bracewell (1 965) fu fra i primi ad appli­ care queste tecniche quando, all'Università di Stanford, riu­ scì a comporre le trasformazioni olografiche di settori limi­ tati del cielo, così come appaiono al radiotelescopio. Appli­ cando la trasformazione inversa, si ha un'immagine spazio­ temporale globale in tre dimensioni. Per di più, la trasformazione che meglio descrive il fun­ zionamento del sistema visivo non è stata sviluppata da Fou­ rier, ma da Gabor, limitando, mediante l'imposizione di un involucro gaussiano, la trasformazione di Fourier. È solo un altro modo per asserire che la trasformazione non è globale e determinarne i limiti con precisione matematica. La disposizione dei canali visivi rispetto alle cellule corti­ cali non è affatto casuale. Le relazioni spaziali delle diverse zone della retina sono mantenute e conservate nella cortec­ cia visiva. Abbiamo così che da un lato il filtro visivo "a gra­ na grossa" determina le coordinate spazio-temporali, mentre dall'altro vi è un filtraggio "a grana fine" che descrive le componenti di Fourier dell'immagine. E chiaro quale sia il vantaggio di questa organizzazione "a grana fine", simile a quella degli ologrammi: nel dominio di arrivo della trasformazione è molto più facile mettere le diverse configurazioni in rapporto l'una con l'altra, determi­ nandone le relazioni reciproche. Per questo stesso motivo la trasformazione di Fourier veloce (FFT, Fast Fourier Tran­ sform), calcolata su di un elaboratore elettronico, è uno stru­ mento di così larga utilizzazione nell'analisi statistica e nella tomografia computerizzata. Analogamente, il cervello è in grado di correlare le diverse configurazioni fra loro in modo 1 65

altamente efficiente grazie alle sue capacità di elaborazione "a grana fine ". Le proprietà duali dell'organizzazione avviluppata a gra­ na fine (tecnicamente: l'organizzazione del campo recettivo) e di quella spazio-temporale a grana grossa valgono anche per altre modalità sensorie, anche se le risultanze sperimen­ tali non sono altrettanto complete e univoche. Georg von Be­ kesy (1 967) ha condotto importanti studi sulle modalità audi­ tive e somestetiche, Walter Freeman (1 960) su quelle olfatti­ ve, mentre Pribram e altri (1 984) hanno mostrato che le cel­ lule della corteccia senso-motoria sono sintonizzate su speci­ fiche frequenze di movimento. Contemporaneamente, in ognuno di questi sistemi sensori, l'organizzazione spaziale della superficie recettiva è topograficamente rappresentata dalla disposizione dei gruppi di cellule corticali che ricevono il segnale sensorio. In conclusione, sembra proprio che vi sia un'altra classe di ordini al di sotto dell'ordinario livello classico di organiz­ zazione, al di sotto cioè del livello della percezione cosciente che può essere descritta in termini euclidei e newtoniani in un sistema di coordinate cartesiane spazio-temporali. Questa classe di ordini è costituita dall'organizzazione a grana fine dei potenziali il cui processo di realizzazione comporta delle trasformazioni così radicali da rendere difficile la compren­ sione dell'intero fenomeno. Quando un potenziale si realizza, le informazioni in esso contenute si dispiegano nella loro or­ dinaria apparenza spazio-temporale: nella direzione opposta, la trasformazione avviluppa e distribuisce le informazioni così come avviene nel procedimento olografico. Poiché la tra­ sformazione comporta lavoro, è del tutto naturale descrivere il processo in termini di energia, e poiché è la struttura delle informazioni a essere trasformata, è altrettanto naturale usare i concetti di entropia e di entropia negativa (negen­ tropy). Se si vuole comprendere perfettamente il fenomeno, bisogna porre almeno una dualità: da un lato vi sono ordini avviluppati che si manifestano come potenziali di energia; dall 'altro, vi sono ordini dispiegati che si manifestano nello spazio-tempo neghentropico.

Le informazioni sono mentali o materiali? Le forze che si esercitano fra corpi materiali sono spesso concepite come "materiali", benché la materia non entri af­ fatto nella loro costituzione. Così, ad esempio, quando ponia­ mo in relazione l'energia e la materia per mezzo dell'equazio1 66

ne E = mc2, assumiamo che l 'energia sia "materiale". Così facendo, tuttavia, attribuiamo al segno d'uguaglianza il si­ gnificato sbagliato. Il segno "=" non indica identità, perché altrimenti dalle asserzioni "2 + 2 = 4" e "2 X 2 4" sareb­ be possibile dedurre l 'identità di "+" e " X ", cosa che chiara­ mente non è. 2 + 2 e 2 x 2, pur essendo uguali, non sono identici e dunque, in un certo senso, sono diversi. Questa è una distinzione che ho dovuto fare spesso, specialmente pre­ sentando le risultanze sperimentali secondo cui l'uomo e la donna sono biologicamente e psicologicamente differenti: ta­ li risultanze non implicano che siano diseguali. L'energia non è materiale, può però essere trasformata in materia: la si può misurare mediante la quantità di lavoro che permette di svolgere, lavoro la cui efficienza ed economi­ cità dipende dall'organizzazione dell'energia, cioè dal suo grado di entropia. Con l'invenzione del tubo a vuoto e degli strumenti che questo ha permesso di costruire si è avuta la dimostrazione di quanto possano fare piccole quantità di energia, purché adeguatamente strutturate, come veicolo di informazione e organizzazione dell'energia Misure d'informazione ed entropia sono dunque stretta­ mente correlate, e come tali sono state considerate, ad esem­ pio da Brillouin (1 962) e Weizsacker (1 974). Per elaborare le informazioni si sono costruiti i calcolatori elettronici, le cui operazioni sono controllate per mezzo di programmi apposi­ tamente scritti. Le informazioni contenute in questi ultimi sono "materiali" o "mentali" ? E quelle contenute in un libro? Che dire poi dell'entropia che descrive il comportamento del motore termico o di un mammifero a sangue caldo ? Di fronte a queste domande si evidenzia il limite dell'uti­ lità di una distinzione tra il "materiale" e il "mentale". =

Gerarchia, causalità reciproca e identità mente-cervello A questo punto può forse tornare utile considerare più nei particolari il processo di elaborazione delle informazioni così come è eseguito da un calcolatore controllato da un pro­ gramma: in tale processo emergono infatti con inaspettata chiarezza gli stessi problemi posti dalla questione mente-cer­ vello. Il calcolatore non è un cervello, e i programmi che lo controllano sono un prodotto dell'uomo. Ciò nonostante, è possibile costruire un'utile metafora del problema mente­ cervello, in cui alla distinzione fra cervello, mente e anima corrisponde quella fra macchina (hardware), programmi di basso livello (codici) e programmi di alto livello (software). I 167

programmi di basso livello, scritti in codice macchina o in linguaggio assemblatore, possono essere eseguiti solo su un particolare tipo di elaboratore, e hanno in genere una logica molto simile a quella della macchina per cui sono stati scrit­ ti. D'altra parte, i linguaggi di alto livello come il Fortran, l'Algol e il Pasca! sono di applicazione universale, e vi è una somiglianza meno immediata fra la loro logica implicita e quella delle macchine. Al livello più alto vi sono i linguaggi come l'inglese o l'italiano, che vengono a volte usati, in certe applicazioni, per dare comandi alla macchina e le cui parole hanno sempre una forte connotazione sociale. Facendo riferimento al modello dei programmi per calco­ latore è possibile far chiarezza rispetto ad alcuni dei proble­ mi posti dalla tesi dell'identità di mente e cervello. Poiché l'introspezione non ci fornisce alcun accesso alle funzioni del tessuto nervoso che costituisce il cervello, non è affatto facile capire che cosa si intenda affermando che i processi mentali e quelli cerebrali sono identici. Tuttavia, grazie all'a­ nalogia calcolatore-programma, sembra di poter suggerire che le operazioni mentali e il sostrato organico su cui sono eseguite abbiano in comune un qualche tipo di ordine che ri­ mane invariante attraverso le varie trasformazioni. I termini più usati per descrivere tale invarianza sono quelli di "infor­ mazione" (nelle scienze cognitive e in quelle del cervello) e di "struttura" (in linguistica e in musica). Gli ordini invarianti non si trovano soltanto nei calcolato­ ri o nei loro programmi; siamo in grado di riconoscere una sonata di Beethoven o una sinfonia di Berlioz sia leggendone la partitura, sia assistendo a un concerto dal vivo, sia infine ascoltandone la riproduzione su un sistema stereofonico, e nelle più varie condizioni ambientali. Le informazioni che la compongono e la loro struttura sono riconoscibili indipen­ dentemente dalla modalità della loro realizzazione. Si posso­ no dare a una stessa forma musicale supporti materiali di­ versi, senza intaccarne le proprietà essenziali. In questo sen­ so la tesi dell'identità mente-cervello, nonostante la sua ap­ parenza realistica, è in realtà una forma di platonismo, non lontana dalla posizione secondo cui gli universali sono ordini ideali la cui realizzazione deve essere pensata come caduta nel regno fallibile della materia. Quando il progettista disegna un nuovo linguaggio di pro­ grammazione, ciò che in realtà sta facendo è trasferire (o realizzare) in una macchina una struttura e delle informazio­ ni. In tutte le gerarchie, tanto in quelle biologiche quanto in quelle computazionali, vi è un particolare meccanismo per cui i livelli superiori controllano quelli inferiori e ne sono a 168

loro volta controllati. Questa forma di causalità reciproca è veramente onnipresente fra i sistemi viventi: il livello di ani­ dride carbonica presente nei tessuti controlla il meccanismo respiratorio nervoso e da esso è controllato. In origine consi­ derato un principio regolativo teso al mantenimento di un ambiente costante, la causalità reciproca è ora nota come "omeostasi". I meccanismi di retroazione (feedback) sono al­ la base di tutti i processi sensori, motori e, più in generale, di tutti i processi nervosi centrali. Quando questi meccani­ smi sono organizzati in una struttura parallela, danno origi­ ne a un sistema di controllo a cascata che è molto simile a quello che sovrintende all'interpretazione delle parole nei linguaggi di programmazione. Analogamente, lo studio della programmazione permette di analizzare l'evoluzione degli strumenti linguistici che met­ tono in relazione i diversi livelli dei linguaggi dei calcolatori. I calcolatori digitali a logica binaria richiedono un linguag­ gio di basso livello, codificato usando i numerali O e l, che posizioni una serie di cambiamenti a due stati. Al livello im­ mediatamente superiore, è possibile raggruppare questi cambiamenti in modo che le cifre binarie (bit) diano origine a un codice più complesso: le parole di questo codice sono byte, e a ognuna di esse è assegnata un'etichetta alfanumeri­ ca. Così ad esempio la configurazione 00 1 diventa l, quella 010 diventa 2, e quella 1 00 diventa 4. Ammesso che 000 sia O, abbiamo ora otto possibili combinazioni, ognuna delle quali è un byte ottale. Il procedimento è ripetuto al livello successivo, raggrup­ pando i byte in parole riconoscibili. Così 1 734 diventa l'istru­ zione ADD, 205 1 diventa SKIP, e così via. Nei linguaggi di alto livello, infine, i gruppi di parole costituiscono delle routine che possono essere eseguite per mezzo di un solo comando. Sembra probabile che vi sia una qualche forma di inte­ grazione gerarchica che mette in relazione i processi mentali con il cervello. I meccanismi sensori trasformano configura­ zioni di energia fisica in configurazioni di energia neuronica. La retina e la coclea sono meccanismi di questo tipo, ma es­ sendo analogici piuttosto che digitali, il processo di trasdu­ zione è considerevolmente più complesso di quello che avvie­ ne negli elaboratori elettronici. Ciò nonostante, gran parte della ricerca in neurofisiologia ha per oggetto la corrispon­ denza che lega lo stimolo fisico alla risposta neuronica. Quanto più complesso diventa lo stimolo, tanto più si tratta di confrontare delle configurazioni fisicamente determinate con l'esperienza soggettiva da esse prodotta, registrando modelli della risposta dei centri sensori del cervello. 169

Questi confronti hanno permesso di stabilire che fra la superficie del recettore e la corteccia cerebrale il segnale sensorio subisce tutta una serie di trasformazioni che posso­ no essere espresse matematicamente come funzioni di tra­ sferimento (transfer functions). Quando le funzioni di trasfe­ rimento, che descrivono il comportamento del centro senso­ rio, danno in uscita configurazioni identiche a quelle in in­ gresso, queste configurazioni sono dette geometricamente isomorfe. Se invece le funzioni di trasferimento sono lineari (cioè sovrapponibili e invertibili), le configurazioni sono det­ te secondariamente o algebricamente isomorfe. Analogamen­ te a quanto avviene nella programmazione dei calcolatori, vi sono diversi livelli di elaborazione del segnale, ognuno dei quali opera delle trasformazioni che progressivamente ne al­ terano la forma, mantenendone però intatta la struttura fon­ damentale e preservandone le informazioni. In breve, chi sostiene la tesi dell'identità mente-cervello si impegna anche a spiegare in che cosa, esattamente, essi siano identici. Vi deve essere qualcosa che rimane costante attraverso tutte le operazioni di codifica che traducono le parole di un linguaggio di alto livello in codice macchina, e viceversa, altrimenti il calcolatore non potrebbe funzionare correttamente. L'identità implica causalità reciproca fra i li­ velli strutturali contigui di un sistema complesso, ma con­ trariamente a quanto pensano molti filosofi, ciò non compor­ ta necessariamente un isomorfismo algebrico né, tantomeno, un isomorfismo geometrico. Ogni livello strutturale è distin­ to da quello precedente per il fatto che la sua descrizione, ovvero il suo codice, è in un qualche senso non banale più ef­ ficiente e richiede meno lavoro di quella dei suoi componen­ ti. Le operazioni di codifica che mettono in relazione il livel­ lo cerebrale con quello mentale sono più universali di quelle che permettono il funzionamento dei calcolatori, e almeno alcune di esse sono ormai note, dopo più di un secolo e mez­ zo di ricerca cognitiva, psicofisica e neuropsicologica.

Comportamento ed esperienza L'adozione di tecniche comportamentali nello studio del­ la "mente" rende più sfumata una distinzione che è assai net­ ta nel dominio euclideo-newtoniano delle apparenze. Come abbiamo visto, è possibile giungere a una vera comprensio­ ne dell'organizzazione del comportamento usando i concetti di "informazione", "programma" e "piano", che sono anche quelli che meglio descrivono le operazioni di una macchina 170

(vedi Miller, Gallanter e Pribram, 1960). Ma, ancora una vol­ ta, si tratta di decidere se il processo di elaborazione delle informazioni debba essere concepito in termini mentali o materiali. Di certo i filosofi e gli psicologi di orientamento non com­ portamentista obietteranno che il comportamento non ha nulla a che fare con la mente, e che quindi qualsiasi argo­ mentazione concernente i fenomeni mentali, derivata dalla riflessione sul comportamento deve considerarsi spuria. Il vero oggetto della riflessione filosofica o psicologica dovreb­ be essere, secondo costoro, "il fenomeno stesso esistenzial­ mente sperimentato", ma poco può essere fatto con questo tipo di esperienze, eccetto che tentare descrizioni comporta­ mentistiche strutturalmente organizzate. Capita così che un filosofo esistenzialista come Maurice Merleau-Ponty abbia scritto un libro, intitolato La struttura del comportamento (vedi Merleau-Ponty, 1 942), che somiglia sorprendentemente, tanto nello spirito quanto nel contenuto, a Plans and the Structure of Behavior (Miller, Gallanter e Pribram, 1 960; ma vedi anche Pribram, 1 965), che ha tuttavia il vantaggio di as­ sumere in modo esplicito un punto di vista comportamenti­ sta attento ai processi di elaborazione delle informazioni. Non sto dicendo che il punto di vista comportamentista sulla mente sia del tutto equivalente a quello fenomenico-esisten­ zialista: mentre il primo è una forma di ricerca delle cause, il secondo assume a proprio oggetto la struttura informativa ragionevolmente (significativamente) organizzata (vedi Pri­ bram, 1 978). È un altro l'aspetto che mi preme mettere in evidenza: non è possibile ricondurre a una posizione chiara­ mente mentalista o chiaramente materialista né il comporta­ mentismo né la fenomenologia. I comportamentisti, nella lo­ ro ricerca delle cause, fanno continuamente riferimento ai concetti di rinforzo, impulso, incentivo e ad altre "forze" dal­ la indubbia connotazione newtoniana. Gli esistenzialisti, nel loro sforzo di comprendere la "mente", ricorrono alla stessa nozione di struttura utilizzata da antropologi e linguisti nel­ lo studio di altre organizzazioni complesse. E i concetti strutturali sono molto simili a quelli della fisica moderna, in cui l'origine delle particelle elementari è ricondotta alle inte­ razioni e alle relazioni reciproche di processi diversi. Il com­ portamentismo e l'esistenzialismo fenomenologico non pos­ sono essere caratterizzati univocamente in senso mentalisti­ co o materialistico se non solo sulla base dei pregiudizi e delle idiosincrasie di ognuno. Questi risultati scientifici, su cui forse mi sono troppo di­ lungato, hanno conseguenze non trascurabili anche sul piano 171

dell'antologia. Se il problema mente-cervello è basato su una distinzione fra mentale e materiale che a un certo livello di analisi non risulta più sostenibile, è allora del tutto verosi­ mile che l'intero problema debba essere ripensato. Una volta adottato il punto di vista secondo cui la dicoto­ mia mentale-materiale trova diritto di cittadinanza soltanto nel mondo euclideo-newtoniano delle apparenze, apprestia­ moci a passare in rassegna alcune delle più recenti proposte specifiche avanzate relativamente a questo problema.

L'importanza dell'esperienza e l'esperienza della materia In questo mondo di apparenze non vi è nulla di più pro­ blematico della distinzione fra le esperienze mentali umane e ciò che viene sperimentato. Nella terminologia di Franz C. Brentano ( 1 874), si tratta del problema dell' "intenzionalità" o dell'inesistenza intenzionale, problema che ha originato in­ numerevoli dispute e argomentazioni concernenti la natura della realtà (vedi Crisholm, 1 960) e che può essere così for­ mulato: le mie percezioni ed esperienze fenomeniche sono "reali", oppure è il loro contenuto a costituire il mondo "rea­ le" ? Le mie esperienze fenomeniche sono mentali, ma il mon­ do mi appare come se fosse materiale. Posso allora ricono­ scere il primato dell'esperienza e sposare la tesi fenomenolo­ gica, oppure posso ricondurre l'esperienza al suo contenuto e diventare un materialista. È aperta tuttavia anche una ter­ za possibilità, e precisamente quella di rifiutarsi di attribui­ re un primato all'una o all'altra parte e riconoscere franca­ mente la natura duale della realtà. Tanto il materialismo quanto la fenomenologia si trovano chiaramente in difficoltà nel confutare la posizione opposta. Entrambi sono internamente coerenti, almeno per quanto ri­ guarda la rivendicazione del primato. Dopo tutto, ciò che è veramente fondamentale è l'esperienza, e l'empirismo non ha nulla da obiettare a un mondo reale materiale. Poiché ci sembra di esperire effettivamente qualcosa, potrebbero esse­ re gli oggetti esperiti i responsabili dell'organizzazione delle nostre esperienze. Tuttavia, se accettassimo questa posizione moderata rela­ tiva alla mente e alla materia, non potremmo fare a meno di scontrarci con una quantità di problemi dualistici. È l'espe­ rienza di chi percepisce a organizzare "realmente" il conte­ nuto della percezione? E quest'esperienza è a sua volta orga­ nizzata dalla funzione cerebrale, dal segnale sensorio e dalle diverse forme di energia che stimolano gli organi di senso ? 1 72

Se si potesse descrivere in modo completo la funzione cere­ brale di un organismo, avremmo al tempo stesso dato una de­ scrizione della sua esperienza? E se così fosse, non sarebbe sufficiente dare una descrizione materiale del cervello, dei sensi e dell'energia? La descrizione dell'esperienza aggiunge qualcosa alla descrizione materiale ? E, viceversa, come può la descrizione materiale del cervello, dei sensi e dell'energia aggiungere qualcosa alla nostra esperienza già così ricca ?

Superare il dualismo senza rinnegarlo Io credo che oggi sia possibile dare una risposta a questi interrogativi, che fino a pochi anni fa sembravano destinati a rimanere insoddisfatti. A tale scopo bisogna dipanare tutte le confusioni concettuali, mostrando dove e in che misura cia­ scuna delle teorie concorrenti esprima una parte di verità. L'analisi semantica rivela come la descrizione del cervel­ lo, dei sensi e dell'energia derivi dalla scomposizione dell'e­ sperienza. Si giunge così in un primo momento a componenti esperienziali di tipo organico e ambientale (componenti biolo­ giche da un lato e fisiche o sociali dall'altro), che sono poi ul­ teriormente analizzate in sottocomponenti fino a raggiungere il livello quantistico-nucleare. Questa procedura analitica te­ sa all'esplorazione dall'alto verso il basso di una gerarchia di sistemi è il metodo usuale della scienza descrittiva. All'inter­ no di ogni singolo sistema si ricercano le relazioni di causa ed effetto, adducendo principi statistici e invocando leggi proba­ bilistiche per spiegare eventuali discrepanze. Queste proce­ dure sono ormai del tutto naturali per gli scienziati. La teoria del linguaggio mentale muove invece da un altro tipo di considerazioni. Anche in questo caso i termini impie­ gati hanno la loro origine nell'esperienza, ma quest'ultima è ora sottoposta a un processo di validazione consensuale. Si confrontano esperienze sensibili di natura diversa in soggetti diversi. Pensiamo ad esempio a una bambina cui sia sempre stato permesso di dire "mucca" ogniqualvolta le veniva indi­ cato un animale di una certa dimensione: incontrando ora un cavallo, la madre decide che è giunto il momento di essere più precisi, e quest'esperienza (la vista di un cavallo) si diffe­ renzia correttamente dalle precedenti esperienze relative alle mucche. È attraverso quest'esplorazione dal basso verso l'al­ to di una gerarchia di sistemi che ha origine la teoria del lin­ guaggio mentale. Altrove ho esposto in ogni particolare le differenze meto­ dologiche derivanti da questa posizione scientifica "rivolta 173

verso l'alto" (vedi Pribram, 1965). È un punto di vista che travalica i limiti della psicologia: le teorie della relatività, speciale e generale, enunciate da Albert Einstein ne costitui­ scono un esempio, rivolte come sono all'indagine di un'orga­ nizzazione gerarchica ascendente di sistemi fisici. Questo ti­ po di relativismo è applicabile anche alle concettualizzazioni mentali, oltre che a quelle fisiche, come hanno dimostrato esistenzialisti e fenomenologi nel loro tentativo di trame principi coerenti. Tale tentativo avrà successo, credo, solo nella misura in cui saprà dotarsi di tecniche di analisi strut­ turale, la cui complessità richiede tuttavia un impegno non indifferente. Se sapranno vincere la propria avversione per i calcolatori e gli altri strumenti solitamente usati dagli inge­ gneri, i filosofi e gli psicologi di orientamento fenomenologi­ co ed esistenziale troveranno le tecniche dell'analisi struttu­ rale estremamente utili. Il dualismo sembra quindi una posizione coerente e per­ fettamente sostenibile finché, almeno, si resta nel dominio ordinario delle apparenze e delle nostre esperienze quotidia­ ne. Queste esperienze, come abbiamo visto, originano due di­ versi tipi di concettualizzazione: l'uno scandisce dall'alto verso il basso una gerarchia di sistemi, scomponendo l'espe­ rienza nei suoi elementi e stabilendo fra questi relazioni ge­ rarchiche causali; l'altro opera invece dal basso verso l'alto, confrontando le esperienze di ciascuno con quelle degli altri organismi per attenerne validazione consensuale. Due immagini speculari (due isomeri ottici, potremmo di­ re) trovano comune fondamento nelle stesse esperienze: di queste immagini una è detta mentale e l'altra materiale. Pro­ prio come gli isomeri ottici in chimica hanno diverse pro­ prietà biologiche, pur avendo identici elementi e identica struttura, così la concettualizzazione mentale e quella mate­ riale, indubitabilmente diverse, originano dalle medesime esperienze. Il fondamento del dualismo è tutto qui: una duplicità di procedure concettuali cui in natura non corrisponde alcuna duplicità reale. Vi sono bensì dualità più primitive e fonda­ mentali, come abbiamo avuto modo di vedere, ma non è a queste che fanno riferimento i sostenitori del dualismo.

Il realismo costruttivo: un monismo pluralistico La maggior parte delle posizioni teoriche che si oppongo­ no al dualismo possono essere catalogate sotto la voce "mo­ nismo". Il monismo afferma che gli elementi fondamentali 174

dell'universo non sono né mentali né materiali, ma neutri. Il processo di smaterializzazione che, al di là di un certo livello di analisi, ha luogo nella fisica moderna, trova il suo corri­ spettivo nel "monismo neutrale" (vedi ad esempio J ames, 1 909, o Russell, 1 948). Fra i filosofi di orientamento critico come Herbert Feigl, coloro che più erano portati per l'analisi linguistica aderirono a questa forma di monismo, sostenendo che il "mentale" e il "materiale" sono semplicemente modi di­ versi per riferirsi alla stessa classe di processi. Così, "mente" e "cervello" sono termini appartenenti a sistemi linguistici di­ versi, usati per parlare di aspetti diversi di uno stesso feno­ meno. Il problema è allora quello del reperimento di un lin­ guaggio neutrale in grado di descrivere il fenomeno senza connotazioni né mentali né materiali. È mia opinione che questa teoria degli "aspetti duali" deb­ ba essere portata ancora più in là: ciascuno di questi aspetti non solo può essere linguisticamente caratterizzato, ma è in realtà una diversa realizzazione di una medesima struttura informativa (vedi Pribram, 1 97 1 ). Il punto di vista del filosofo critico va in un certo senso rovesciato: la struttura informati­ va, ovvero l'organizzazione entropica negativa dell'energia, è l'elemento "neutro" che costituisce l'universo. È una struttu­ ra che può essere pensata sì in termini linguistici, ma anche matematici, musicali, culturali: è ciò che Popper chiama "ter­ zo mondo" (al proposito vedi Eccles, 1 973). Un unico sostrato fondamentale dà luogo a realizzazioni duali o, meglio, multi­ ple: una medesima sinfonia può essere realizzata nella forma di un'esecuzione concertistica, come notazione musicale sul­ lo spartito o nei microsolchi di un disco ad alta fedeltà. I termini "mente" e "cervello" rappresentano due classi di realizzazioni diverse, ognuna delle quali corrisponde a un modo diverso di considerare la gerarchia concettuale dei si­ stemi realizzati. I fenomeni mentali sono altrettanto reali de­ gli oggetti materiali, ed entrambi sono concrezioni di struttu­ re sottostanti che la scienza ha il compito di descrivere in un linguaggio per quanto possibile neutrale, non connotato ri­ spetto all'appartenenza di tali strutture all'una o all'altra classe. È un realismo costruttivo i cui rapporti con il reali­ smo critico, il pragmatismo e il razionalismo neo-kantiano so­ no stati chiariti altrove (vedi Pribram, 1 977a, 1977b).

La mente: struttura emergente e protagonista Quanto siamo venuti dicendo costituisce una teoria coe­ rente in grado di giustificare le posizioni dualiste e, al tempo 175

stesso, di trascenderle mostrando come queste vadano ricon­ dotte a differenze procedurali che realizzano separatamente una struttura comune. Possiamo descrivere quest'ultima, a sua volta, in modo neutro usando termini derivati dalla ma­ tematica o dalla teoria dell'elaborazione delle informazioni, termini che non sono caratterizzabili in modo immediato in senso mentale o materiale. Questa teoria è considerevolmente diversa dalle posizioni dualistiche più classiche secondo cui vi è una netta separa­ zione fra il mentale e il materiale, posizioni cui va ricono­ sciuto il merito di porre problemi e formulare domande che il realismo costruttivo di solito ignora. Non mi sento tuttavia di condividere le soluzioni (o meglio, le non-soluzioni) propo­ ste da altri tipi di dualismo, cui cercherò di offrire un'alter­ nativa nell'ultima sezione di questo articolo. Ma esaminiamo dapprima una proposta teorica che affonda le proprie radici, in senso generale, nel dualismo classico e che è stata formu­ lata da Karl R. Popper e John C. Eccles in un libro intitolato L 'io e il suo cervello (Popper e Eccles, 1 977). L'organizzazione del libro rispecchia le posi;zioni dei due autori: le due sezioni principali sono dedicate alla filosofia della mente (Popper) e alla neurofisiologia del cervello (Be­ cles), mentre una terza ci fa assistere a uno scambio di opi­ nioni in cui l 'attenzione riservata al problema della mente va a scapito di quella che il problema del cervello meriterebbe. Una disparità di trattamento che si accorda con la filosofia degli autori, secondo cui la mente, gentilmente, "con una ca­ rezza cognitiva" (come una volta mi ha detto Eccles), influen­ za e condiziona la funzione cerebrale. Popper non è così deli­ cato riguardo alla funzione della mente e io, devo dire, con­ divido la sua posizione più esplicita: in fondo, non vi è nulla di gentile nella commozione suscitata dalla musica o nelle emozioni provocate dalla rabbia di una persona amata. Il to­ no in certa misura artificiale che permea questa parte del li­ bro è probabilmente dovuto al disaccordo fra Eccles e Pop­ per e al tentativo di risolverlo in modo "gentile" . Purtroppo, le opinioni espresse perdono così molta della loro forza d'im­ patto. Gran parte della suggestione esercitata dall' /o e il suo cervello deriva dal fatto stesso di essere un libro. L'interazio­ nismo di Popper è basato sull'idea che i prodotti della men­ te, i suoi contenuti, si rendano manifesti nel mondo fisico e che da qui, attraverso i sensi, giungano sino al cervello. I li­ bri sono un esempio tipico di realizzazione fisica dei conte­ nuti mentali, e L 'io e il suo cervello mostra una straordinaria corrispondenza fra forma e contenuto: quella, il mezzo, non 176

è che un caso particolare dell'idea generale espressa da questo. Questo è il vero punto di disaccordo fra Popper ed Be­ cles: per il primo i libri e gli altri contenuti della mente co­ stituiscono il mondo 3 che interagisce con il cervello (che è parte del mondo l, quello fisico) attraverso i sensi: la modali­ tà dell'interazione non potrebbe essere più chiara. Per Be­ cles, invece, la mente ha il compito di selezionare il segnale sensorio e organizzare le funzioni della corteccia associativa, specialmente nell'emisfero dominante, responsabile del lin­ guaggio: In questi stadi successivi le differenti modalità sensitive proiet­ tano alle aree comuni, le aree polimodali. In tali aree avviene l'elaborazione [ . ] dell'informazione più svariata e ad ampio raggio. Possiamo chiederci come avvenga che questa informa­ zione sia selezionata e raccolta [ . . ] In risposta a questa domanta si è proposto che la mente auto-cosciente agisca tramite l'intero cervello in modo selettivo e unificante [. .] [in] analogia con un raggio di luce. Forse si istituirebbe un'analogia più appropriata con qualche apparato multiplo di scansione e di esplorazione che legge e sceglie [ . ] queste componenti selezionate. (Ibid., p. 440) .

.

.

.

.

.

La mente esercita un'azione diretta sul cervello per Be­ cles, e indiretta, attraverso il mondo 3, per Popper. Per que­ st'ultimo la mente è una struttura emergente, e il problema è allora quello di spiegarne l'origine a partire dal suo sostra­ to, spiegarne cioè "l'azione causale esercitata dai livelli supe­ riori su quelli inferiori" . Popper giunge così alla conclusione che l'emergenza di livelli o strati gerarchici e di un'interazione fra loro dipenda da un indeterminismo fondamentale dell'universo fisico. Ogni livello è aperto a influenze causali provenienti dai livelli inferiori e da quelli superiori. (Ibid., p. 5 1 )

Per Bccles la mente è un'entità data che organizza l a fun­ zione cerebrale ed è a sua volta organizzata dal mondo 3 at­ traverso l'azione dei sensi. La mente viene logicamente tanto prima quanto dopo il cervello, ma ha bisogno di un partico­ lare tipo di corteccia cerebrale per poter effettuare il colle­ gamento. È probabilmente più facile cominciare esaminando la po­ sizione di Popper, ma come vedremo nemmeno la posizione di Bccles è priva di meriti. Popper ha suddiviso ciò che di so­ lito chiamiamo "mentale" in due parti distinte: il mondo 2 e il mondo 3. Il mondo 2 è l'insieme degli stati mentali, mentre 1 77

il mondo 3 è composto dalle manifestazioni del mondo 2: en­ trambi emergono dall'interazione con l'ambiente della com­ plessa organizzazione cerebrale. Questa suddivisione e l 'interazionismo che ne segue mi sembrano inutilmente complicati. A mio parere, è meglio co­ minciare dall'idea che gli stati mentali siano il risultato del­ l'interazione di un organismo con l'ambiente: in particolare, l'interazione che bisogna considerare è quella fra il cervello di un organismo e l'ambiente sociale. Si tratta di una posizio­ ne che va oltre il comportamentismo (anche se certamente può essere in qualche modo ricondotta a esso), perché "lascia entrare il fantasma nella macchina", riconosce cioè agli stati mentali lo stesso grado di realtà della macchina stessa (vedi a questo proposito la discussione delle posizioni di Gilbert Ry­ le, ibid. , pp. 1 3 1 - 1 36). Immagini, esperienze, intenzioni, piani, aspettative, gioie e dolori non sono estranei al mondo "reale", ma ne sono manifestazioni primarie (vedi Miller, Gallanter e Pribram, 1 960). Dal punto di vista del fenomenologo o del­ l'empirista, tuttavia, questi stati mentali non sono manifesta­ zioni né primarie né uniche, e correttamente Eccles e Popper, in quanto dualisti, lamentano il primato ingiustamente confe­ rito a ciò che è soggettivo. Ma la loro critica è spesso confusa, specialmente per quanto riguarda la teoria interazionista del­ la causalità. Così ad esempio Popper parla dell'origine men­ tale delle illusioni, come nel caso del "conseguimento di un desiderio" (Eccles e Popper, 1 977, p. 624); può forse sorpren­ dere che la posizione di Sigmund Freud al riguardo, secondo cui il conseguimento di un desiderio e le sue illusioni deriva­ no da processi cerebrali molto specifici (vedi Freud, 1 895), sia simile alla teoria popperiana dell'emergenza della mente dal­ la funzionalità del cervello (vedi Pribram e Gill, 1 976). Popper passa in rassegna con grande chiarezza le prove dell'esistenza di una realtà prima e al di là dei nostri sensi (Eccles e Popper, 1 977, pp. 1 1 7- 1 2 1), e io concordo sia con lui sia con uno psicologo come James J. Gibson che vi siano degli aspetti invarianti nella relazione fra un organismo e il suo ambiente (vedi anche Gibson, 1 950). Ma, secondo me, l 'intera­ zione fra organismo e ambiente non pregiudica l'emergere delle proprietà mentali né dal processo di evoluzione biologi­ ca, che potrebbe aver prodotto una nuova organizzazione del cervello risultante in un certo numero di capacità linguisti­ che, né dal processo di evoluzione culturale, cui potrebbero essere ricondotte le nuove modalità linguistiche come la scrittura e la stampa (vedi Pribram, 1 976a). Popper, al contrario, è interessato all'interazione fra il mentale e il materiale, ma la sua critica del materialismo sul178

la base delle prospettive aperte dalla fisica moderna non sembra consapevole del fatto che tali prospettive non sono prive di conseguenze nemmeno per quelle forme di dualismo legate a una rigida separazione fra mente e materia. Infatti, è assai problematico caratterizzare come materiali le forze fisiche, le onde elettromagnetiche che si propagano nel vuo­ to, o i quark, con il loro fascino (charm) e i loro sapori (fla­ vors) . Abbiamo già visto che, secondo Wigner ( 1 969), la fisica moderna non ha più per oggetto "relazioni fra oggetti osser­ vabili, ma relazioni fra osservazioni diverse": lo stesso non vale forse anche per la moderna psicologia scientifica ? Vi è naturalmente una distinzione fra l'atto dell'osserva­ zione e l'oggetto osservato, non lo nego, e questa distinzione costituisce il problema dell'intenzionalità che tanto è stato discusso, ad esempio, da John R. Searle; ma essa non per­ mette più di distinguere altrettanto chiaramente le scienze fisiche dalle scienze psicologiche. Non si tratta di negare la realtà del mondo materiale così come appare agli occhi della meccanica newtoniana o della psicologia percettiva di Gib­ son, né di screditare ogni distinzione fra queste apparenze e altre realtà o fra la realtà fisica e quella psicologica: ciò che voglio dire è che queste realtà sono costruite, spesso in mo­ do lento e faticoso. L'apparenza percettiva è solo un tipo di realtà, dietro alla quale vengono le altre. Me ne sto seduto quietamente, scrivendo questo articolo. Ma mi sto anche muovendo lungo una traiettoria complessa attorno all'asse terrestre e al sole, all'interno della nostra ga­ lassia. Entrambe queste asserzioni sono vere: l'una esprime la mia realtà percettiva, ovvero la realtà dell'apparenza, e l'altra la mia realtà fisica, così come è stata determinata at­ traverso le osservazioni e i calcoli di innumerevoli scienziati. Quale delle due realtà è "oggettiva" e quale "soggettiva" ? Quale è fondata unicamente sulle interazioni di oggetti mate­ riali osservabili e quale su operazioni mentali come il calco­ lo e l'osservazione ? Il mondo 3 di Popper costituisce un tentativo di risponde­ re a queste domande, ma non è un tentativo sufficientemente audace. Ciò che è in questione non è la contrapposizione del mentale al materiale, ma la costruzione di due tipi di realtà, uno dei quali è materiale mentre l'altro è esperito come men­ tale. Il modo in cui Popper e Eccles descrivono l'interazione della mente e del cervello è molto vicino a un uso colloquiale del concetto di "forza" (al proposito vedi Pribram, 1 976b). Non è insolita l'affermazione che la forza di gravità ci attira verso la terra. Tuttavia, il concetto di gravità deriva dallo 179

studio delle interazioni delle masse in movimento ed è, per definizione, un concetto connotato in senso interattivo. La gravità non "esisterebbe" se non ci fosse alcun "noi" a essere attratto verso la terra. Siamo noi a reificare la forza di gravi­ tà e a pensare che essa ci attragga, e l'apparenza sembra cer­ to confermare questo modo di concepire le forze fisiche, se­ condo cui esse sono "prodotte" da un corpo e agiscono su un altro. In questo stesso spirito Popper sviluppa la sua tesi che il mondo 3 sia "prodotto" dal mondo 2. La divisione fra il mondo 2 e il mondo 3 costituisce un'u­ tile analogia per ciò che io ho in mente parlando della strut­ tura e della sua realizzazione. In un certo senso, ciò che io chiamo "struttura" è ciò che Popper ed Eccles chiamano "mente", con la differenza, tuttavia, che il concetto di strut­ tura è derivato dall'interazione dell'organismo con il suo am­ biente. La "struttura" può quindi essere inerente anche al­ l'ambiente materiale o fisico (così ad esempio tanto la stam­ pa di uno spartito quanto un nastro magnetico possono in­ carnare la medesima struttura di una sinfonia). Si può quin­ di assimilare la mia posizione a quella di Whitehead, Sperry o Wigner, facendone una sorta di panpsichismo, seppure al prezzo di qualche forzatura. Ma io non sono disposto ad arri­ vare così lontano: preferisco piuttosto affermare che la struttura trascende tanto la realtà fisica quanto quella men­ tale, e che in entrambe si trova realizzata. Vi è quindi un'importante differenza fra il realismo co­ struttivo da me proposto e l'interazionismo dualista (triadi­ co) sostenuto da Eccles e Popper. In uno schema costruttivo è possibile assegnare un ruolo preciso al meccanismo cere­ brale: il processo percettivo (tanto sul versante sensorio quanto su quello cerebrale) che è alla base della costruzione della realtà newtoniana delle apparenze; i meccanismi cere­ brali cognitivi o "intrinseci" (termine che preferisco a quello di liaison usato da Eccles) necessari per la formulazione del­ la fisica nucleare e quantistica; i procedimenti innati alla ba­ se della pianificazione e dell'intenzionalità; l'emergere dei sentimenti dall'organizzazione neurochimica del cervello, tutto ciò può essere fatto rientrare in modo preciso nello schema costruttivo (vedi Pribram, 1976b). Non c'è alcuna mente globale le cui interazioni con il cervello globale siano circondate da un alone di mistero. Certo, le nostre conoscen­ ze sono ancora largamente incomplete, bisogna ad esempio spiegare l'emergere di certi fenomeni da un sostrato da cui differiscono così radicalmente, ma si tratta ormai di una questione scientifica che può essere affrontata nel quadro più ampio dell'indagine filosofica. 1 80

Le microstrutture neurali È possibile dare un esempio della precisione scientifica con cui possono essere posti e trattati questi problemi. L'e­ sempio risulta particolarmente appropriato perché Eccles lo espone e lo critica nella sua parte del libro, e ha a che fare con la codifica delle informazioni sensorie nella corteccia ce­ rebrale. Eccles pone il problema nel modo seguente: quali eventi neurali sono in collegamento reciproco con la men­ te autocosciente ? [ .] Noi rifiutiamo l'ipotesi che il fattore sia il potenziale di campo generato dagli eventi neurali. Il postulato di partenza della scuola gestaltistica era basato sulla scoperta che un forte input visivo, come un grande cerchio illuminato, desse luogo ad un certo campo di potenziale topologicamente equivalente nella corteccia visiva, addirittura ad un circolo chiuso! Non è necessario prendere ulteriormente in considera­ zione questa rozza ipotesi. Tuttavia Pribram (1971) ne ha di re­ cente riproposto una visione più raffinata con il suo postulato dei campi micropotenziali. Si assume che questi campi fornisca­ no una risposta corticale più fine rispetto alla produzione di im­ pulsi da parte dei neuroni. Tuttavia, questa teoria del potenzia­ le di campo comporta un'enorme perdita di informazione per­ ché centinaia di migliaia di neuroni contribuirebbero alla for­ mazione di un campo di micropotenziale che agisce attravero una piccola zona della corteccia cerebrale. Tuttavia, la specifici­ tà dell'attività neuronale a grana fine andrebbe dissipata nella realizzazione di questo compito a bassissimo rendimento consi­ stente nella produzione di un minuscolo potenziale elettrico me­ diante il flusso di corrente attraverso la resistenza ohmica for­ nita dal medium extracellulare. A complicare le cose, inoltre, c'è il fatto che per leggere selettivamente i potenziali in tutte le loro disposizioni strutturali sarebbe necessaria la presenza di un qualche homunculus! Il feedback ipotizzato dai campi di mi­ cropotenziale sulle frequenze di scarica dei neuroni sarebbe di entità trascurabile data l'estrema debolezza delle correnti. Dobbiamo pensare che tutte le interazioni neuronali discrete che si verificano negli schemi spazio-temporali abbiano un so­ stanziale significato funzionale, altrimenti ci sarebbero grosse perdite di informazione. In questo contesto dobbiamo conside­ rare l'organizzazione dei neuroni corticali in unità anatomiche e fisiologiche, i cosiddetti moduli [ ..] In primo luogo è inconce­ pibile che la mente autocosciente sia in collegamento con singo­ le cellule nervose o singole fibre nervose [. .] Queste unità neu­ ronali, prese a sé, sono troppo poco affidabili e inadeguate. In base alla nostra attuale comprensione del modo di funzionare del meccanismo neuronale particolare rilievo spetta agli insie­ mi di neuroni (molte centinaia) che agiscono in una certa dispo­ sizione a struttura collusiva. Solo questi tipi di aggregati posso­ no dare garanzia di affidabilità e di efficacia [. .] i moduli della corteccia cerebrale [ .. ] In una certa misura il modulo possiede ..

.

.

.

.

181

una vita collettiva, assieme almeno ad altri diecimila neuroni di tipi diversi, la cui organizzazione è basata su eccitazione e inibi­ zione a feedforward e a feedback. Finora sappiamo poco della vita dinamica interna di un modulo, ma possiamo congetturare che con le sue proprietà fortemente attive e dotate di organizza­ zione, esso potrebbe essere una componente del mondo fisico (mondo l) che è aperto alla interazione reciproca con quello del­ la mente autocosciente (mondo 2). Possiamo inoltre proporre che non tutti i moduli della corteccia cerebrale abbiano questa proprietà trascendente di essere "aperti" al mondo 2, e quindi di essere le componenti dell'interfaccia legate al mondo l. Per definizione questa "apertura" varrebbe soltanto per i moduli del cervello di collegamento, e per di più solo nel caso in cui essi raggiungano il giusto livello di attività. Ciascun modulo può es­ sere paragonato a un'unità radio rice-trasmittente [ ... ] il modulo [può] essere considerato come un microcircuito elettrico inte­ grato, solo enormemente più complesso. (Eccles e Popper, 1971, pp. 443-44)

Nonostante citi il mio I linguaggi del cervello (Pribram, 1 977b), Eccles ne ignora, nell'esposizione sopra riportata, in­ tere sezioni dedicate a ciò che io chiamo i "moduli logici": la struttura di tali moduli vi è presentata più particolareggiata­ mente di quanto faccia Eccles nell'Io e il suo cervello o in al­ cuna altra sua opera. Per di più, il modo d'operazione di que­ sti moduli è stato simulato su calcolatore a più riprese nel mio laboratorio (vedi Spinelli, 1 966; Phelps, 1 974; Bridge­ man, 1 97 1 ; Pribram, Nuwer e Baron, 1 974). Non basta. Eccles mi critica, nel primo paragrafo citato, perché "il feedback ipotizzato dai campi di micropotenziale sulle frequenze di scarica dei neuroni sarebbe di entità tra­ scurabile data l'estrema debolezza delle correnti". Nel secon­ do paragrafo egli usa queste stesse correnti (che nei Linguag­ gi del cervello sono chiaramente definite come le depolariz­ zazioni e specialmente le iperpolarizzazioni che hanno luogo in corrispondenza delle sinapsi all'interno dei campi dendri­ tici) per dare rilievo "agli insiemi di neuroni (molte centi­ naia) che agiscono in una certa disposizione a struttura col­ lusiva [ . .] assieme almeno ad altri diecimila neuroni di tipi diversi, la cui organizzazione è basata su eccitazione e inibi­ zione a feedforward e a feedback". All'origine dell'eccitazione e dell'inibizione sono dei neuroni "a circuito locale" e privi di as soni (secondo tipo di Golgi), che dipendono da quegli stessi micropotenziali che Eccles ha criticato nel primo pa­ ragrafo (vedi anche Rakic, 1976). Sta diventando sempre più chiaro che nel cervello l'elaborazione all'interno di circuiti neuronali locali avviene per mezzo di comunicazioni elettro­ toniche e chimiche locali che caratterizzano le interazioni .

1 82

dendrodendritiche, e non mediante l'action potential mode così caratteristico dei lunghi cammini sensori e motori (vedi Schmitt, Parvati e Smith, 1 976). Shepherd (1 976) e Rall (1 970) hanno presentato numerose risultanze neurofisiologiche relative all'organizzazione fun­ zionale di questi microcircuiti locali, ed è su tali risultanze che si fonda la mia proposta delle microstrutture. Sembra dunque non sussistere alcuna reale differenza fra i microcir­ cuiti di cui parla Eccles e le mie microstrutture, se non per un punto: in Eccles manca ogni chiara specificazione delle caratteristiche di risposta graduata della configurazione di potenziali elettrici che produce la disposizione funzionale al­ l' interno delle microstrutture (o microcircuiti), ed è per que­ sto motivo che Eccles si accanisce nell'idea che "l'io e la sua mente" usino una "radio ricetrasmittente" (i moduli cere­ brali). Prima di passare ad argomenti di altro tipo chiediamoci quale sia il contributo della neurofisiologia al chiarimento del problema mente-corpo. La mia proposta è che la micro­ struttura neuronale, la microcircuiteria, sia una codifica del­ l'attività periodica, e che la trasduzione sensoria dell'energia ambientale risulti in configurazione di attivazione neuronale di tipo quantico. Come si vede, non siamo lontani dal sugge­ rimento di Eccles secondo cui i microcircuiti si comportano in modo molto simile a radio ricetrasmittenti: queste ultime operano su informazioni periodiche, mentre i primi sono predisposti a trasmettere e ricevere codici spettrali. Le prime risultanze in favore della codifica neurale nel dominio quantico furono presentate in I linguaggi del cervel­ lo (vedi Pribram, 1 97 1 ), e da allora se ne sono aggiunte molte altre. G.S. Ohm e H. von Helmholtz furono i primi a suggeri­ re che il sistema uditivo si comportasse come un analizzato­ re spettrale (vedi Ohm, 1 843 e von Helmholtz, 1 863), e G. von Bekesi ha mostrato che la pelle e il sistema somato-sensorio si comportano, a loro volta, in modo simile (vedi von Bekesi, 1 957). Ma il caso più chiaro e inconfutabile è quello del siste­ ma visivo. Sono stati accumulati innumerevoli risultati a so­ stegno dell'ipotesi secondo cui l'elaborazione visivo-spaziale è condotta nel dominio spettrale: l'occhio analizza le fluttua­ zioni periodiche dell'intensità della luce nello spazio (vedi Campbell e Robson, 1968; Movshon, Thompson e Tolhurst, 1 978a, 1 978b, 1 978c; De Valois, Albright e Thorell, 1 978a, 1 978b; Pribram, Lassonde e Ptito, 1 98 1 ). In ingegneria, una tale elaborazione nel dominio spettrale è detta "elaborazione dell'informazione ottica" (se effettuata per mezzo di un sistema di lenti), "elaborazione dell'immagi183

ne" (se si usa un calcolatore) o "olografia" (nel caso della me­ morizzazione su pellicola fotografica). Quest'ultimo caso è quello che per primo ha richiamato la mia attenzione sugli at­ tributi del dominio spettrale e sulla loro connessione con il problema mente-cervello (vedi Pribram, 1966). In un ologram­ ma (la pellicola fotografica su cui è memorizzata la micro­ struttura dei mutamenti periodici della luce e dell'oscurità nello spazio) le informazioni relative alle forme spaziali sono distribuite. Ciò può aiutare a spiegare un fenomeno che costi­ tuisce uno dei più difficili problemi della neurologia, e preci­ samente il fatto che le lesioni locali del cervello non cancella­ no i ricordi in modo selettivo. Analogamente, in un ologram­ ma un danno limitato non ha ripercussioni sull'immagine me­ morizzata perché le informazioni sono conservate in modo di­ stribuito. Le informazioni sono sparse per l'intera estensione della pellicola olografica, ma in modo così preciso da poter essere raccolte nuovamente eseguendo la procedura inversa. È così relativamente semplice costruire o ricostruire l'immagine a partire dal dominio spettrale memorizzato usando la stessa procedura utilizzata per la codifica dell'immagine. In breve, contrariamente a quanto afferma Eccles, non vi è alcun biso­ gno nella mia teoria di un "homunculus" che legga le infor­ mazioni memorizzate, e ciò proprio perché il cervello codifi­ ca le informazioni nel dominio spettrale. Tanto uno stimolo sensorio quanto una fonte centrale (come quelle che secondo Popper sono responsabili delle aspettative di dolore e piacere e del meccanismo dell'attenzione) sono in grado di attivare la memoria spettralmente codificata per produrre un'immagine (vedi Pribram e McGuinness, 1 975). Non c'e alcuna "mente autocosciente" che se ne sta lì, come suggerisce Eccles, a con­ trollare le funzioni della corteccia associativa. Io credo, con Popper, che sia meglio concepire la mente come una proprie­ tà emergente da una specifica organizzazione cerebrale. Il meccanismo che abbiamo descritto non è privo di conse­ guenze per il problema mente-cervello. Infatti, si noti che la memorizzazione ha luogo nel dominio spettrale, e che non si tratta di memorizzare immagini in quanto tali, la cui rappre­ sentazione sia in qualche modo "localizzata" nel cervello. Le immagini e gli eventi mentali emergono e sono costruiti gra­ zie all'azione della circuiteria locale del cervello e con l'aiuto, di solito, di informazioni sensorie provenienti dall'ambiente. Le immagini sono il fantasma risultante dalle operazioni del­ la macchina (il cervello). Un meccanismo simile, relativo ai processi motori del cer­ vello, può spiegare anche il comportamento intenzionale e 1 84

pianificato: risultanze sperimentali in questo senso sono pre­ sentate in I linguaggi del cervello e altrove (vedi Pribram, 1 97 1 e 1976; Pribram, Lassonde e Ptito 1 98 1 ). Gran parte del mio lavoro di ricerca è stata finalizzata a dimostrare che il cervello è attivo, e non passivo, nelle sue interazioni con l'ambiente, chiarendo quali siano i processi operativi di que­ sto aspetto attivo della mente. Queste ricerche hanno mo­ strato, fra l'altro, che la corteccia intrinseca e le formazioni limbiche del cervello anteriore organizzano attivamente le informazioni sensorie. La scoperta che si possono spiegare certe operazioni del cervello in termini di elaborazione nel dominio spettrale è a mio parere altrettanto importante per il problema mente­ cervello di quanto lo sia stata per la fisica quantistica e nu­ cleare la scoperta che le apparenze della materia possono in ultima istanza rivelarsi immateriali.

Una nuova dualità: il mondo delle apparenze e il mondo delle po tenzialità In precedenza ho affermato che il dualismo che distingue nettamente e radicalmente il mentale dal materiale è sosteni­ bile solo nel mondo ordinario delle apparenze, nel mondo cioè che è descritto dalla geometria euclidea e dalla meccani­ ca newtoniana. Come abbiamo visto, tale dualismo può esse­ re ricondotto a differenze procedurali relative all'esplorazio­ ne della gerarchia di sistemi che costituisce il mondo delle apparenze, e quest'osservazione a sua volta dà origine a una teoria, il realismo costruttivo. Abbiamo già accennato al fat­ to che il realismo costruttivo lascia irrisolte alcune questioni sollevate da un punto di vista dualista classico, ed è ora giunto il momento di entrare nel merito. Eccles e Popper concepiscono in modo totalmente diverso (e, per certi aspetti fondamentali, opposto) l'interazione della mente e del cervello: per Popper la mente è emergente dalla funzione cerebrale, mentre per Eccles essa agisce sulle for­ mazioni intrinseche di collegamento (liaison) della corteccia cerebrale. Ciò nonostante i due autori sono riusciti a pubbli­ care un libro insieme. Ciascuno deve aver avvertito una qual­ che affinità con la posizione dell'altro, affinità che non sono tuttavia riusciti ad articolare adeguatamente nel libro. Abbiamo ormai, credo, gli strumenti analitici per risolve­ re questo punto. L'osservazione dall'alto verso il basso della gerarchia di sistemi che compongono il mondo ordinario del­ le apparenze richiede analisi essenzialmente riduttive. Quan1 85

do le diverse componenti si organizzano in strutture pm complesse e di ordine più elevato sorgono nuove proprietà che possono essere spiegate mediante il concetto di "emer­ genza" (l'atto dell'emergere), che permette di descrivere i fe­ nomeni osservati. D'altra parte, se si guarda la gerarchia dal basso verso l'alto da un punto di vista fenomenico o esisten­ ziale, questi emergenti sono il prodotto fondamentale dell'os­ servazione. Il realismo costruttivo è compatibile con questa concezione dell'emergenza e, come già abbiamo avuto modo di notare, la costruzione del mondo 3 è essenzialmente un tentativo, da parte di Popper, di raggiungere questo stesso fine. Eccles viceversa propende per una formulazione radical­ mente diversa, e sostiene che la mente trascende la funzione cerebrale non perché emerge da quest'ultima, ma perché su quest'ultima agisce attivamente. Come abbiamo visto, è una tesi che così formulata è priva di qualsiasi senso scientifico. Ma torniamo per un attimo a considerare il cervello come un analizzatore spettrale, e concentriamoci sulle caratteristi­ che della trasformazione da esso eseguita. L'importanza di queste caratteristiche è stata solo di recente riconosciuta, e la registrazione delle configurazioni spettrali in olografia ne ha fornito un esempio concreto le cui proprietà sono pron­ tamente concettualizzabili. Il punto saliente è che nel domino olografico lo spazio e il tempo sono avviluppati (enfolded), e ciò permette di render conto dell'invarianza di traslazione, del fatto cioè che la tra­ sformazione nel dominio ordinario può essere compiuta par­ tendo da qualsiasi punto della registrazione codificata. Le in­ formazioni sono distribuite, sparse per l'intera superficie della pellicola fotografica (o modulo cerebrale), in modo si­ mile a quello in cui le onde prodotte dal lancio di un sasso in uno stagno si disperdono fino alla riva. Onde diverse prodot­ te dal lancio di più sassi interagiscono o "interferiscono", e la re gistrazione di queste interferenze costituisce l'ologram­ ma. E naturalmente possibile riprendere cinematografica­ mente queste interferenze, e invertire quindi il movimento della pellicola per ottenere l'immagine del sasso che colpisce la superficie dell'acqua. La ricostruzione dell'immagine, in olografia, avviene in modo molto simile, eseguendo una tra­ sformazione inversa sulla registrazione. L'immagine e la re­ gistrazione olografica, così come l'oggetto stesso, sono l'una la trasformazione dell'altra, e si tratta di trasformazioni af­ fatto reversibili. Si consideri inoltre il fatto che nel dominio olografico il tempo e lo spazio sono avviluppati, e che solo la densità del1 86

le occorrenze è esplicitamente rappresentata. Tali densità pos sono essere registrate come numero d'onda o in matrici diffuse (scattering) rappresentanti un dominio n-dimensiona­ le (dominio di Hilbert) simile a quelli usati nella fisica quan­ tistica. L'olografia ha aperto una finestra attraverso cui con­ cettualizzare un universo totalmente differente da quello che caratterizza il mondo delle apparenze. David Bohm ( 1 97 1 , 1973) ha notato che vi sono sempre delle lenti a condizionare la nostra concezione del mondo fisico. Le lenti mettono a fuoco, ogget tivano, tracciano linee di divisione fra parti di­ verse. Viceversa gli ologrammi sono distributivi, illimitati e olistici. Bohm caratterizza come esplicate le nostre concezio­ ni e percezioni ordinarie prodotte dalle lenti, mentre sono implicate quelle olografiche. Nell'universo sono quindi di­ scernibili almeno due ordini. Si possono descrivere particel­ le, oggetti e immagini in termini di un ordine esplicato, ma è l'ordine implicato, ancora in gran parte inesplorato, quello che ha a che fare con le densità di proprietà fluttuanti di for­ me d'onda. La somiglianza fra le concettualizzazioni dell'ordine im­ plicato e quelle descritte dai mistici che hanno esperito feno­ meni religiosi o "paranormali" ha risvegliato l'interesse di Bohm e di altri fisici (vedi Bohm, 1976 e Capra, 1975). La mancanza di limiti spaziali o temporali; la caratteristica alo­ grafica per cui ogni singola parte rappresenta il tutto; il ca­ rattere trasformativo del passaggio dall'ordine esplicato a quello implicato: tutto cio è al di là dell'ordinaria esperienza umana limitata, apparentemente, a quell'universo quotidia­ no, esplicato, euclideo newtoniano che tutti conosciamo. Non è un caso che gli ologrammi (la cui scoperta fruttò il premio Nobel a Dennis Gabor) si fondino su una forma di matematica, il calcolo integrale, dovuta a Gottfried Wilhelm Leibniz che giunse in qualche modo anche a concepire l 'ordi­ ne implicato. La monadologia di Leibniz è olografica: le mo­ nadi sono forme distribuite, prive di finestre, ognuna delle quali rappresenta l'intero. Se nella precedente definizione si sostituisce "privo di finestre" con "privo di lenti" si ottiene la descrizione di un ologramma. Ricapitolando quest'ultima sezione, è mio parere che la tesi di Eccles secondo cui vi è una "mente" distribuita che agisce in modo "ancora misterioso" sul cervello sia suscetti­ bile di una rigorosa formulazione matematica. Il fatto che il cervello sia, fra l'altro, un analizzatore spettrale che codifica le informazioni, così come fanno gli ologrammi, in modo di­ stribuito significa che gli ordinari limiti strutturali del "cor­ po" e del "cervello" sono stati trascesi. In una grande città 1 87

moderna lo spazio che ci circonda è fittamente popolato da forme spettrali generate dalle stazioni radiofoniche e televi­ sive. Tali forme sono al di là della portata dei nostri sensi a meno di non usare un ricevitore sintonizzabile su di esse: so­ lo allora "esplichiamo" le forme spettrali trasmesse e avvi­ luppate nello spazio intorno a noi. Non si può risolvere il "mistero" della mente dal punto di vista di Eccles, che non è adeguato alla formulazione di Popper. Occorre piuttosto ri­ conoscere la natura trasformazionale del dominio implicato: sono i nostri organi di senso che conferiscono "senso" a tale dominio rendendocene apparente questa o quella porzione.

Conclusione Tenterò di riassumere le posizioni espresse in questo arti­ colo. Ho preso le mosse accettando una concezione dualisti­ ca dell'esperienza quotidiana: noi esseri umani siamo in gra­ do di distinguere chiaramente il processo dell'esperienza dai suoi contenuti. Questa semplice constatazione ha portato, a partire da Cartesio, a caratterizzare il processo dell'espe­ rienza come mentale e a concepire il contenuto di tale espe­ rienza, se non come materiale, almeno come indicatore della presenza di un mondo fisico materiale. Sono stati i fisici mo­ derni, lavorando sia a livello quantistico nucleare sia a livel­ lo cosmologico, a mettere in discussione le basi materiali della materia. La materia è costituita da energia che nelle sue diverse forme interagisce per produrre ciò che noi nor­ malmente esperiamo nella percezione ordinaria. L'esperien­ za normale è caratterizzata dalla geometria euclidea e dalla meccanica newtoniana. La natura materiale della materia è limitata al mondo ordinario dell'esperienza, a meno di non voler intestardirsi a considerare materiale anche l'energia, dal momento che può essere convertita in materia, come as­ serito nell'equazione di Einstein E mc2 • Si tratterebbe pe­ rò di un pregiudizio materialista, incapace di rendere conto del fatto che l'equazione di Einstein è, a tutti gli effetti, una "conversione", e tale da nascondere, piuttosto che chiarire, la vera natura di queste forme di energia. D'altra parte è chiaro che queste stesse obiezioni si applicano anche a ogni caratterizzazione univoca in senso mentale. Anche muovendo dall'altro estremo della dicotomia men­ tale-materiale si incontrano analoghe limitazioni alla sua uti­ lità e applicabilità. L'elaborazione delle informazioni, così come è compiuta da un calcolatore adeguatamente program­ mato o da un cervello cui giunga un segnale sensorio, richie=

188

de minuscole quantità di energia che possono però organiz­ zare o riorganizzare sistemi di scala molto più grande. Ciò che è critico in questi casi non è la pura quantità di energia, ma la configurazione esibita dal sistema energetico. Ancora una volta, non si sa se concepire tali mutamenti figurali (che possono coinvolgere linguaggi, culture, ecc.) come men­ tali o come materiali: si è raggiunto un limite in cui la di­ stinzione mentale-materiale è del tutto inutile. Il passo seguente è quello di confrontarsi con il dualismo sul suo stesso terreno, nell'ambito cioè dell'esperienza ordi­ naria. Si scopre allora che il dualismo è basato su concezio­ ni speculari costituite da procedure analitiche differenti. La posizione riduttiva "materialistica", cui aderisce la maggior parte degli scienziati, analizza l'esperienza di ognuno dall'al­ to verso il basso, esplorando la gerarchia di sistemi di cui tale esperienza è costituita. Questa concezione riduttiva è di solito accompagnata dal riconoscimento del fatto che la for­ mazione di configurazioni specifiche di componenti può dar luogo all'emergere di nuove proprietà. Come abbiamo visto, questa è anche la posizione di Popper nell'Io e il suo cer­

vello. Viceversa, guardare verso l'alto a partire dalla propria esperienza significa validare tale esperienza mediante il con­ fronto con quella degli altri. Si descrivono e si confrontano i "fenomeni" esperiti, dando rilievo all'esistenza dell'espe­ rienza in quanto tale, alla sua natura esistenziale, tentando di raggiungere la precisione mediante l'attenzione alle rela­ zioni strutturali fra i fenomeni. Lo strumento dell'indagine non è la separazione in parti causalmente correlate l'una al­ l'altra, come nelle scienze riduttive, ma la validazione con­ sensuale, la comunicazione (enactment), l'analisi strutturale delle diverse relazioni. Il linguaggio della fenomenologia, dell'esistenzialismo e dello strutturalismo è di tipo "menta­ le" perché il loro interesse centrale è costituito dall'espe­ rienza in quanto tale. Alla base del dualismo nel mondo ordinario dell'espe­ rienza vi è dunque una differenza procedurale, il cui ricono­ scimento permette di trascendere il dualismo senza tuttavia disconoscerne l'utilità quando si ha a che fare con problemi del mondo ordinario. È mio parere che il dualismo possa es­ sere trasceso combinando attentamente le tecniche e i risul­ tati dei due metodi di indagine, quello riduttivo e quello fe­ nomenico. Dal punto di vista del monismo pluralistico ciò che veramente conta è la struttura invariante della realtà: è chiaro allora che sia le entità riduttive sia i fenomeni espe­ rienziali possono essere pensati come realizzazioni struttu1 89

ralmente identiche derivate da un dato esistenziale più fon­ damentale. Una volta formulato, il realismo costruttivo si trova di fronte un altro problema. È bensì vero che il dualismo non viene negato, ma solo circoscritto a un ambito limitato: così facendo, tuttavia, il monismo strutturale contraddice alcune delle più profonde e radicate tesi dualiste. Una di queste, come abbiamo visto, trova espressione nell'interazionismo piuttosto ingenuo sostenuto da Eccles, secondo cui la mente opererebbe sull'area associativa del cervello, sulla corteccia intrinseca di collegamento. Avremmo un universo "mentale" che "interagisce in qualche modo misterioso" con quello materiale, pur essendone "indipendente", ed è una tesi che, dal punto di vista del realismo costruttivo, non può essere accettata. Tuttavia, il problema è reale, e il realismo costruttivo deve poter offrire una soluzione, per quanto diversa da quella dualista. La fisiologia del cervello ha dimostrato che il sistema nervoso è, fra l 'altro, un analizzatore spettrale. Inoltre, pare che le informazioni siano distribuite e memo­ rizzate nel dominio di arrivo della trasformazione in modo simile a una registrazione olografica, e i fisici hanno suppo­ sto che un ordine di tipo olografico possa caratterizzare la microstruttura del mondo fisico. A questo livello, lo spazio e il tempo sono avviluppati, e si ha una rappresentazione soltanto della densità delle occorrenze. Questo e altri tipi di ordine postulati dalla fisica moder­ na sembrano notevolmente simili alle descrizioni date dai mistici di esperienze religiose e paranormali. La mia propo­ sta teorica è che sia la dualità fra il dominio normale e quo­ tidiano delle apparenze e il dominio della trasformazione a catturare ed esprimere il vero spirito del dualismo e a ren­ der conto in modo specifico e matematicamente preciso di ciò che finora era stato incomprensibile. Il realismo strutturale è così in primo luogo un moni­ smo neutrale, a cui è possibile ricondurre tutta una serie di dualità, due delle quali sono particolarmente significative e atte a chiarire i problemi connessi con il dualismo mente­ cervello: l) una dualità procedurale rivolta verso l'alto e verso il basso nella gerarchia dei sistemi discernibili nel mondo ordinario delle apparenze, e 2) una dualità trasfor­ mazionale che oppone il mondo ordinario delle apparenze al dominio della trasformazione spettrale. Quest'ultimo può essere caratterizzato mediante descrizioni simili a quelle delle esperienze mistiche date da diverse tradizioni reli­ giose. 1 90

È possibile che si scopra che altri tipi di dualità soggia­ ciono a premesse di dualismo non ancora pienamente artico­ late. Ciò che ora appare chiaro è che il dualismo fondato sul­ la distinzione fra mentale e materiale è troppo limitato per risolvere i problemi da esso stesso posti. Vi sono altre duali­ tà, oltre a quella mentale-materiale, che possono risolvere questi problemi, mantenendosi al contempo fedeli allo spiri­ to con cui sono stati posti. Per di più, si tratta di dualità spe­ cificabili per mezzo di procedure scientificamente corrette e suscettibili di formulazioni matematiche precise. Infine, il ri­ conoscimento di queste dualità origina direttamente da alcu­ ne scoperte compiute nell'ambito delle scienze fisiche, com­ portamentali e dell'informazione. Si è così dimostrata falsa l'affermazione che i risultati della ricerca scientifica siano privi di conseguenze per i problemi filosofici: solo la scienza può aiutare a riformulare e, in alcuni casi, a risolvere i pro­ blemi filosofici, compresi quelli di tipo ontologico.

RIFERIMENTI BIBLIOGRAFICI Bekesy, G. von ( 1 957), Neural Volleys and the Similarity between So­ me Sensations Produced by Tones and by Skin Vibrations, in "Joumal of the Accoustical Society of America", 29, pp. 1 059-69. Bekesy, G. von (1967), Sensory Inhibition, Princeton Univ. Press, Princeton (N.J.). Bohm, D. (197 1), Quantum Theory as an Indication of a New Order

in Physics. Part A. The Development of New Orders as Shown Through the History of Physics, in "Foundations of Physics", l , pp. 359-38 1 . Bohm, D . (1 973), Quantum Theory as a n Indication of a New Order in Physics. Part B. Implicate and Explicate Order in Physical Law, in "Foundations of Physics", 3, pp. 1 39-168. Bohm, D. (1 976), Fragmentation and Wholeness, Vanleer Jerusalem

Foundation, Jerusalem. Bohr, N. (1 966), Atomic Physics and Human Knowledge, Vintage Press, New York. Bracewell, R. (1 965), The Fourier Transform and lts Application, McGraw-Hill, New York. Brentano, F.C. (1 874), Psychologie vom empirischen Standpunkt, trad. inglese Psychology from an Empirica/ Standpoint, Routled­ ge & Kegan Paul, London 1 973. Bridgeman, B. ( 1 97 1 ), Metacontrast and Latera/ Inhibition, in "Psy­ chological Review" , 78, pp. 528-539. Brillouin, L. (1 9622), Science and Information Theory, Academic Press, New York. Campbell, F.W. (1 974), The Transmission of Spatial Information Th rough the Visual System, in F.O. Schmidt e F.G. Worden (a 191

cura di), The Neurosciences Third Study Program, The MIT Press, Cambridge (Mass.). Campbell, F.W. e J.G. Robson (1 968), Application of Fourier Analy­ sis to the Visibility of Gratings, in "J. Physiol.", 1 97 , pp. 551566. Capra, F. (1 975), The Tao of Physics, Shamhala Publications, Berke­ ley (Ca.) (trad. it. Il Tao della fisica, Adelphi, Milano 1 982). Chew, G.S. (1 966), The Analytic S-Matrix: A Basis for Nuclear Demo­ cracy, W.A. Benjamin, New York. Chisholm, R.M. (1 960), Realism and the Background of Phenomeno­ logy, Free Press, New York. Broglie, L.V. de (1 964), The Current Interpre tation of Wave Mecha­ nisms: A Critica[ Study, trad. Express Translation Service (Else­ vier, Amsterdam). De Valois, R.L., Albright, D.G. e L.G. Thorell (1 978a), Spatial tuning of LGN and cortical cells in monkey visual system, in H. Spek­ reijse (a cura di), Spatial Contrast, Monograph Series, Royal Netherlands Academy of Sciences, Amsterdam. De Valois, R.L. Albright, D.G. e L.G. Thorell (1 978b), Cortical cells: Bar and edge detectors, or spatial frequency filters?, in S.J. Cool e E.L. Smith (a cura di), Frontiers of Visual Science, Springer­ Verlag, New York. De Valois, R. e Karen De Valois (1 980), Spatial Vision, in "Ann. Rev. Phsychol.", 3 1 , p. 309. De Valois, K.K., De Valois, R.L. e E.W. Yund ( 1 979), Responses of striate cortex cells to grating and checkerboard patterns, in "J. Physiol. ", 291, pp. 483-505. Dirac, P.A.M. (1 906), Is There and aether, in "Nature", 1 68. Eccles, J.C. (1 973), Cultura[ Evolution versus Biologica[ Evolution, in "Zygon", 8, pp. 282-293, settembre-dicembre. Freeman, W.J. ( 1 960), Correlation of Electrical Activity of Prepyri­ form Cortex and Behavior in Cat, in "J. Neurophysiol.", 23, pp. 1 1 1-131. Freud, S . ( 1 895) Entwurf einer Psycologie, trad. it. Progetto di una psicologia, Boringhieri, Torino 1 976. Gabor, D. (1 946), Theory of Communication, in "J. Inst. Elec. Engrs.", 93, p. 429. Gabor, D. (1 948), A New Microscopic Principle, in "Nature", 1 6 1 , pp. 777-778. Gibson, J.J. (1 950), The Perception of the Visual World, Houghton Mifflin, New York. James, W. ( 1 909), A Pluralistic Universe, Longman's Green, London (trad. it. Un universo pluralistico, Marietti, Torino 1 973). Heisenberg, W. ( 1 959), Physics and Philosophy, Allen & Unwin, London. Heisenberg, W. (1 969), Physics and Beyond, R. Piper, Miinich. Helmholtz, H. von (1 863), Lehze von den Tonempfindungen, Vieweg, Stuttgart. Hubel, D.H. e T. Wiesel ( 1959), Recep tive Fields of Single Neurons in the Cat's Striate Cortex, in "J. Physiol.", 148, pp. 574-59 1 . Hubel, D.H. e T. Wiesel (1 968), Receptive Fields and Functional Ar192

chitecture of Monkéy Striate Cortex, in "J. Physiol.", 195, pp. 2 1 5-243. Merleau-Ponty, M. ( 1 970), La struttura del comportamento, trad. di G.B. Neri, Bompiani, Milano (ed. originale 1 942). Miller, G.A. Gallanter, E.H. e K.H. Pribram ( 1 960), Plans and the Structure of Behavior, Henry Holt, New York. Movshon, J.A., Thompson, I.D. e D.J. Tolhurst ( 1 978), Receptive Field Organization of Complex Cells in the Cat 's Striate Cortex,

in "Journal of Physiology", 283, pp. 79-99. Ohm, G.S. ( 1 843), Uber die Definition des Tones, nevst daran gek­

nupfte r Theorie der Sirene und ahnlicher tonbilde ner Vorrich­ tungen, in "Annalen der Physikalischen Chemie", 59, pp. 5 1 3

sgg. Phelps, R.W., Effects of Inte ractions of Two Moving Lines on Sin­ gle Unit Responses in the Cat 's Visual Cortex, in "Vision Re­ search", 14, pp. 137 1-75. Pollen, D.A., Lee, J.R. e J.H. Taylor, How Does the Striate Cortex Begin the Reconstruction of the Visual World, in "Science", 173, pp. 74-77. Pollen, D.A. e J.H. Taylor (1 974), The Striate Cortex and the Spatial Analysis of Visual Space, in F.O. Schmidt e F.G. Worden (a cura di), The Neurosciences Third Study Program, The MIT Press, Cambridge (Mass.). Popper, K.R. e J.C. Eccles (1 977), The Self and lts Brain, Springer­ Verlag, New York (trad. it. L 'Io e il suo cervello, Armando, Roma 1981). . Pribram, K.H. (1 965), Proposal for a Structural Pragmatism: Some

Neuropsychological Considerations of Problems in Philosophy, in B. Wolman e E. Nagle (a cura di), Scientific Psychology: Prin­ ciples and Approaches, Basic Books, New York. Pribram, K.H. (1 966), Some Dimensions of Remembering: Steps to­ ward a Neuropsychological Mode! of Memory, in J. Gaito (a cu­ ra di), Macromolecules and Behavior, Academic Press, New

York. Pribram, K.H. (197 1), The Realization of Mind, in "Synthese", 22, pp. 3 1 3-322. Pribram, K.H. ( 1 976a), Language in a Sociobiological Frame, in "Annals of the New York Academy of Sciences", 280, pp. 798809. Pribram, K.H. (1 976b), Problems Concerning the Structure of Con­ sciousness, in G.G. Globus, G. Maxwell e l. Savodnik (a cura di),

Consciousness and the Brain: A Scientific and Philosophical In­ quiry, Plenum Press, New York. Pribram, K.H. ( 1 9772), Languages of the Brain: Experimental Para­ doxes and Principles in Neuropsychology, Brooks/Cole, Monte­ rey (Ca.) (trad. it. I linguaggi del cervello, F. Angeli, Milano 1 980). Pribram, K.H. ( 1 978), Behaviorism, Phenomenology and Holism in Psychology: A Scientific Analysis, relazione presentata all'incon­ tro annuale della American Psychological Association, Toronto, Ontario, Canada, 28 agosto-l 0 settembre. 1 93

Pribram, K.H. e M.M. Gill ( 1 976), Freud's "Project " Reassessed, Ba­ sic Books, New York (trad. it. Freud neurologo. Studio sul Pro­ getto di una psicologia, Boringhieri, Torino 1 978). Pribram, K.H., Lassonde, M.C. e M. Ptito ( 1 98 1), Classification of Re­ ceptive Field Properties in Cat Visual Cortex, in "Experimental Brain Research", 43, pp. 1 1 9- 1 30. Pribram, K.H. e Diane McGuinness (1 975), Arousal, Activation and Effort in the Control of Attention, in "Psychological Review", 82, pp. 1 1 6-149. Pribram, K.H., Nuwer, M. e R. Baron ( 1 974), The Holographic Hypo­ thesis of Memory Structure in Brain Function and Perception, in R.C. Atkinson e al. (a cura di), Contemporary Developments in Mathematical Psychology, W.H. Freeman, San Francisco. Pribram, K.H., Sharafat, A. e G.J. Beekman ( 1 984), Frequency En­ conding in Motor Systems, in H.T.A. Whiting (a cura di), Human Motor Actions: Bernstein Reassessed, Elsevier, North-Holland. Rakic, P. ( 1 976), Local Circuit Neurons, The MIT Press, Cambridge (Mass.). Rall, W. (1 970), Dendritic Neuron Theory and Dendrodendritic Syna­ pses in a Simple Cortical System, in F.O. Schmitt (a cura di), The Neurosciences: Second Study Program, Rockefeller University Press, New York. Russell, B. (1 948), Human Knowledge, Its Scope and Limits, Simon & Schuster, New York (trad. it. La conoscenza umana, Longane­ si, Milano 1 9632). Schmitt, F.O., Parvati, Dev e B.H. Smith ( 1 976), Electrotonic Proces­ sing of Information by Brain Cells, in "Science", 1 93 , pp. 1 1 41 20. Schroedinger, E. (1 928), Quantization as a Problem of Proper Va­ lues, in Collected Papers on Wave Mechanics, Blackie & Son Ltd., London. Shepherd, G.M. (1 976), The Synaptic Organization of the Brain: An Introduction, Oxford University Press, New York. Spinelli, D.N. (1 966), Visual Receptive Fields in the Cat 's Retina: Complications, in "Science", 152, pp. 1 768-1 769. Stapp, H.P. (1 965), Space and Time in S-Matrix Theory, in "Phys. Rev.", 1 35B, pp. 257-270. Weizsacker, E. von ( 1 974), Offene Systems /, Stuttgart. Wigner, E.P. (1 969), Epistemology of Quantum Mechanics: Its Ap­ praisals and Demands, in Marjorie Grene (a cura di), The Ana­ tomy of Knowledge, Routledge & Kegan Paul, London.

194

Leggere la struttura del cervello di Valentino Braitenberg

Il cervello è una complessa entità spazio-temporale costi­ tuita da 1 020 potenziali di azione di 1010 neuroni, distribuiti lungo l'arco di una vita umana. La struttura del cervello, così come questo è studiato dal­ la neuroanatomia, è la proiezione di questa entità complessa sulle sue coordinate spaziali. È chiaro che in questo modo si perdono gli aspetti temporali, con la sola eccezione, forse, dell'analisi a bassa risoluzione permessa dallo studio dell'in­ vecchiamento e dall'anatomia comparata. Ma quanta parte dell'originaria complessità spazio-temporale può essere recu­ perata in questa proiezione? In altre parole, come possiamo rendere fisiologicamente sensate le informazioni istologiche ? La struttura cerebrale incorpora informazioni di tre tipi: a) conoscenze innate formatesi durante l'evoluzione; b) en­ grammi (engram) acquisiti nel corso della vita; e c) residui della fase di costruzione che ha avuto luogo nel corso dell'em­ briogenesi. Le prime due fonti di informazioni costituiscono la complessa soluzione spazio-temporale del problema di far fronte ai pericoli dell'ambiente, mentre la terza è connessa a tale problema solo in modo molto indiretto, e può anche in­ trodurre indizi fuorvianti. Nel seguito mi limiterò a ignorare le considerazioni em­ briologiche, as sumendo che si possa comprendere ogni aspet­ to dell'anatomia neurale sulla sola base delle computazioni che a esso vanno ricondotte. Muovendo da questo presuppo­ sto, tenterò di rispondere a tre domande: l ) È possibile correlare le strutture cerebrali a meccani­ smi specifici o a schemi astratti di computazione? 2) Vi sono aspetti dell'anatomia del sistema nervoso cui corrispondono le idee innate ? 1 95

3) Esistono tracce anatomiche delle conoscenze o delle idee acquisite?

Meccanismi Consideriamo dapprima l'organo più stupefacente, e an­ che quantitativamente prevalente, del cervello dei vertebrati superiori: la corteccia cerebrale (vedi Braitenberg, 1 978a, 1 978b). L'analisi quantitativa della corteccia del topo (un compito che ci ha tenuti occupati per alcuni anni) mette in luce alcune notevoli proprietà che si possono estendere pro­ babilmente anche alla corteccia di animali di dimensioni maggiori. Usando preparati di Golgi è facile distinguere mol­ ti differenti tipi di neuroni della corteccia cerebrale, ma tale varietà è riducibile, grazie alle caratteristiche messe in luce dal microscopio elettronico, a tre tipi fondamentali (ognuno dei quali è tuttavia soggetto a estese variazioni morfologi­ che): le cellule piramidali, le cellule lisce stellate e le cellule di Martinotti. Ora, il dato rilevante è che l'ottanta per cento delle sinapsi della corteccia cerebrale unisce neuroni di un unico tipo, e precisamente connette le cellule piramidali l'u­ na all'altra. L'analisi al microscopio e alcune risultanze fisio­ logiche indirette indicano che queste sinapsi sono eccitato­ de. Lo scheletro della corteccia è dunque formato da un am­ pio sistema di elementi omogenei, riccamente interconnesso da fibre che mediano il feedback positivo. Si ha così un qua­ dro generale che sembra contraddire l'immagine comune­ mente accettata di gerarchie di neuroni stimolate alla base da input sensoriali, strutturate in sistemi di relazioni logiche simili a espressioni del calcolo proposizionale e culminanti in neuroni individuali la cui attività rappresenta situazioni di arbitraria complessità nello spazio sensorio. Se prendessi­ mo alla lettera questa immagine, dovremmo dedurne l'esi­ stenza di un ordinamento unidirezionale delle fibre della corteccia cerebrale, disposte lungo la direzione definita dalle aree sensorie e motorie. Per gli stessi motivi, le sinapsi inibi­ torie dovrebbero essere altrettanto numerose di quelle ecci­ tatorie, in analogia a quanto avviene nella logica proposizio­ nale in cui i termini negati sono altrettanto frequenti di quel­ li non negati. Vi è un altro aspetto della neuroanatomia corticale che rende lo schema di connessione dei neuroni della corteccia differente da quello riscontrabile nei calcolatori convenzio­ nali, rendendo così di difficile applicazione il modello logico delle reti nervose: tale aspetto è l'alto grado di divergenza (e, 1 96

quindi, anche di convergenza) che caratterizza il sistema. Nel topo, il numero delle sinapsi cui ogni cellula piramidale del­ la corteccia partecipa, attivamente o passivamente, varia da cinquemila a diecimila, e queste sinapsi sono distribuite su quasi altrettante cellule piramidali distinte. È alquanto diffi­ cile che fra due cellule piramidali vi siano connessioni multi­ ple, che ridurrebbero il fattore di convergenza. Vi è un solo modello teorico della funzione della corteccia, fra i molti che sono stati proposti, che si adatta a questi dati, ed è quello che assimila la corteccia a una memoria associativa, in cui la correlazione temporanea di attività di diversi neuroni fa sì che essi vengano interconnessi da forti contatti eccitatori, in modo che l'insieme di cellule (cell assembly) così formatosi rappresenti all'interno del cervello una situazione o un og­ getto del mondo esterno caratterizzato da una forte coerenza interna. Questa idea degli insiemi di neuroni, dovuta a Hebb (1 949), permette anche di spiegare la proprietà del completa­ mento di configurazioni (pattern completion) intrinseca alle connessioni eccitatorie. Qualsiasi parte sufficientemente grande di un insieme di neuroni può attivare l'intero insieme e, a differenza di altri modelli di memoria associativa, non è necessario che tale parte, che è in grado di far affiorare l'in­ tero ricordo, sia specificata in anticipo. Vi è un altro aspetto della corteccia cerebrale che merita di esser posto in evidenza, specialmente per chi non è fami­ liare con la neuroanatomia. Basta osservare un certo nume­ ro di neuroni di un certo tipo, ad esempio cellule piramidali, per accorgersi che hanno caratteristiche morfologiche comu­ ni piuttosto generiche, i cui particolari sono specificati da processi di crescita in gran parte casuali. Così, il dendrite apicale tende a distribuirsi in una zona più o meno conica posta alla sommità del corpo della cellula, mentre quello del­ la base si distribuisce su una regione sferica di cui costitui­ sce il centro, ma a queste tendenze generali fa riscontro il fatto che non è possibile trovare cellule piramidali che ab­ biano arborescenze dendritiche perfettamente sovrapponibi­ li. Lo stesso vale, naturalmente, per le loro ramificazioni as­ sonali. Se la specificazione genetica della forma dei neuroni è data mediante un qualche tipo di statistica geometrica, al­ lora anche noi dovremmo adottare lo stesso linguaggio per formularne la descrizione neuroanatomica, in modo da esprimere soltanto le informazioni essenziali. Ora, può darsi che ciò sia falso per qualche singola parte del cervello dei vertebrati, ed è noto che è falso per il cervello di alcuni in­ setti (come vedremo in seguito), ma è anche la soluzione di gran lunga più probabile nel caso della corteccia cerebrale, 1 97

in cui solo alcuni tipi di cellule stellate sono definiti con più precisione relativamente ai neuroni bersaglio. Questa irridu­ cibile casualità contraddice l'idea di uno schema preciso co­ me quello dei circuiti elettronici (idea che pure qualcuno si ostina a riproporre per la corteccia cerebrale), ma serve an­ che a smorzare il pessimismo che l'impossibilità di estrarre un tale schema da un enorme numero di neuroni potrebbe ispirare. Anche l'analisi di un altro tessuto nervoso, la corteccia cerebellare, porta direttamente a formulare l'ipotesi di un meccanismo particolare (vedi Braitenberg, 1 96 1 , 1 967a). Si tratta, infatti, di una rete radicalmente diversa da quella del­ la corteccia cerebrale. In primo luogo, nel cervelletto non v'è traccia di circuiti di connessioni eccitatorie, né da un punto di vista anatomico né da quello, ormai sufficientemente ap­ profondito, della fisiologia sinaptica. Gli unici elementi in­ trinsecamente eccitatori dello strato molecolare della cortec­ cia cerebellare sono i neuroni granulari della fibra a cellule parallele (granular cell-parallel fibre neurons) che trasmetto­ no i propri segnali esclusivamente agli interneuroni inibitori e alle cellule inibitorie di uscita della corteccia cerebellare, cioè alle cellule di Purkinje. I segnali che ritornano ai neuro­ ni eccitatori sono cambiati di segno, rendendo secondario il ruolo del feedback positivo a meno di non costruire com­ plessi schemi di inversione di segno doppia o quadrupla. Ne segue che se, come sembra probabile, un qualche ruolo spet­ ta alla memoria nel cervelletto, tale ruolo non può essere quello della memoria associativa che abbiamo appena de­ scritto. Un'altra notevole caratteristica della corteccia cerebella­ re è la sua disposizione essenzialmente unidimensionale. No­ nostante le relazioni macroscopiche possano sembrare leg­ germente meno lineari di quanto si potrebbe pensare, a causa della curvatura tridimensionale del foglio della cortec­ cia cerebellare, se si restringe il campo d'osservazione a una regione sufficientemente piccola, si può notare che la tra­ smissione del segnale nelle fibre parallele (numericamente prevalenti) avviene in una sola direzione, e precisamente la direzione definita dall'asse trasversale del foglio corticale. La disposizione sinaptica della corteccia cerebellare non è dunque veramente bidimensionale, ma è piuttosto la somma di un gran numero di strisce unidimensionali corrispondenti a ciò che i fisiologi chiamano "fasci (beams) di fibre paralle­ le". Quest'idea risulta ancora più convincente se si pensa che le connessioni ad angolo retto a queste strisce sono inibito1 98

rie, la cui funzione isolante impedisce al segnale di propa­ garsi da una striscia all'altra. Il sistema di fibre parallele è unico anche sotto altri aspetti. In altri settori del sistema nervoso, infatti, e specialmente in quelli che condividono la struttura bidimensionale della corteccia, la connettività è de­ finita mediante le relazioni di vicinanza in cui la distanza fra gli elementi, e quindi anche la lunghezza delle fibre che li connettono, è distorta dal piegamento e dallo stiramento di queste strutture. Nel cervelletto, viceversa, le pieghe della corteccia sembrano rispettare il sistema di coordinate intrin­ seche del tessuto disponendosi lungo la direzione delle fibre parallele. È come se si volesse evitare ogni forma di distor­ sione della lunghezza delle fibre parallele appartenenti a sot­ tostrati diversi dello strato molecolare (una tale distorsione verrebbe prodotta, ad esempio, nel caso di pieghe nella dire­ zione opposta). Una tale invarianza metrica, in quanto distin­ ta dall'invarianza meramente topologica prevalente in altre strutture neuroanatomiche, è probabilmente da ricondurre al fatto che i tempi di trasmissione e ricezione del segnale in punti differenti del fascio parallelo possono risultare crucia­ li nel cervelletto. Quest'idea ha prodotto una reinterpretazio­ ne del ruolo del cervelletto relativamente al movimento e al­ la posizione, reinterpretazione che è ancora soggetta ad ana­ lisi fisiologica e sperimentale. Abbiamo già visto come l'analisi della struttura del tessu­ to nervoso possa portare a formulare precise ipotesi sulla natura dei meccanismi computazionali sottostanti. Voglio fornire un terzo esempio di ciò, relativo al sistema nervoso, molto più schematico, degli insetti. Reichardt e la sua scuola hanno analizzato in modo insolitamente preciso il sistema vi­ sivo della mosca nel corso di esperimenti comportamentali (vedi Reichardt, 1970). Alla base di tale stupefacente sistema, come hanno rivelato questi studi, sono stati postulati dei ri­ levatori individuali di movimenti elementari, situati fra ca­ nali contigui dell'occhio composto. Tali rilevatori trasforma­ no i segnali paralleli relativi alla fluttuazione temporale nei vari punti di ingresso in una rappresentazione unitaria del movimento locale su tutto il campo visivo. L'analisi elettrofi­ siologica non ha ancora permesso di localizzare esattamente i rilevatori di movimento, ma la neuroanatomia è in grado di fornire indizi forse decisivi. Nel sistema visivo della mosca, al livello del primo ganglio (la lamina ganglionaris), l'imma­ gine dell'ambiente che l'ottica dell'occhio composto aveva di­ viso in piccole sotto-regioni sovrapponentesi e invertite, vie­ ne ricostruita secondo l'ordine originale. Torneremo su que1 99

sto punto più tardi, quando tratteremo dei concetti mnati; prima però voglio affrontare un'altra importante questione (vedi Braitenberg e Hauser-Holschuh, 1 972). I segnali prove­ nienti da ogni punto dello spazio visivo sono trasmessi attra­ verso lo stesso numero e tipo di sinapsi a due differenti neu­ roni di secondo ordine, che a loro volta li trasmettono alla stessa colonna, ma a due livelli differenti, del successivo ganglio visivo (per chiarezza ho ignorato l'esistenza di altri neuroni di secondo ordine). Non è chiaro, a prima vista, per­ ché il sistema nervoso non utilizzi anche in questo caso l'u­ suale meccanismo per la riproduzione dello stesso segnale in punti differenti, e cioè la ramificazione degli assoni. Tutta­ via, poiché vengono utilizzati due differenti neuroni, dobbia­ mo supporre che le loro proprietà di trasmissione non siano esattamente uguali: ad esempio, l'uno potrebbe essere eccita­ torio e l'altro inibitorio, oppure potrebbero differire per le costanti temporali della loro risposta. E invero quest'ultima idea sembra confermata dal fatto che i due neuroni di secon­ do ordine, L, e L2, hanno diverso spessore, che varia in modo sistematico in parti diverse del ganglio. Si è tentati di pensa­ re che queste fibre siano filtri interposti fra il segnale in in­ gresso e i rilevatori di movimento. Infatti, Reichardt (1 970) ha proposto uno schema secondo cui ogni linea di ingresso fornisce dati a diversi rilevatori di movimento attraverso due tipi di filtri che differiscono principalmente per le co­ stanti temporali. Quest'interpretazione è sostenuta anche da alcuni esperimenti che sembrano mostrare come i rilevatori di movimento guidino il comportamento della mosca in mo­ do diverso in differenti parti del campo visivo, e ciò sembra connesso alla variazione quantitativa delle dimensioni della fibre L, e L2 in parti differenti del ganglio. Dovesse risultare che le due fibre producono segnali di segno opposto, eccita­ tori e inibitori, avremmo un altro modello della rilevazione del movimento da adattare al quadro sperimentale (vedi Bar­ low e Levick, 1 965). Questa interpretazione tuttavia non riu­ scirebbe a spiegare le variazioni di dimensione messe in luce in anatomia, che si inseriscono invece così nitidamente nell'i­ potesi che le fibre siano filtri aventi diverse costanti tempo­ rali.

Concetti innati In alcune reti nervose le dimensioni e la forma delle arbo­ rescenze neuronali sono immediatamente interpretabili alla luce di alcuni ben noti concetti della tecnologia informatica. 200

Ad esempio, consideriamo gli alberi dendritici delle cellule piramidali della corteccia visiva: le loro dimensioni non sono fisse, e il loro diametro varia di un fattore vicino a dieci. I più piccoli sono totalmente contenuti all'interno degli alberi dendritici dei più grandi, e ognuno di essi ha un alto grado di sovrapposizione con i propri vicini. Sembra assai probabi­ le che molti di questi neuroni ricevano ciò che viene chiama­ to specific input, e cioè l'insieme di circa un milione di fibre che proiettano in modo puntuale l'immagine dell'ambiente visivo sul piano della corteccia. Trascurando le proprietà più complesse che nel corso degli anni sono state attribuite alla membrana dendritica, possiamo supporre che ogni neurone riceva in ingresso una media dei dati relativi ai punti indivi­ duali che cadono entro il suo raggio d'azione. In questo mo­ do i neuroni più piccoli rappresenterebbero l'immagine in tutta la sua ricchezza informativa, ne darebbero, per così di­ re, una rappresentazione a grana fine, mentre quelli via via più grandi costituirebbero dei filtri più grossolani per le fre­ quenze spaziali, avendd ognuno un'ampiezza di banda inver­ samente proporzionale alle dimensioni dei propri elementi. Così, supponendo che l'azione di ogni neurone si aggiunga a quelle di altri neuroni aventi diverse dimensioni, senza con­ fondersi con esse, otteniamo un sistema capace di condurre qualcosa di simile a un'analisi di Fourier. Come ognuno di noi può convincersi prestando un minimo di attenzione alla propria percezione visiva, osservando una scena noi riuscia­ mo a usare diversi insiemi di filtri, tanto consciamente quan­ to inconsciamente, a seconda del livello di dettaglio a cui l'immagine risulta più significativa. In un certo senso, quin­ di, la frequenza spaziale è un concetto innato, così come, allo stesso livello, lo sono i contorni e la loro inclinazione come sembrano suggerire i risultati di Hubel e Wiesel (1977). Passiamo ora a un esempio della rimarchevole discrepan­ za che può sussistere fra la semplicità di alcune strutture anatomiche e l'analisi di alto livello che esse sono in grado di condurre. Come è noto, la nostra percezione delle forme do­ tate di simmetria bilaterale è particolarmente acuta, anche nel caso in cui tali forme siano immerse in un contesto visi­ vo considerevolmente rumoroso (vedi Barlow e Reeves, 1 978). La rilevazione di tali configurazioni simmetriche è tut­ tavia migliore se si fissa l'asse di simmetria, così che le due metà simmetriche dell'immagine siano proiettate su posizio­ ni simmetriche del cervello destro e del cervello sinistro. Via via che il punto di fissazione si sposta da un lato, l'acutezza della percezione diminuisce molto rapidamente. Apparente201

mente dunque vi sono sistemi di fibre nel cervello capaci di confrontare punti simmetrici del campo visivo stabilendone l'identità o la non identità. Naturalmente tali sistemi sono or­ mai ben conosciuti: tanto i circa duecento milioni di fibre del corpo calloso, quanto altri fasci commissurali sono in grado di assolvere al compito. Il fatto poi che l'area visiva primaria non partecipi al sistema commissurale (se non in piccola par­ te) non costituisce un problema: la percezione della forma, in­ fatti, è piuttosto da ricondurre alle rappresentazioni corticali secondarie e terziarie del campo visivo, che hanno numerose connessioni callose. La controparte filosofica di questo sem­ plice schema di connessioni fisiche è sorprendentemente com­ plessa. In un ambiente naturale, la presenza di forme simme­ triche bilaterali nel campo visivo sta di solito a indicare una sola cosa, e cioè che di fronte all'osservatore si trova un altro animale "che ha lui nella mente", le cui intenzioni potrebbero essere amichevoli o non amichevoli. Si tratta in ogni caso di una situazione la cui potenziale pericolosità giustifica il costo di duecento milioni di lunghe fibre che congiungono le due parti del cervello. In un certo senso, il corpo calloso è un'idea innata di natura sociologica o, almeno, comportamentale in­ terrattiva. Vi è un altro esempio di conoscenza innata che potrebbe ri­ sultare particolarmente interessante perché contraddice l'o­ pinione comune (da me condivisa per quanto riguarda la cor­ teccia cerebrale) secondo cui la maggior parte delle connes­ sioni del cervello ha origine statistica. Si sostiene, infatti, che le informazioni genetiche non possono essere sufficienti per determinare con assoluta precisione l'origine e la terminazio­ ne di ogni singola fibra del tessuto nervoso. Tuttavia, nei cer­ velli più piccoli come, ad esempio, quelli degli insetti, è a volte possibile determinare l'ordine assoluto delle fibre (vedi Brai­ tenberg, 1976b). Abbiamo già menzionato il caso dell'occhio composto della mosca, con le sue seimila lenti individuali che proiettano seimila immagini parziali dell'ambiente ottico su altrettante piccole retine. Poiché la proiezione ottica è simile a quella che avviene in una macchina fotografica, tali immagi­ ni parziali sono invertite e sovrapponentesi almeno in una cer­ ta misura. Le fibre che ristabiliscono l'ordine originale dei punti dello spazio visivo sono connesse con assoluta precisio­ ne a determinati neuroni del ganglio, secondo uno schema fa­ cilmente ricavabile a partire dalle proprietà ottiche e geome­ triche di ogni singola "macchina fotografica" (detta anche om­ matidium) e dall 'angolo di divergenza rispetto all'asse degli ommatidia vicini. Ovviamente, il primo compito di questo si202

stema dovrebbe essere la rotazione di 1 80° del piccolo fascio di fibre che emerge da ogni piccola retina (o "retinula"), in mo­ do da compensare la rotazione dell'immagine dovuta alla len­ te e adattare l'orientamento delle piccole immagini all'orien­ tamento generale dell'occhio che, essendo costituito da canali separati disposti radialmente, non opera alcuna inversione. Risulta che le cose stanno proprio così. Dunque non si esagera affatto dicendo che il sistema conosce le proprietà ottiche e geometriche del singolo elemento visivo dell'occhio compo­ sto: si tratta di conoscenze fisiche che vengono incorporate nella costruzione dell'occhio dell'insetto già nello stadio di pupa, cioè prima che l'occhio sia mai stato usato. Conosco al­ cuni studiosi che non condividerebbero l'uso del termine "co­ noscenza" in questo contesto, ma esso mi sembra affatto ap­ propriato, purché se ne ignorino le connotazioni ideologiche e introspettive.

Concetti acquisiti Nessuno è mai veramente riuscito a vedere una specifica traccia di memoria (o "engramma") nel cervello. D'altra parte, è probabile che molti dei particolari della struttura del cervel­ lo (osservabili al microscopio elettronico o anche mediante i normali microscopi ottici) si siano sviluppati durante il corso della vita sulla base dell'esperienza. Trovare un engramma è così difficile perché le nostre conoscenze sulla funzione dei centri nervosi superiori indicano che esso consisterebbe in una serie di piccoli cambiamenti distribuiti, letteralmente sommersi da un'infinità di altri particolari rappresentanti, forse, cambiamenti connessi con altri engrammi. Sarebbe for­ se possibile trovare la traccia di un evento percettivo soltanto conoscendo a priori il modo in cui tale evento è rappresentato nel cervello. È bensì vero che bruschi cambiamenti ambientali (i cosiddetti "esperimenti di deprivazione") conducono talvol­ ta ad alterazioni visibili dell'anatomia normale, ma si tratta di eventi di tipo molto diverso rispetto a quelli che sono di solito all'origine dei ricordi della vita quotidiana. È chiaro che solo i mutamenti anatomici permanenti pos­ sono aspirare al ruolo di engrammi. È piuttosto difficile di­ stinguere i processi embriologici che hanno originato il cer­ vello dai processi e dai mutamenti successivi che costituisco­ no la memoria, specialmente in quegli animali che, come i to­ pi, i ratti, i gatti e gli esseri umani, al momento della nascita non hanno ancora completato il proprio sviluppo embriologi­ co. Tuttavia vi sono animali (ad esempio i porcellini d'India) la 203

cui nascita è, da uri punto di vista embriologico, più tarda, e che si trovano a dover affrontare l'ambiente avendo un cervel­ lo già completamente sviluppato. In tali animali potrebbe es­ sere più facile individuare mutamenti in corso, eventualmen­ te connessi con la memoria. E in effetti Schiiz ha scoperto che nei porcellini d'India il numero delle vescicole aumenta consi­ derevolmente in alcune sinapsi dopo la nascita, così come au­ mentano le dimensioni delle spine dendritiche (vedi Schiiz, 1981 a, 1 98 1 b). Entrambi questi fenomeni potrebbero essere mutamenti anatomici dovuti ai processi della memoria.

RIFERIMENTI BIBLIOGRAFICI Barlow, H.B. e W.R. Levick (1965), The Mechanism of Directionally Selective Units in Rabbits Retina, in "J. Physiol.", 1 78, pp. 447506. Barlow, H.B. e B.C. Reeves (1978), The Versatility and Absolute Effi­ ciency of Detecting Mirror Symmetry in Random Dot Displays, in "Vision Res.", 1 9, pp. 783-793. Braitenberg, V. ( 1 96 1 ), Functional lnterpretation of Cerebellar Histo­ logy, in "Nature", 1 90, pp. 539-540. Braitenberg, V. ( 1 967a), fs the Cerebellar Cortex a Biologica[ Clock in the Millisecond Range?, Progress in Brain Research. The Cerebel­ lum, 25, Elsevier Pubi. Comp., Amsterdam, pp. 334-346. Braitenberg, V., ( 1 967b), Patterns of Projection in the Visual System of the Fly. I. Retina-Lamina Projections, in "Exp. Brain Res.", 3, pp. 27 1 -298. Braitenberg, V. ( 1 978a), Cortica[ Architectonics: Generai and Area[, in M.A.B. Brazier e H. Petsche (a cura di), Architectonics of the Cere­ bra[ Cortex, Raveo Press, New York. Braitenberg, V. ( 1978b), Celi Assemblies in the Cerebra[ Cortex, Lectu­ re Notes in "Biomathematics", 2 1 , a cura di R. Heim e G. Palm, Springer Verlag, Berlin, pp. 1 7 1 - 188. Braitenbereg, V e H. Hauser-Holschuh (1972), Patterns of Projection

in the Visual System of the Fly. l. Quantitative Aspects of Second Order Neurons in Relation to Models of Movement Perception, in

"Exp. Brain Res.", 1 6, pp. 184-209. Hubel, D.H. e T.N. Wiesel ( 1 977), Functional Architecture of Macaque Monkey Visual Cortex, in "Proc. R. Soc. London B", 1 98, pp. 1-59. Reichardt, W. (1 970), The Insect Eye as a Mode[ for Analysis of Upta­

ke. Transduction and Processing of Optical Date in the Ne rvous System, in 34 Physikertatung, Salzburg 1 969. Plenarvortrage,

B.G. Teubner, Stuttgart. Schiiz, A. (198 1 ), Priinatale Reifung und postnatale Veriinderungen im

Cortex des Meerschweinches: Auswertung eines natiirlichen De­ privationsexperimentes. Il. Postnatale Veriinderungen, in "J. Hirnforsch.", 22, pp. 1 1 3- 1 27.

204

Quali sono le unità della rappresentazione neurale ? di Gunther Palm

Scopo di queste pagine è discutere brevemente il proble­ ma della rappresentazione neurale centrale. Ora, a questo ri­ guardo sono due le posizioni principali che si contendono il favore degli studiosi di scienze neurologiche: secondo alcuni, gli oggetti del mondo esterno sono rappresentati centralmen­ te nel cervello (o nella corteccia cerebrale) mediante l'attiva­ zione dei singoli neuroni, mentre altri sostengono che tale ruolo può essere sostenuto soltanto da insiemi di neuroni. Fra i primi possiamo ricordare H. Barlow ( 1 972), e fra i se­ condi D. Webb (1 949). Tenterò di specificare le differenze fra le due posizioni e risulterà chiaro, credo, che le mie persona­ li simpatie vanno alla seconda di esse. Alla base della prima posizione vi è l'idea che vi deve pur essere qualcosa nel mondo esterno cui il singolo neurone ri­ sponde, almeno in quelle parti del cervello più direttamente legate all'attività sensoriale. Si possono comprendere le mo­ dalità di risposta di un gruppo di neuroni solo conoscendo le proprietà della risposta di ogni singolo neurone nel gruppo. Sembra quindi che il singolo neurone sia l'atomo naturale o l'unità fondamentale della rappresentazione del "significato" nel cervello. La forza della seconda posizione sta invece nel fatto che in un cervello finito i gruppi di neuroni sono più numerosi dei neuroni singoli, purché si ammetta che i gruppi possano sovrapporsi, e che quindi i gruppi o insiemi di neuroni pos­ sano nel loro insieme rappresentare più oggetti dei neuroni presi singolarmente. Inoltre, dal punto di vista della prima posizione, la rappresentazione di un dato oggetto andrebbe persa quando il neurone corrispondente muore, come capita spesso. Dovremmo quindi supporre, per scongiurare tale pe205

ricolo, che per ogni singolo oggetto vi siano più neuroni che lo rappresentano individualmente: la seconda posizione rag­ giunge lo stesso scopo più direttamente, supponendo che gli oggetti del mondo esterno siano rappresentati comunque da insiemi di neuroni. Potrebbe sembrare a questo punto che non vi sia più al­ cuna differenza residua fra le due posizioni se non forse nel­ la dimensione dei gruppi di neuroni che, per l'una come per l'altra, rappresentano gli oggetti esterni. Ma non è così. La differenza principale sta nel grado di sovrapposizione am­ messo per i diversi gruppi e nella connettività fra neuro­ ni del gruppo. È anche vero, tuttavia, che la prima posizio­ ne preferirebbe mantenere piccola la dimensione dei grup­ pi di neuroni, e ciò in conseguenza della difficoltà di spie­ gare come potrebbero sovrapporsi. Infatti, in un cervello composto da N neuroni vi sono soltanto N/n gruppi disgiunti di neuroni ciascuno costituito da n elementi, mentre vi sono N N! gruppi eventualmente sovrapposti di n n n! (N - n)! elementi. Torneremo più tardi sulle differenze relative al grado di connettività ammesso all'interno dei gruppi di neuroni, e concentriamoci, per ora, sul grado di sovrapposizione. Se i gruppi di neuroni rappresentanti oggetti diversi fossero es­ senzialmente disgiunti, allora la maggior parte dei neuroni individuali dovrebbe rispondere a oggetti individuali. Se fos­ sero tuttavia in buona misura sovrapposti, allora la maggio­ ranza dei singoli neuroni non risponderebbe a un unico og­ getto, ma a tanti oggetti distinti quanti sono gli insiemi in cui occorre. Vi è una particolare difficoltà cui va incontro l'idea della rappresentazione mediante insiemi di neuroni: quanto mag­ giore è il loro grado di sovrapposizione, tanto più difficile è separarli (come ha detto Hume "Tutte le idee che sono diffe­ renti sono separabili"). Le seguenti domande esprimono tale difficoltà in forma quantitativa: a) Dati due insiemi distinti di neuroni, qual è il grado ammesso della loro intersezione? b) A quanti insiemi distinti appartiene, mediamente, ogni singolo neurone ? c) Qual è il numero totale degli insiemi di neuroni ? d) Di che dimensiof\i sono questi insiemi ? Per rispondere a tali domande dovremmo poter confron­ tare diversi schemi di rappresentazione relativamente a un qualche criterio di ottimizzazione in base al quale scegliere lo schema "ottimo". A questo punto può forse tornare utile

( )=

206

l'esperienza accumulata in Intelligenza Artificiale riguardo all'efficacia dei diversi schemi di rappresentazione: nell'am­ bito di tale disciplina si è ormai appurato che la difficoltà di un problema dipende moltissimo dal modo in cui si è scelto di rappresentarlo, e tale scelta costituisce spesso il passo de­ cisivo per giungere alla soluzione. Ma la scelta della rappre­ sentazione effettivamente più utile dipende essenzialmente e quasi interamente dal particolare problema considerato, sen­ za che sia possibile individuare alcun criterio generale. Nel nostro caso si tratta di reperire uno schema generale per la rappresentazione degli oggetti e delle entità del mondo ester­ no che risultino di volta in volta pertinenti. Come giudicare la pertinenza di un oggetto? Stiamo parlando, è chiaro, del­ l'importanza relativa al tipo di problemi che si presenta nel corso della lotta per la sopravvivenza condotta da un anima­ le lungo tutto l'arco della propria vita. Poiché ciò che voglia­ mo reperire è un criterio di ottimizzazione per uno schema di rappresentazione generale, bisogna individuare un'attività altrettanto generale di soluzione dei problemi, che sia al tempo stesso indipendente dallo specifico problema cui è ap­ plicata. È mio parere che tale attività sia quella della memo­ ria e, più specificamente, quella dell'associazione e del com­

pletamento di configurazioni. L'associazione di configurazioni è la capacità della me­ moria di imparare che B è associato ad A in modo da asso­ ciare B se sottoposti allo stimolo A. Il completamento di con­ figurazioni è la capacità di imparare la configurazione A in modo da ricordarla per intero se ce ne viene presentata una parte sufficientemente grande. Lo strumento migliore per lo svolgimento di entrambe queste attività sembra essere una memoria associativa (vedi Palm, 1 985). L'idea di memoria associativa è molto vicina a quella di insiemi cellulari, proposta da Hebb (1 949), e ciò ci riporta al nostro problema di rappresentazione. Possiamo pensare a una configurazione memorizzata A, specialmente ai fini del suo completamento, come a un insieme di neuroni intercon­ nessi in modo eccitatorio. In effetti, possiamo anche suppor­ re che il processo di memorizzazione di A consista essenzial­ mente nella realizzazione (o, almeno, nel rafforzamento) di queste connessioni fra i neuroni dell'insieme che rappresen­ ta A. Avremmo così, ovviamente, che l'attivazione di pochi neuroni sarebbe sufficiente ad attivare l'intero insieme, e ciò grazie alla presenza delle connessioni eccitatorie. Possiamo ora tentare di rispondere alle quattro domande precedenti, chiarendo al contempo le differenze relative alla connettività fra le due posizioni discusse. È chiaro che la se207

conda di tali posizioni si fonda sulla presenza di numerose connessioni di feedback positivo fra i neuroni dell'insieme. Viceversa, la prima non richiede feedback positivo, quanto piuttosto connessioni gerarchiche di feedforward convergen­ ti su neuroni singoli preposti al rilevamento di caratteristi­ che complesse che possiamo considerare come "oggetti". Questa distinzione mette in luce i pericoli inerenti allo schema di organizzazione a insiemi di neuroni. Se le connes­ sioni di feedback positivo sono troppo numerose, un piccolo numero di neuroni attivi sarà sufficiente a provocare delle vere e proprie esplosioni di attivazione. È chiaro che una so­ vrapposizione eccessiva farebbe sì che l'attivazione di un so­ lo insieme di neuroni porti alla co-attivazione degli insiemi a esso significativamente sovrapposti, mentre una sovrapposi­ zione insufficiente riduce il numero totale degli insiemi pos­ sibili, riducendo così anche il numero delle configurazioni o degli oggetti memorizzabili. Un valore intermedio dovrebbe essere quello ottimo, determinabile mediante un criterio di ottimizzazione derivato dall'idea che il compito della rappre­ sentazione sia la memoria, e in particolare il completamento di configurazioni. Tale valore ottimo è stato determinato in una serie di articoli (vedi Palm 1 980, 1 9 8 1 , 1 984, 1 985a) i cui risultati non voglio riportare in questa sede. Per finire, mostrerò concretamente come sia possibile confinare l'attivazione a un insieme di neuroni, evitando che gli insiemi a esso sovrapposti ne siano a loro volta attivati. Il meccanismo neurale fondamentale alla base di questo feno­ meno è il controllo a soglia (threshold contro[), che si avvale del fatto che ogni neurone ha una soglia di attivazione al di sotto della quale resta inattivo, e che può essere identificata con il numero di segnali attivi che il neurone riceve in in­ gresso. Supponiamo che vi siano due insiemi A e B, ognuno dei quali è composto da n neuroni interconnessi, aventi esatta­ mente k neuroni in comune. Supponiamo parimenti che vi sia un insieme C di neuroni, tutti attivi, che appartengono ad A oppure a B : l'attivazione tenderà allora a espandersi attra­ verso le connessioni neuronali, coinvolgendo tanto A quanto B. Ora, l'ipotesi critica è che il valore della soglia sia funzio­ ne del grado di attivazione della rete neuronale nel suo com­ plesso. Finché in ogni neurone la soglia si mantiene superio­ re al numero dei neuroni appartenenti a C, C non può attiva­ re alcun neurone e il flusso di attivazione si esaurirà. Tutta­ via, abbassandosi la soglia, e purché C riesca ad attivare an­ che un solo neurone, verranno attivati tutti quei neuroni che ricevono da C il massimo numero di segnali in ingresso. Ab208

biamo cosi, m altre parole, il rilevamento di un massimo. Nell'esempio, C ha più neuroni in comune con A di quanti ne abbia con B. Ne segue che i neuroni di A, attraverso le loro interconnessioni, ricevono più segnali in ingresso rispetto a B, e ne vengono attivati. Una volta che A è attivo, resta tale, ma l'attività non si trasmette a B, almeno finché la soglia di ogni neurone si mantiene al di sotto delle dimensioni di A e al di sopra delle dimensioni dell'intersezione di A e B. Risulta chiaro, anche da questo semplice esempio, che i pericoli derivanti da un al­ to grado di sovrapposizione fra insiemi di neuroni e di feed­ back positivo possono essere scongiurati da un adeguato meccanismo di controllo a soglia (per i particolari di tale meccanismo vedi Palm, 1982, 1 98Sb).

RIFERIMENTI BIBLIOGRAFICI Barlow, H.B. (1 972), Single Units and Sensation: a Neuron Doctrine for Perceptual Psychology?, in "Perception", l , pp. 371-394. Hebb, D.O. (1 949), The Organization of Behaviour, John Wiley, New York. Palm, G. (1 980), On Associative Memory, in "Biol. Cybem.", 36, pp. 19-3 1 . Palm, G. ( 1 98 1 ), On the Storage Capacity o f an Associative Memory with Randomly Distributed Storage Elements, in "Biol. Cy­ bem.", 39, pp. 125-1 27. Palm, G. ( 1 982), Neural Assemblies: an Approach to Artificial Intelli­ gence. Studies of Brain Function, Springer Verlag, Berlin Palm, G. ( 1 984), Local Synaptic Modification Can Lead to Organized Connectivity Patterns in Associative Memory, in E. Frehland (a cura di), Synergetics. From Microscopic to Macroscopic Order, Springer Verlag, Berlin. Palm, G. (1 985a), Associative Ne tworks and Celi Assemblies, in A. Aersten e G. Palm (a cura di), First Trieste Meeting on Brain Theory, Springer Verlag, Berlin. Palm, G. (1 985b), Wissenpsychologie und Neurophisiologie, in H. Mandi e H. Spada (a cura di), Wissenpsychologie, Urban und Schwarzenberg, Miinchen.

209

L'epistemologia evoluzionistica tra creatività naturale e creatività artificiale di Vittorio Somenzi

Per "creatività naturale" si può intendere anzitutto la crea­ tività della natura, espressa nelle varie forme vegetali e ani­ mali e contrapposta alla creatività dell'uomo visto come unico "animale culturale". Se invece anche alla creatività umana viene assegnato un carattere di "naturalità", alla creatività naturale dell'uomo viene a contrapporsi la creatività artificiale delle sue macchi­ ne, in particolare dei calcolatori programmati per esibire una qualche forma di intelligenza. La mancanza di questo genere di distinzioni rende piutto­ sto paradossale la posizione di Karl Popper, il quale stabilisce una continuità senza salti tra la creatività della natura e quel­ la dell'uomo, e la posizione dei suoi seguaci Fogel, Owens e Walsh, i quali ritengono direttamente applicabile allo svilup­ po dell'Intelligenza Artificiale la stessa tecnica di variazione a caso e selezione attribuita alla natura dalle interpretazioni darwiniane e neodarwiniane dell'evoluzione. Popper sostiene che "gli scienziati, per quanto scettici, so­ no costretti ad ammettere che l'universo, o la natura, o come altro lo si voglia chiamare, è creativo. Perché ha prodotto uo­ mini creativi: ha prodotto Shakespeare e Michelangelo e Mo­ zart, quindi indirettamente le loro opere. Esso ha prodotto Darwin e così ha creato la teoria della selezione naturale". 1 Fogel, Owens e Walsh aggiungono all'identificazione tra universo creatore di uomini creativi e universo creatore di idee l'identificazione del metodo con cui è stato creato l'uomo con il metodo con cui questo ha creato la scienza: I l metodo scientifico non è stato inventato, è stato scoperto. Esso esisteva molto tempo prima dell'uomo; in effetti, esso ha dato ori210

gioe all'uomo. L'evoluzione naturale può venire vista come una realizzazione del metodo scientifico [ . ] Alcuni degli aspetti am­ bientali dell'evoluzione possono venire simulati. Nella sua es­ senza, questa simulazione costituisce una meccanizzazione del metodo scientifico [ .] Il processo di induzione è stato ridotto a una procedura di routine. Se "creatività" e "immaginazione" so­ no attributi essenziali di questo processo, allora anche esse so­ no state realizzate. 2 ..

..

Nonostante il loro ottimismo, la proposta di Fogel, Owens e Walsh è stata scartata da McCarthy e Hayes i quali, come altri specialisti di Intelligenza Artificiale, preferiscono prendere a modello l'epistemologia tradizionale anziché l'e­ pistemologia evoluzionistica. 3 D'altronde anche il programma battezzato Dendral da Le­ derberg, Buchanan e Feigenbaum può funzionare, secondo Margaret Boden, "solo entro un ambito assai ristretto e spe­ cializzato di un paradigma scientifico saldamente stabilito [ ] Il salto creativo verso un nuovo paradigma scientifico, che T.S. Kuhn ha paragonato a uno scatto gestaltico [...] è al di là della portata del ragionamento di Dendral" . 4 Per quanto riguarda l'analisi dei processi creativi testi­ moniati dalla storia della scienza, è stato rilevato da Bob Co­ ben e Max Wartofsky, nelle loro prefazioni a due volumi cu­ rati da Thomas Nickles, 5 che "la scoperta scientifica sta ve­ nendo riscoperta", dopo un lungo periodo in cui essa è stata esclusa dal dominio della filosofia della scienza e confinata nel campo "dell'intrattabile, dell'ineffabile, dell'imperscruta­ bile". Viene ripresa la tradizione che da Whewell, Mach, Poincaré, Peirce, Rignano ed Enriques giunge alle ricerche sul problem solving e sull'euristica di Polya, Hadamard e Po­ lanyi, e ad essa si ricollegano i recenti studi di epistemologia evoluzionistica promossi da Donald Campbell, Konrad Lo­ renz e Karl Popper. Donald Campbell, in particolare, insiste sulla utilità di questa coraggiosa entrata nel "contesto della scoperta", dopo tanto inchiostro dedicato al "contesto della giustificazione" dai fondatori dell'empirismo logico e dalla successiva gene­ razione di filosofi della scienza. Ai numerosi esempi di de­ scrizioni o analisi psicologiche dei processi di invenzione, in­ novazione o scoperta, effettuati dai protagonisti stessi e in parte riportati in un saggio di Campbell dedicato a Popper, 6 possiamo aggiungerne ora altri, che pure si prestano a una analisi in termini di epistemologia evoluzionistica. Nickles prende l'avvio dal lavoro di Reichenbach, il quale dopo avere introdotto la distinzione tra i due contesti, della scoperta e della giustificazione, dedicò al primo, nel 1938, ...

211

un'attenzione che nel mondo anglosassone non ebbe seguito fino ai lavori di Hanson del decennio 1 958-1 967. Nickles vuole tuttavia evitare la caduta nella "matafora percettiva" adottata da Hanson e Kuhn, sulla scia degli psi­ cologi della Gestalt, e limita il valore della casistica che fa ri­ ferimento a illuminazioni improvvise e a sogni a una parte marginale, "epifenomenica", del vero e proprio processo di scoperta, sia esso induttivo come voleva Reichenbach o ipo­ tetico-deduttivo come vuole Popper. Dal punto di vista degli epistemologi evoluzionistici, i nu­ merosi esempi di insight appaiono invece rilevanti ai fini del­ l'affermazione che "solo il caso può generare novità" e che il metodo da Darwin attribuito alla natura è il metodo miglio­ re per la produzione di idee veramente nuove da parte del­ l'uomo. L'accusa di "irrazionalità" a questo tipo di spiegazio­ ni del processo creativo viene comunque respinta da Nickles, sulla base della considerazione che "non tutte le nostre atti­ vità e capacità razionali possono venire rese intelligibili in termini di deliberazione pienamente cosciente, ma questo non le rende per niente meno razionali; dopotutto, i procedi­ menti della scoperta scientifica costituiscono una prova fa­ miliare del fatto che il cervello umano opera sottili calcoli e valutazioni a un livello subconscio". Quanto all'aspetto normativa che una metodologia, se non una logica, della scoperta scientifica dovrebbe esibire, Nickles trova lacunose le interpretazioni a base di eureka! poiché ne seguirebbe solo un invito a prendere molti amni­ bus o treni, sull'esempio di Poincaré, a sonnecchiare davanti al caminetto, come Kekulé, a sedere sotto il melo di Newton o, possiamo aggiungere, a distendersi nella vasca di Archi­ mede: si completa così la triade "Bus, Bath, Bed" di cui parla Wolfgang Koehler. 7 Da questo non si deduce che la "variazione alla cieca con conservazione selettiva" di Campbell sia da porre sullo stes­ so piano del "qualunque cosa va bene" di Feyerabend. Il pro­ blema si sposta sui criteri selettivi di cui dovrebbe far uso il singolo scienziato, prima ancora che la comunità scientifica, per valutare le combinazioni casuali di idee su cui vale la pe­ na di soffermarsi in vista della risoluzione di determinati problemi. La possibilità che questi criteri selettivi risultino esprimi­ bili in termini razionali viene esclusa dai positivisti logici in base al cosiddetto "dilemma della spiegazione". Se una teo­ ria ha successo nel fornire una spiegazione della scoperta e dell'invenzione, allora essa riduce il pensiero creativo nella scienza a una procedura algoritmica, o a una conseguenza 212

deduttiva della teoria esplicativa, dissolvendo così la nozione stessa di creatività. Se la teoria fallisce nel tentativo di dare una spiegazione di questo genere, allora si tratta natural­ mente di una teoria fallita. Il dilemma è: o la teoria ha suc­ cesso, e il concetto di scoperta viene spiegato via ovvero ri­ duttivamente eliminato, o la teoria fallisce, e la scoperta ri­ mane inspiegata. Una critica a questa impostazione sterilizzante era stata fornita da Harold Brown nei termini che così Nickles ripre­ senta: Il tentativo degli empiristi logici di identificare la razionalità con la computabilità algoritmica ap pare piuttosto strano, poi­ ché esso presume razionali solo quelle azioni umane che in li­ nea di principio potrebbero essere eseguite senza la presenza di un essere umano [ . . .] Piuttosto, quelle decisioni che possono ve­ nire prese mediante l'applicazione di algoritmi sono casi para­ digmatici di situazioni in cui la razionalità non è richiesta; è proprio in quei casi che esigono una decisione o una nuova idea non dettabili da regole meccaniche, che noi invochiamo la ra· gione.

Tra gli "amici della scoperta" un posto a parte viene asse­ gnato da Nickles a Kenneth Schaffner, in quanto la sua fidu­ cia nella possibilità di una logica della scoperta si fonda sui successi della scuola di programmazione euristica di Her­ bert Simon, cioè trasporta la questione della scoperta dal campo della epistemologia speculativa a quello, empirico, dell'Intelligenza Artificiale. Schaffner non si limita alle logiche di tipo strettamente algoritmico, pertanto non cade nel dilemma della spiegazio­ ne, al quale è rimasta ancorata la Logik der Forschung di Popper, abusivamente intitolata in inglese e in italiano Logi­ ca della scoperta scientifica (Popper esclude, come noto, che l'atto di concepire o inventare una teoria sia suscettibile di analisi logica, e rinvia alla psicologia empirica lo studio del­ la nascita di nuove idee; lo stesso faceva Reichenbach in Ex­

perience and Prediction). Schaffner riprende il discorso selezionistico dell'immuno­ logia avviato da Niels Kaj Jerne nel 1 954, senza rilevare che anche questo costituisce un caso di illuminazione improvvisa e che, sia sotto tale aspetto sia sotto quello della metodolo­ gia darwiniana adottata da Jerne, esso rappresenta un esem­ pio di epistemologia evoluzionistica " inespressa". Nel marzo 1 954 Jerne stava meditando sul contrasto tra la presenza di una grande varietà di anticorpi, ciascuno in piccolissima concentrazione, nel siero di cavalli su cui stava 213

sperimentando, e le teorie allora in auge sulla generazione di anticorpi; queste teorie erano di tipo "istruttivo" (cioè la­ marckiano) nel senso che l'antigene darebbe al sistema im­ munitario, agendo come una matrice, l'informazione struttu­ rale necessaria per "stampare" l'anticorpo a esso comple­ mentare. Jerne così inquadra l'episodio: Può la verità (la capacità di sintetizzare un anticorpo) venire ap­ presa? Se è così, si deve assumere che essa non pre-esista: per essere appresa deve essere acquisita. Siamo di fronte alla diffi­ coltà su cui richiama l'attenzione Socrate nel Menone, cioè che ha così poco senso cercare ciò che non si conosce, quanto cerca­ re ciò che si conosce; non si può cercare ciò che si conosce, per­ ché lo si conosce già, e ciò che non si conosce non lo si può cer­ care, poiché non si sa neppure cosa cercare. Socrate risolve questa difficoltà postulando che l 'apprendimento non è altro che rievocazione. La verità (la capacità di sinte tizzare anticorpi) non può essere portata dentro da fuori, ma doveva esserci già.

Questo passo è la traduzione delle prime righe di Briciole filosofiche (1 844) di S�ren Kierkegaard (in inglese Philoso­ phical Bit, or a Bit of Philosophy). Secondo Jerne, sostituen­ do la parola verità con le parole tra parentesi la tesi socrati­ ca può venire fatta diventare la base logica della teoria selet­ tiva della formazione di anticorpi. Per dirla i n termini d i biologia molecolare - prosegue Jeme le potenzialità sintetiche non possono venire imposte agli acidi nucleici, devono invece preesistere. Non so se echi di Kierke­ gaard contribuirono all'idea di un meccanismo selettivo della formazione di anticorpi, che mi venne una sera del marzo 1 954, mentre stavo andando a piedi a casa, a Copenhagen, dall'Istitu­ to statale del siero ad Amaliegade. Il corso del pensiero si pre­ sentò così: la sola proprietà che tutti gli antigeni condividono è quella di attaccarsi al sito combinante di una appropriata mole­ cola di anticorpo; questo attaccamento deve perciò essere un passo cruciale nella sequenza di eventi per cui l'introduzione di un antigene in un animale conduce alla formazione di anticorpi; un milione di siti combinanti strutturalmente differenti, sugli anticorpi, basterebbe per spiegare la specificità sierologica [. .] Tre meccanismi vanno presupposti: (l) un meccanismo casuale che assicuri la sintesi limitata di molecole di anticorpi in possesso di tutti i possibili siti combi­ nanti, in assenza di antigeni; (2) un meccanismo di depurazione che reprime la sintesi di mo­ lecole di anticorpi corrispondenti ad auto-antigeni; (3) un meccanismo selettivo per promuovere la sintesi di quelle molecole di anticorpi che meglio corrispondono a qualsiasi anti­ gene entri nell'animale. .

214

La struttura generale della teoria era completa prima che io at­ traversassi il ponte di Knippel. Decisi di lasciarla maturare e te­ nerla da parte per una prima discussione con Max Delbriick du­ rante il nostro viaggio negli Stati Uniti, previsto per l'estate.

Schaffner si imbatte poi in un caso dichiarato di illumi­ nazione improvvisa: la formulazione, da parte di F.M. Bur­ net, di una "Modificazione della teoria di Jerne della produ­ zione di anticorpi, facente uso del concetto di selezione clo­ nale". La nuova teoria venne enunciata nel 1 957, sviluppata l'anno seguente e pubblicata nel 1 959 col titolo The Clonai Selection Theory of Acquired Immunity; ma incontrò resi­ stenze e pseudo-falsificazioni fino al 1 967, quando cominciò a venire accettata dalla massima parte degli specialisti. L'idea di sostituire gli anticorpi naturali di Jerne con le cellule che li producevano e di applicare un processo seletti­ vo in senso darwiniano alle cellule producenti anticorpi si è presentata a Burnet come l'elemento mancante di un mosai­ co da completare, con uno "scatto" netto e improvviso. Schaffner depreca che questa esperienza di Burnet venga da lui raccontata in termini di illuminazione e quindi rafforzi la tesi di Popper della "illogicità" della scoperta; ma non dispe­ ra di sistemare alcuni elementi irrazionali del processo di scoperta nel quadro dei suoi aspetti valutativi preliminari, solo in apparenza inanalizzabili perché inconsci. Il rinvio al­ le ricerche sull'Intelligenza Artificiale dovrebbe appunto permettere di ovviare a livello modellistico a questa mancan­ za di analisi diretta. Herbert Simon ha cercato di ricondurre i processi di in­ cubazione e illuminazione improvvisa, descritti da Poincaré, Hadamard e Wertheimer (il capitolo dedicato a Einstein ne Il pensiero produttivo) a elaborazioni seriali di informazione qualitativamente non diverse da quelle che avvengono nel problem solving totalmente consapevole. 8 Simon respinge l'idea che i processi inconsci o subconsci avvengano per elaborazione in parallelo anziché in serie (co­ me era lecito ipotizzare quando alle proprietà digitali e ana­ litiche dell'emisfero dominante venivano decisamente con­ trapposte le capacità analogiche e sintetiche dell'emisfero "minore") e insiste sulla possibilità che un sistema seriale si­ muli, per time sharing, il comportamento di un sistema ope­ rante in parallelo. La sua teoria "minimale" mira pertanto a spiegare me­ diante i noti meccanismi selettivi di prova ed errore della fa­ se preparatoria anche i misteriosi processi di incubazione e illuminazione, così come mira a spiegare con meccanismi 215

qualitativamente non diversi da quelli della scienza normale i periodi di scienza rivoluzionaria, assai pochi in confronto alle migliaia di anni-uomo occorsi per la loro preparazione. Poiché il numero di simboli che possono venire conservati nella memoria a breve scadenza, o "immediata", si limita al celebre "sette più o meno due" di George Miller, secondo Si­ mon occorre che un processo di "familiarizzazione" immagaz­ zini nella memoria permanente tale e tanta informazione strutturabile da permettere il suo riconoscimento globale sot­ to un'unica etichetta, sia questa un nome o un simbolo. Le strutture più complesse possono venire acquisite soltanto co­ struendole passo a passo a partire da sottostrutture a loro vol­ ta formate da sottostrutture più piccole. Quando una sotto­ struttura viene appresa o immagazzinata nella memoria per­ manente, il simbolo che funziona internamente come suo "no­ me" può venire usato nella memoria immediata come un pez­ zo unico combinabile con altre sottostrutture. In questo mo­ do, una struttura totale di grandezza illimitata può venire da noi realizzata !imitandoci a trattenere nella memoria imme­ diata pochi simboli. Un secondo meccanismo ideato da Simon per spiegare l'in­ cubazione e l'illuminazione subitanea consiste nel processo di dimenticanza selettiva, che permette di dimenticare più rapi­ damente alcuni contenuti di memoria rispetto ad altri. Nella organizzazione tipica di un programma di risoluzione di pro­ blemi, gli sforzi risolutivi vengono guidati e controllati da una gerarchia o "albero" di scopi e sottoscopi, che viene memoriz­ zata. Una volta raggiunto un sottoscopo, per esempio un lem­ ma nella dimostrazione di un teorema, esso può venire dimen­ ticato, ma l'albero degli scopi non raggiunti va mantenuto in una memoria a termine relativamente breve. Rimane invece impressa nella memoria a lungo termine la "lavagna", come la chiama Simon, contenente tutte le informazioni collaterali che il soggetto ha raccolto circa l' "ambiente" del problema e che non riguardano direttamente il raggiungimento dei sottoscopi. Quando il soggetto si allontana per un certo tempo dal pro­ blema, l'informazione a breve termine dell 'albero degli scopi sparisce più rapidamente di quella a lungo termine della lava­ gna; se il problema viene poi riaffrontato, sarà quest'ultima a determinare la ricostruzione dell'albero degli scopi, il quale si presenterà ora in maniera diversa da quella iniziale, grazie al­ la nuova informazione sui dintorni del problema registrata nella lavagna. Il cambio di prospettiva, ovvero di struttura dell'albero, può dar luogo all'improvvisa risoluzione di un problema che con la precedente gerarchia di scopi incontrava difficoltà insormontabili. 216

Quantunque Simon abbia applicato con successo questo modello alle proprie esperienze soggettive di illuminazione, egli lo ritiene ancora carente di convalide sperimentali e lo difende soprattutto per la sua economicità, dato che non pre­ suppone processi diversi da quelli consci, neppure nel senso di una inconsapevole ricerca a caso entro una immensa gam­ ma di possibilità. A questo tipo di rifiuto del modello darwiniano di varia­ zione alla cieca, Campbell replica rilevando nel modello di Simon la persistenza di una procedura alla cieca, per tentati­ vi ed errori, applicata ai principi euristici, la selezione tra i quali avverrebbe in base a una conoscenza generale prece­ dentemente acquisita, che in quanto tale non può spiegare una conoscenza realmente innovativa. Ma Simon ha idee pre­ cise anche sul paradosso del Menone, e la discussione tra i due è ancora in corso. (Per altri aspetti dei modelli di Simon rinvio agli interventi di Roberto Cordeschi e di Giacomo Ga­ va in questo stesso convegno.)

NoTE l K. Popper, Natural Selection and the Emergence of Mind, in "Dialecti­ ca ", 32, 3-4, 1978. 2 J . Fogel, A.J. Owens e J. Walsh, A rtificial Intelligence Th rough Simula­ ted Evolution, Wiley, New York 1966, p. 1 1 2 . 3 J. McCarthy e P.I. Hayes, Some Philosophical Problems from the Standpoint of A rtificial Intelligence, in B. Meltzer, D. Michie e M. Swann (a cura di), Machine Intelligence, vol. 4, Edinburgh University Press, Edin­ burgh 1969. 4 M.A. Boden, Artificial lntelligence and Natural Man, The Harvester Press, Hassocks 1 977, p. 332. 5 T. Nickles (a cura di), Scientific Discovery, Logic, and Rationality, Bo­ ston Studies in the Philosophy of Science, Reidel, Dordrecht 1 980; T. Nick­ les (a cura di), Scientific Discovery: Case Studies, Boston Studies in the Phi­ losophy of Science, Reidel, Dordrecht 1 980. 6 D.T. Campbell, Epistemologia evoluzionistica, a cura di M. Stanzione, Armando, Roma 1 98 1 . 7 W. Koehler, Evoluzione e compiti della psicologia della forma, Arman­ do, Roma 1 97 1 . 8 H.A. Simon, Models of Discove ry, Reidel, Dordrecht 1977; H.A. Simon, Models of Thought, Yale University Press, New Haven 1 979.

RIFERIMENTI BIBLIOGRAFICI Beveridge, W.I.B ( 1 98 1), L'arte della ricerca scientifica, a cura di F. Voltaggio, Armando, Roma. Beveridge, W.I.B. ( 1 982), Genesi della scoperta, Armando, Roma. 217

Campbell, D.T. (1 969), Variazioni alla cieca e sopravvivenza seletti­ va come strategia generale nei processi conoscitivi, in V. So­ menzi (a cura di), La fisica della mente, Boringhieri, Torino. Campbell, D.T. (1 974), Unjustified variation and selective retention in scientific discovery, in F.J. Ayala e T. Dobzhansky (a cura di), Studies in the philosophy of biology, Macmillan, London. Campbell, D.T. (198 1), Epistemologia evoluzionistica, a cura di M. Stanzione, Armando, Roma. Cimino, G., Grmek, M.D. e V. Somenzi (a cura di) ( 1984), La scoper­ ta scientifica, Armando, Roma. Continenza, B., Cordeschi, R., Gagliasso, E., Ludovico, A. e M. Stanzione (1 984), Evoluzione e modelli, Editori Riuniti, Roma. Edelmar, G.M. (1 974), The problem of molecular recognition by a selective system, in F.J. Ayala e T. Dobzhansky (a cura di), Stu­ dies in the philosophy of biology, Macmillan, London. Enriques, F. ( 1 985), Problemi della scienza, Zanichelli, Bologna. Fogel, L.J., Owens, A.J. e M.J. Walsh (1 966), Artificial intelligence through simulated evolution, Wiley, New York. Hadamard, J. (1 945), The psychology of invention in the mathema­ tical field, Princeton University Press, Princeton. Hanson, N.R. (1 978), I modelli della scoperta scientifica, Feltrinelli, Milano. Holton, G. ( 1 983), L 'immaginazione scientifica, Einaudi, Torino. Holton, G. ( 1 984), L 'intelligenza scientifica, Armando, Roma. Kierkegaard, S. (1 987), Briciole filosofiche, Queriniana, Brescia. Kuhn, T.S. (1 978), La struttura delle rivoluzioni scientifiche, Einaudi, Torino. Lorenz, K. ( 1 974), L 'altra faccia dello specchio, Adelphi, Milano. Mach, E. (1 982), Conoscenza ed errore, Einaudi, Torino. Magnani, L. (a cura di) ( 1 984), Epistemologie dell 'invenzione, Ange­ li, Milano. Miller, G.A. (1 969), Il magico numero sette, piu o meno due, in D.H. Hildum (a cura di), Linguaggio e pensiero, Ubaldini, Roma. Nickles, T. (a cura di) (1 980a), Scientific discovery, logic, and ratio­ nality, Reidel, Dordrecht. Nickles, T. (a cura di) ( 1 980b), Scientific discovery: Case studies, Rei­ del, Dordrecht. Plotkin, H.C. (a cura di) (1 982), Learning, development and culture, Wiley, New York. Polanyi, M. (1 962), Personal knowledge, Routledge and Kegan Paul, London. Polanyi, M. (1 975), La conoscenza inespressa, a cura di F. Voltaggio, Armando, Roma. Polya, G. ( 1 967), Come risolvere i problemi di matematica, Feltrinel­ li, Milano. Popper, K. ( 1975), Conoscenza oggettiva, a cura di A. Rossi, Arman­ do, Roma. Popper, K. ( 1 972), Congetture e confutazioni, Il Mulino, Bologna. Rignano, E. ( 1 920), Psicologia del ragionamento, Zanichelli, Bo­ logna. Simon, H.A. (1 977), Models of discovery, Reidel, Dordrecht. 218

Simon, H.A. ( 1 979), Models of thought, Yale University Press, New Haven. Somenzi, V. ( 1 956), Can induction be mechanized?, in C. Cherry (a cura di), Information Theory, Butterworths, London. Somenzi, V. (a cura di) (1 965), La filosofia degli automi, Boringhieri, Torino. Somenzi, V (1 967), Uomini e macchine, in Atti del XXI Congresso Nazionale di Filosofia, Edizioni di "Filosofia", Torino. Somenzi, V. (1 968), Aspetti filosofici del problema della "Intelligenza Artificiale ", in Atti del Convegno "L 'automazione elettronica e le sue implicazioni scientifiche, tecniche e sociali ", Accademia Na­ zionale dei Lincei, Roma. Somenzi, V. (1 972), Intelligenza naturale e intelligenza artificiale, in "Filosofia", l . Somenzi, V. (1 978), Epistemologia evoluzionistica e creatività scien­ tifica, in "La Nuova Critica", 45. Wertheimer, M. (1 965), Il pensiero produttivo, Editrice Universita­ ria, Firenze.

2 19

Creatività scientifica tra psicologia e neurofisiologia di Giacomo Gava

Premesse l . Il problema della creatività si colloca all'interno del più ampio problema mente-cervello: è un suo sottopro­ blema. 2. Oggi in particolare il nocciolo del dibattito sulla crea­ tività scientifica si riduce a sostenere da un lato la logica, le logiche o, come altri preferiscono, la razionalità del proces­ so creativo, dall'altro la sua irrazionalità o uno scetticismo. Ci si chiede cioè se ad esso possiamo applicare oppure no delle regole logiche, se le possiede o no. 3. Alcuni dei teorici della creatività scientifica studiano questo fenomeno negli scienziati adulti e altamente creativi in generale, è il caso di J. Hadamard e di H. Gruber 1 altri invece concentrano l 'attenzione sui processi creativi delle persone adulte e altamente creative nei singoli settori della ricerca, come Th. V. Busse e R. S. Mansfield. 2 Tutti questi autori però concordano nel ritenere che le loro teorie, men­ tre sono sicuramente applicabili nelle aree scientifiche, non lo sono forse altrettanto in quelle non scientifiche.

Modelli psicologici H. von Helmholtz (1821-1 894) nel suo lavoro del 1 896 3 as­ serisce che vi sono tre fasi nel suo lavoro creativo: l) la ricerca iniziale viene portata avanti finché non si può più procedere oltre; 2) segue un periodo di riposo e di ricupero; 3) si presenta una soluzione improvvisa e spontanea. 4 220

H. Poincaré (1 854- 1 9 1 2) nella sua famosa conferenza alla Société de Psychologie di Parigi descrive la teoria dei gruppi fuchsiani e delle funzioni fuchsiane. Circa i primi, così egli si esprime: Una sera, contrariamente al solito, bevvi del caffè nero e non riuscii a prender sonno. Le idee mi si affollarono alla mente ed io le sentii scontrarsi tra loro finché non si agganciarono a cop­ pia, formando, per così dire, una combinazione stabile. 5 [ . . ] Cos'è dunque che accade ? Del gran numero di combinazioni che l'io subliminale forma alla cieca, quasi tutte sono senza in­ teresse e utilità alcuna, ma proprio per questo prive altresì di effetto sulla sensibilità estetica. La coscienza non ne saprà mai niente: solo alcune sono armo­ niose e, di conseguenza, immediatamente utili ed eleganti. 6 [... ] La spiegazione va forse cercata in quel periodo preliminare di lavoro cosciente che precede sempre ogni lavoro produttivo dell'inconscio. Concedetemi di fare un paragone un po' grosso­ lano. Immaginiamo che i futuri elementi delle nostre combina­ zioni somiglino agli atomi uncinati di Epicuro. Quando la mente è in completo riposo, questi atomi sono immobili, se ne stanno, per così dire, agganciati alla parete. Tale quiete assoluta si può prolungare indefinitamente senza che gli atomi s'incontrino e, quindi, senza che si verifichi alcuna combinazione tra loro. D'altra parte, nel corso di un periodo di quiete apparente e di lavoro inconscio, alcuni atomi vengono staccati dalla parete e messi in movimehto. Come uno sciame di zanzare e, se preferite un paragone più dotto, come le molecole di un gas descritte dal­ la teoria cinetica dei gas, costoro si proiettano in tutte le dire­ zioni attraverso lo spazio - stavo per dire: la stanza - in cui sono racchiusi. I loro impatti reciproci possono allora produrre nuove combinazioni. 7 [. . ] Nell'io subliminale, al contrario, regna ciò che chiamerei li­ bertà, se si potesse assegnare questo nome alla semplice assen­ za di disciplina e al disordine cui il mutamento dà vita. Solo grazie a questo disordine possono presentarsi combinazioni inattese. 8 .

.

Poincaré parla di un lavoro preliminare cosciente, che è seguito da un lavoro inconscio, in cui, nei momenti di quiete apparente, tra le numerosissime e disordinate combinazioni di idee l'inconscio stesso percepisce e seleziona solo quelle che possiedono una qualità o un carattere estetico, che sono cioè armoniche e che quindi sono immediatamente utili e in­ teressanti. Dopodiché compare la illuminazione improvvisa e cosciente. A Helmholtz però Poincaré aggiunge, dopo l'illu­ minazione, un periodo di sforzo cosciente per verificare, per precisare e per adoperare l'intuizione nell'ulteriore sviluppo e crescita della conoscenza. In questo matematico ed episte­ mologo francese non c'è il solo caso o, meglio, vi è il caso, 221

ma anche un "lungo e inconscio lavoro precedente" l'illumi­ nazione. G. Wallas, ispirandosi al fisico e fisiologo tedesco Helm­ holtz, nel 1926 9 scrive che il processo creativo consiste di quattro momenti: l) preparazione: il problema viene indagato in tutte le di­ rezioni; 2) incubazione: l 'individuo non pensa più consapevolmen­ te al problema e subentrano elaborazioni ed organizzazioni in­ terne del materiale raccolto; 3) illuminazione: comparsa dell' "idea felice" con gli stati psicologici che l'accompagnano; 4) verifica: valutazione critica della soluzione o del pro­ dotto. Secondo questo psicologo poi, le intuizioni non compaiono al centro, bensì ai margini della coscienza (fringe-conscious­ ness) 10 e vi sarebbe una intimation o "premonizione", cioè una specie di consapevolezza, di presentimento antecedente l'in­ tuizione. Jacques Hadamard ( 1 865- 1 963) si rifà principalmente a Poincaré e secondariamente a Helmholtz e a Wallas. Nel suo libro del 1 945, 1 1 accordando la psicanalisi con l'associazioni­ smo, egli ripropone i quattro stadi del processo creativo di Poincaré: l) preparazione: si ha un approccio al problema cosciente, sistematico e logico che a sua volta innesca i processi del pen­ siero inconscio; 2) e 3) incubazione e illuminazione: nell'inconscio, che è formato da vari livelli - di cui alcuni si trovano nell' "antica­ mera" 12 della coscienza, mentre altri sono più remoti 1 3 - han­ no luogo e si combinano molte idee a caso, ma solo le combi­ nazioni potenzialmente feconde e utili raggiungono la coscien­ za. 1 4 La mente inconscia vaglia, tra le numerose associazioni, le idee utili, le quali colpiscono la "sensibilità emotiva", il "senso della bellezza scientifica", l' "eleganza geometrica" o, se volete, il "gusto scientifico" 15 e vengono così percepite dalla mente cosciente. 1 6 4) esposizione, verificazione, precisazione e utilizzazione dei risultati: si espongono i risultati per iscritto ed a voce, si accerta la loro corrispondenza con la realtà, si precisano me­ glio e si valutano le loro future implicazioni e sviluppi, i nuovi problemi cui essi possono dar origine. Tra l'inconscio e la coscienza vi è continuità e mutua coo­ perazione. Se le idee si associano nei livelli profondi, la perso222

na viene ritenuta più intuitiva; se ciò avviene a un livello su­ perficiale, essa è considerata più logica. Quasi sempre però il lavoro logico segue una intuizione. 17 Il caso ha un suo ruolo nella scoperta, ma in essa interviene "l'azione preparatoria e più o meno intensa del conscio". 1 8 Questo matematico france­ se mette pure in luce le differenze del pensare creativo nei va­ ri scienziati - egli analizza specialmente i matematici - e il ruolo differenziato che le rappresentazioni svolgono in essi. 19 Herbert Alexander Simon ( 1 9 1 6) propone un diverso mo­ dello della scoperta scientifica. La teoria della scoperta scien­ tifica ha una parte empirica e una formale. La parte empirica, in cui si descrivono i processi psicologici che effettivamente hanno luogo nel compiere le scoperte scientifiche, compren­ de: l) l'imitazione attraverso il computer dei processi del pen­ sare umano quando risolve problemi; 2) la soluzione di proble­ mi e problem solving che spiega la scoperta scientifica e il pro­ gresso scientifico. La parte formale, che si pone sulla scia di Pierce 20 e di Hanson, 21 prende in considerazione la logica e le relative norme e prescrizioni che regolano i processi della sco­ perta scientifica. 22 Incominciamo con la parte empirica. l . Il pensare umano si sviluppa a due livelli: a) processi che da un problema portano alla sua soluzione (psicologia del­ la elaborazione dell'informazione); b) processi elettrochimici delle sinapsi (neurofisiologia). Ancor oggi fra i due livelli esi­ stono molte lacune. Non si può affermare altrettanto per il calcolatore numerico. 23 I calcolatori - operando con simboli anziché con numeri, provando teoremi, giocando a scacchi, compiendo decisioni di investimenti, e così via 24 - forniscono buona evidenza di un parallelismo tra questo loro pensare e quello umano. Ovviamente, altre attività del pensiero umano rimangono fuori. 25 Ed ecco alcune generalizzazioni tra i pro­ cessi del pensare umano e quelli dei calcolatori. Anzitutto tut­ ti questi processi sorgono da una piccola serie di processi ele­ mentari di informazione. Per quanto concerne l'organizzazio­ ne, essi: l) vengono organizzati gerarchicamente: dei processi elementari si possono combinare con uno complesso ed en­ trambi con processi più complessi, e così di seguito senza li­ miti; 2) vengono eseguiti in modo seriale. Altre somiglianze più attinenti al problem solving sono: l ) ricerca selettiva delle possibilità di soluzione per tentativi ed errori, selettiva per­ ché si esplorano alcune fra le numerosissime soluzioni possi­ bili; 2) analisi dei mezzi per un fine (means-end analysis); 3) di­ videre un problema in sottoproblemi; e 4) nei settori più siste­ matici si impiegano dei procedimenti formali e algoritmi per risolvere appunto un problema. 26 223

2. La teoria dell'elaborazione di informazione della solu­ zione di problemi spiega i processi della scoperta scientifica e, con le parole dell'autore, "la scoperta scientifica è una forma di soluzione di problemi e i processi, attraverso cui la scienza progredisce, possono essere spiegati nei termini usati per spiegare i processi della soluzione di problemi"Y Vi sono tre condizioni, presenti in maniera diversa, che conducono alla scoperta: l) la fortuna; 2) la persistenza; 3) l'euristica 28 miglio­ re degli altri, che deriva in parte almeno dall'esperienza e che consiste nella individuazione delle parti più rilevanti median­ te una miglior tecnica di osservazione e/o di rappresentazione o mediante una più spiccata sensibilità scientifica, cioè in una superiore ars inveniendi. Ma non ci sono differenze qualitati­ ve tra i processi creativi dei grandi scienziati e quelli degli scienziati "normali", per usare un'espressione di Kuhn. La scoperta scientifica inoltre è il frutto di molti studiosi; nasce dalle conoscenze precedenti sul mondo e non come Pallade Atena che esce armata dalla testa di Giove; è, in definitiva, un "processo lento e faticoso". 29 La soluzione di problemi spiega pure i processi di incuba­ zione e di illuminazione, che fanno parte dei processi della scoperta. I processi consci e inconsci nel cervello possono es­ sere descritti in modo seriale attraverso l'organizzazione del time-sharing; e l'illuminazione, che è un fatto comportamenti­ sticamente osservabile, 30 è compatibile sia col seriale che col parallelo. Nella teoria dell'elaborazione di informazione della soluzione di problemi intervengono altri due meccanismi: a) la familiarizzazione, che è data dalla memoria a lungo termi­ ne; e b) il dimenticare selettivo. Nella ricerca cioè esiste una gerarchia o "albero" degli scopi e dei sottoscopi per la soluzio­ ne del problema e un ambiente (lavagna) in cui si aggiunge l 'informazione; il primo, che è quello che guida la ricerca, è a breve termine, il secondo è a lungo termine. Quando si smette di fare ricerca, scompare l'albero lasciando la lavagna e quan­ do si riprende, si incomincia anche con la nuova informazio­ ne. Simon esemplifica il suo pensiero col classico e nitido "modello dell'albero" (fig. 1). Lo scopo della ricerca è di trovare la soluzione del proble­ ma, cioè il nodo col valore 20. E per questo vengono impiega­ te due regole: l ) cercare il sottoramo successivo col valore più alto; e 2) scegliere sempre il nodo sulla lavagna col valore più alto. Adoperando la prima regola, si avrebbe: A-B-E-G-J-P-0. . . ; adoperando poi la seconda, si otterrebbe: A-B-E-C-F-1-M, cioè la soluzione. Nella ricerca, in cui l 'attenzione al problema è continua, si applicherebbe la prima regola; nell'incubazione scomparirebbe l'albero e, riprendendo il lavoro, si ini224

N (B)

l ' Figura l

zierebbe seguendo per breve tempo la seconda regola per poi proseguire di nuovo con la prima. 31 Quanto infine alla parte formale della scoperta scientifica, per questo autore, che segue nell'ordine Peirce e Hanson, 32 un processo è '"logico' quando soddisfa le norme che abbiamo stabilito per esso"; 33 e ciò viene inteso in senso ampio. Le nor­ me infatti possono avere una base logica o empirica (per Pop­ per è soltanto logica). Simon inoltre scrive: "Una logica del metodo scientifico [ . ] è una serie di principi normativi per giudicare i processi usati per scoprire e per controllare le teo­ rie scientifiche, o la struttura formale delle teorie stesse." 34 E più avanti: " Un processo di scoperta di leggi è un processo per ricodificare, in maniera parsimoniosa, serie di dati empirici. Una teoria normativa della scoperta scientifica è una serie di criteri per valutare i processi della scoperta di leggi. " 3 5 Nel.

.

225

l'Intelligenza Artificiale 36 esistono "gli inizi di una teoria nor­ mativa della soluzione di problemi". 37 La teoria normativa del­ la scoperta di pattern (pattern-discovery) invece è meno progre­ dita, perché finora non si sono costruiti validi programmi per tale tipo di scoperta, ma si tratta di una questione puramente storica e accidentale. Insomma, esiste la possibilità di una logi­ ca della scoperta. Distinguendo, conclude Simon, l' "individua­ zione di pattern", i processi di scoperta, dalla "previsione", dai processi di controllo di leggi, "si può costruire una vera teoria normativa della scoperta, una logica della scoperta". 38

L 'approccio neurofisiologico Fino a qualche anno fa si pensava che i due emisferi cere­ brali avessero due diversi modi di elaborare l'informazione, due tipi distinti di funzioni cerebrali. In particolare si riteneva che:

seriale (lineare, uno dopo l'al­ tro)

(b) che l'emisfero minore o non­ verbale (per brevità useremo so­ lo dx.) fosse: non verbale (percez�one spa­ ziale, come i tratti del viso, stereotipi, ecc.) olistico intuitivo e creativo (movi­ menti sincronizzati, ad esem­ pio la danza) parallelo (contemporaneamente)

analitico - numerico (calcolo) - convergente (riferito al pensiero)

globale sintetico divergente (in relazione al pensiero)

(a) l'emisfero dominante o lin­ guistico (d'ora in poi lo chiame­

remo semplicemente sn.) fosse: - verbale simbolico logico (razionale)

E questo in seguito a: l) le registrazioni elettroecenfalografiche (EEG), inventate nel 1 924 dallo psichiatra tedesco H. Berger, che eseguì i suoi esperimenti sul figlio Klaus; 39 2) gli studi su pazienti split-brain, cioè gli esperimenti con le figure chimeriche, in cui l'immagine tachistoscopica viene presentata in uno dei campi visivi; 3) la stimolazione della corteccia cerebrale con elettrodi (W. Penfield, 1 959); 226

4) le osservate asimmetrie anatomico-strutturali (citoar­ chitettoniche) dei due emisferi (N. Geschwind); 5) il Wada test, che è del 1949 e che consiste in una inie­ zione di anestetico, di sodio amital, nella principale arteria che va a uno degli emisferi; 6) l'ascolto dicotico (come per gli emicampi visivi, l 'orec­ chio dx. trasmette il suo prevalentemente all'emisfero sn., e viceversa: il suono negli esperimenti viene presentato simul­ taneamente); 7) presentazioni lateralizzate di stimoli visivi (emicampo dx. proietta all'emisfero sn. e l'emicampo sn. proietta all'e­ misfero dx.); 8) il movimento saccadico congiunto degli occhi (se gli occhi girano a sn., si attiva l'emisfero dx. e viceversa. 40 Oggi abbiamo a disposizione anche altri strumenti più efficienti per studiare le specializzazioni emisferiche e l'atti­ vità cerebrale in genere: a) il PET e la misurazione del flusso ematico e sanguigno per le informazioni funzionali; b) la TAC e l'NMR prevalentemente per le funzioni modo­ logiche. A tutt'oggi queste lateralizzazioni emisferiche necessita­ no ulteriori approfondimenti. Ma soprattutto si sa ancora poco o nulla di come e in che misura queste specializzazioni funzionali emisferiche intervengono, operano e collaborano nel cervello normale, che è un sistema integrato e unito. Si ha solo evidenza che esse ora sono meno accentuate. Un esempio di questo mutamento di opinione può essere dato proprio dalla creatività, che, come si sa, veniva attri­ buita al dx. Zaidel 4 1 infatti sostiene che nulla prova che l'e­ misfero dx. sia più creativo del sn., anzi sembra che il sn. sia il maggiore responsabile. A sostegno di questa concezio­ ne adduce i risultati di due lavori. l) In alcuni esperimenti su pazienti col cervello diviso egli adopera due figure ambigue - la prima rappresenta una faccia con tutti i suoi organi spostati, la seconda ha gli elementi spostati allo stesso modo ma è priva dei contorni, capelli e collanina. Proiettando la prima immagine solo nel­ l'emi sfero dx., questo non si accorge delle novità: proiettata al sn., questo invece riconosce tutti gli elementi cambiati di posto. Eseguendo le stesse operazioni con la seconda figura, entrambi gli emisferi identificano perfettamente le varie parti. E ciò induce l'autore a ipotizzare che "l'emisfero dx. tratta gli elementi molto familiari, banali o stereotipici del­ la nostra esperienza visiva, mentre l'emisfero sn. si occupa degli aspetti nuovi, originali o complessi". 4 2 Nei due emisferi 227

ci sono delle differenze di rappresentazione del mondo reale. 2) Vi è poi il caso, riportato da H. Gardner, del pittore tedesco Levis Corinth, che ha avuto una lesione all'emisfero dx. e che fa l'autoritratto prima ( 1 9 1 1 ) e dopo ( 1 9 1 2 e 1 92 1 ) la lesione. La lesione nell'emisfero dx. non fa sparire la creatività, al più provoca un cambiamento di stile. 43 Zaidel conclude dicendo che entrambi gli emisferi inter­ vengono nella creatività, anche se si è tentati di attribuire all'emisfero sn. l' "impulso creativo".44 Riflettendo su quanto fin qui esposto, uno potrebbe chiedersi: "Che rapporto c'è tra i modelli psicologici pre­ sentati e le lateralizzazioni emisferiche? " Non avendo spazio sufficiente per illustrare tutti i loro legami né la complessa interazione tra il livello psicologico e quello neurofisiologico, dobbiamo limitarci ad analizzare i soli rapporti del modello ipersemplificato dell'albero di Simon, che però costituisce un caso paradigmatico. Come tutti i succitati modelli psicologici, anche il modello di Si­ mon risulterà valido se troverà conferma, se si realizzerà, se si reificherà sul piano neurofisiologico. Una volta rag­ giunto questo scopo, ovviamente la sua funzione cessa e il modello scompare, subentrando al suo posto le leggi scien­ tifiche del livello con maggior contenuto informativo e con maggior forza esplicativa e previsiva. Occorre premettere subito che, nel caso in questione, siamo ancora molto lonta­ ni dalla sua completa reificazione. Tuttavia, al momento possiamo iniziare a cogliere alcune sue rilevanti connessio­ ni reificanti. Visto che ogni elaborazione di informazione e quindi an­ che le soluzioni di problemi avvengono in un cervello (o si­ stema fisico), sono cioè processi cerebrali, possiamo asseri­ re in forma ipotetica che, mentre le funzioni cerebrali attri­ buibili per lo più all'emisfero sn. intervengono nell'applica­ zione della prima regola di Simon, le funzioni attribuibili all'emisfero dx. intervengono nell'applicazione della seconda regola. In altri termini, i nostri due diversi tipi di funzioni cerebrali intervengono singolarmente e alternativamente in uno o più passi della soluzione di problemi. È inutile ricor­ dare che tutto questo attende conferma o falsificazione a li­ vello neurofisiologico; ma ci sembra di poter affermare con una certa tranquillità che si tratta di una promettente ipo­ tesi di lavoro e di uno stimolo tra i più interessanti e avvin­ centi che abbiamo a disposizione ora, per far uscire la ri­ cerca empirica dalle secche in cui si è momentaneamente incagliata e per farla progredire. 228

Ricerche in questa direzione sono state compiute, ma le più sistematiche rimangono ancora quelle condotte con l'EEG, di cui una buona sintesi si può trovare nell'articolo di Rubenzer. 45 In tale lavoro infatti egli sintetizza, tra l'altro, i risultati degli esperimenti fisiologici precedentemente ese­ guiti con l'EEG - che, come tutti sappiamo, registra le atti­ vità elettriche neurali - tracciandone il seguente quadro: l) la registrazione del ritmo o delle onde delta, le quali hanno una frequenza tra 0,5 e 3,0 hertz (Hz) o cicli per se­ condo e provengono prevalentemente dall'emisfero dx., av­ viene durante il sonno profondo e il sogno (il sonno para­ dosso ha un altro ritmo); 2) la registrazione delle onde theta, frequenza da 3,5 a 7,5 Hz, ha luogo durante il dormiveglia, tra il sogno e la ve­ glia, e rivela elaborazione da parte del dx.; 3) la registrazione del ritmo alfa, frequenza tra 8 e 1 3 Hz, coincide con l a veglia rilassata (qui i processi del dx. possono essere predominanti); 4) la registrazione delle onde beta, frequenza tra 1 3,5 e 40 Hz, capita durante l'attenzione esterna e corrisponde quasi esclusivamente ai processi del sn. 46 Come si può notare, c'è una concomitanza dell'attività mentale e della attività elettrica neurale. Rubenzer poi avvi­ cina questi risultati ai quattro stadi costituenti il processo creativo, proposti e sviluppati da Helmholtz, Poincaré, Wal­ las e Hadamard, cioè alla preparazione, all'incubazione, al­ l'illuminazione e alla verifica, in modo da elaborare un "mo­ dello psicofisiologico della soluzione di problemi". Ed ecco il suo modello: l) lo stadio preparatorio corrisponde alle onde alfa alto o beta basso (10- 1 2 Hz); 2) lo stadio di incubazione è associato al ritmo alfa (8,01 3,5 Hz); 3) lo stadio di illuminazione è correlato con il ritmo the­ ta (3,5-7,5 Hz); 4) lo stadio della verifica coincide con le onde alfa alto o beta basso (10- 1 2 Hz). 47 Facciamo osservare che vi è una corrispondenza alquan­ to sorprendente e stretta tra le attività emisferiche neurofi­ siologiche implicate da questo modello e quelle da noi ipo­ tizzate per il modello di Simon. 48 L'articolo di Rubenzer termina suggerendo che, attraver­ so la produzione cosciente dei diversi stati fisiologici che in­ tervengono nei vari momenti della soluzione di problemi ad esempio, provocando il ritmo alfa - è possibile facilitare e insegnare con criteri ordinati e metodici le nostre capacità 229

di soluzione di problemi. In definitiva, si può esercitare e sviluppare un certo controllo sui processi cerebrali deputati alla soluzione di problemi, al processo creativo. 49 Diviene del tutto superfluo a questo punto aggiungere che tùtti i suddetti studi vanno maggiormente precisati e ul­ teriormente approfonditi e sviluppati a livello neurofisiolo­ gico. A tale scopo auspichiamo in tempi brevi un impiego oculato e sistematico delle ultime tecnologie - come la TAC, l'NMR e il PET - che finora, per motivi sia pur comprensibili e validi, sono rimaste pressoché inutilizzate in questo gene­ re di ricerche.

NoTE l Cfr. J. Hadamard, The Psychology of lnvention in the Mathematical Field, Princeton University Press, Princeton 1 945; e H.E. Gruber, Darwin on Man: A Psychological Study of Scientific Creativity, Dutton, New York

1 974.

2 Cfr. Th. V. Busse e R.S. Mansfield, Theories of the Creative Process: A Review and a Perspective, in "The Journal of Creative Behavior", 1980, pp.

9 1 - 103. 3 H.L.F. von Helmholtz, Vortriige und Reden, Vieweg und Sohn, Braun­ schweig 1 896, s a ed. 4 Su questo autore cfr. pure S. Arieti, Creativity. The Magie Synthesis, Basic Books, New York 1 976 (trad. it. Creatività. La sintesi magica, Il Pen­ siero Scientifico, Roma 1 979, p. 294). 5 J.-H. Poincaré, Mathematical Creation, in J.-H. Poincaré, The Founda­ tions of Science, The Science Press, New York 1 9 1 3, p. 387; (trad. it. La creazione mate matica, in Il valore della scienza, La Nuova Italia, Firenze 1 947). La traduzione italiana qui utilizzata è stata tolta da D.T. Campbell, Epistemologia evoluzionistica, Armando, Roma 198 1 , pp. 86-87. 6 J.-H. Poincaré, Mathematical Creation, cit., p. 392. 7 Ibid., p. 393 8 Ibid., p. 394 9 G. Wallas, The Art of Thought, Jonathan Cape Ltd., London 1 926, pp. 79-96. IO L'espressione, creata da W. James, viene usata da Wallas con lo stesso significato. I l J. Hadamard, The Psycho logy of lnvention in the Mathematical Field, cit. 1 2 Il termine è di F. Galton (Inquiries into Human Faculty, Macmillan, London-New York 1 883, p. 203; e J.M. Dent, London e E.P. Dutton, New York 1 908, p. 146). 13 Cfr. J. Hadamard, The Psychology of Invention in the Mathematical Field, cit., pp. 23-28 e 1 1 3 . 14 Cfr. ibid., pp. 29-3 1 . 15 Questa espressione è di J.E. Renan, L 'Avenir de la science ( 1 848, pub. 1 890), p. 1 1 5. 1 6 Cfr. J. Hadamard, The Psychology of Invention in the Mathematical Field, cit., pp. 30-3 1 . 1 7 Cfr. ibid., pp. 27 e 108- 1 1 3 . 18 Ibid., p. 46 e pp. 45-46. 230

19 20

Cfr. ibid., pp. 97-100 e 1 14- 1 1 5. Cfr. Ch.S. Peirce, Collecte d Papers, The Belknap Press of Harvard Uni­ versity Press, Cambridge (Mass.) 1 965, 5 . 1 80-5.205. La stretta interconnessio­ ne di Simon tra dati e ipotesi e lo schema per retrodurre e controllare le teo­ rie - processi questi che sono inscindibili (cfr. H.A. Simon, Models of Disco­ very and Other Topics in the Methods of Science, Reidel, Dordrecht/Boston 1977, pp. 3 e 43) derivano da Peirce (cfr. Ch.S. Peirce, Collected Papers, cit., 1 . 1 80). 21 Cfr. N.R. Hanson, Patterns of Discovery. An Inquiry into the Concep­ tual Foundations of Science, Syndics of the Cambridge University Press, 1958 (trad. it. I modelli della scoperta scientifica, Feltrinelli, Milano 1 978, pp. 881 1 2); e The Logic of Discovery, in "The Journal of Philosophy", 1 958, pp. 1 0791089. 22 Secondo Simon, Hanson chiarisce l'abduzione o retroduzione, la "logi­ ca della scoperta", ponendo l'accento sui processi percettivi, sulla scoperta di pattern e procedendo con esempi di retroduzione (cfr. H.A. Simon, Models of Discovery, cit., pp. 326-327). 23 Cfr. ibid., pp. 268-27 1 . 24 Tra i tanti lavori di questo autore e dei suoi collaboratori sulla teoria psicologica del problem solving e sui calcolatori ricordiamo: A. Newell e H. Simon, Human Problem Solving, Prentice-Hall, Englewood Cliffs (N.J.) 1 972; e G.F. Bradshaw, P.W. Langley e H . Simon, Studying Scientific Discove ry by Computer Simulation, in "Science", 1983, pp. 97 1 -975. In quest'ultimo lavoro il programma del calcolatore Bacon simula la scoperta della legge di Black. 25 Cfr. H.A. Simon, Models of Discovery, cit., pp. 271-277. 26 Cfr. ibid., pp. 276-2 8 1 . 27 Ibid., p . 286. 28 Anche per Simon l'euristica è la tecnica e il metodo di ricerca scienti­ fica. 29 Cfr. ibid., pp. 286-292. 30 Cfr. H.A. Simon, Reason in Human Affairs, Basi! Blackwell, Oxford 1 983, p. 25 (trad. it. La ragione nelle vicende umane, Il Mulino, Bologna 1 984, p. 58). 31 Cfr. H.A. Simon, Models of Discovery, cit., pp. 292-299. 32 Cfr. le note 20 e 21 di questo articolo. 33 H.A. Simon, Models of Discovery, ci t., p. 328. 34 Ibid., p. 328. 35 Ibid., p. 3 3 1 . 36 Con questa espressione si intende lo studio dei programmi dei calcola­ tori. 37 /bid., pp. 335-336. 38 Ibid., p. 336; cfr. anche ibid., pp. 326-336. Non dimentichiamo che tutti e due questi processi sono indispensabili e uniti (cfr. nota 20 di questo articolo). 39 Il primo elettrocorticogramma fu scoperto dal fisiologo inglese Caton nel 1 875, ma poi dimenticato. 40 Il movimento laterale degli occhi uniti è un'ipotesi speculativa, avan­ zata, tra gli altri, da C.K. Rekdal, Hemispheric Lateralization, Cerebral Domi­

nance, Conjugate Saccadic Behavior and Their Use in Identifying the Creati­ vely Gifted, in "The Gifted Child Quarterly", 1 979, pp. 1 0 1 - 1 08; e da R.S. Mc­ Callum e S.M. Glynn, Hemispheric Specialization and Creative Behavior, in "The Journal of Creative Behavior", 1979, pp. 263-273. Per M.F. Andrews poi

(The Consonance Between Right Brain and Affective, Subconscious, and Multi­ Sensory Functions, in "The Journal of Creative Behavior", 1 980, pp. 77-87) gli occhi all'insù denotano pensieri creativi, mentre gli occhi all'ingiù pensieri negativi e stereotipici. 41 D.W. Zaidel, Les fonctions de l'hémisphère droit, in "La Recherche", 153, 1984, pp. 332-340.

23 1

42 43

Ibid. , p. 337; cfr. pure ibid., p. 338. Cfr. ibid., p. 339. 44 Cfr. ibid., pp. 339-340. 45 R. Rubenzer, The Role of the Right Hemisphere in Learning and Creati­ vity lmplications far Enhancing Problem Solving Ability, in "The Gifted Child Quarterly", 1 979, pp. 78-100. Sulla sua scia si colloca anche Myers (cfr. J.T. Myers, Hemisphericity Research: An Overview With Some lmplications far Problem Solving, in "The Joumal of Creative Behavior", 1982, pp. 197-2 1 1 ). In­ teressanti a questo riguardo sono pure gli articoli di E. Donchin, G. McCar­ thy, M. Kutas e W. Ritter, Event-Related Brain Potentials in the Study of Con­ sciousness, in R.J. Davidson, G.E. Schwartz e D. Shapiro (a cura di), Consciou­ sness and Self-Regulation, Plenum Press, New York e London 1 983, pp. 8 1 1 2 1 , in cui la registrazione della componente P 300 nell'ERP (event-related brain potentials) rivela l'accadimento della elaborazione cosciente della infor­ mazione; e H.J. Neville, Brain Potentials Reflect Meaning in Language, in "Trends in Neurosciences", 1 985, pp. 9 1-92. 46 Cfr. R. Rubenzer, The Role of the Right Hemisphere in Learning and Creativity lmplications For Enhancing Problem Solving Ability, cit., special­ mente le pp. 82-85. 47 Cfr. ibid., specialmente le pp. 86-89. 48 Siamo giunti alla nostra ipotesi di lavoro prima di leggere l'articolo di Rubenzer. 49 Cfr. ibid., specialmente la p. 89.

232

Casualità e programma nell'Intelligenza Artificiale di Federico Di Trocchio

Con l'articolo di Hopfield del 1 982 1 si è aperta una nuova fase nella storia dell'informatica. Il connessionismo ha ope­ rato una inversione di tendenza riportando l'approccio del­ l'Intelligenza Artificiale a quello dominante nella golden de­ cad (1955-1 965) della cibernetica, abbandonato nel 1969 a se­ guito del noto saggio di Minsky e Papert nel quale venivano evidenziati i limiti del perceptron di Rosenblatt. 2 È ormai abbastanza diffusa la convinzione che l 'Intelli­ genza Artificiale alla Minsky non sia in grado di andare oltre sistemi esperti più o meno sofisticati, e il connessionismo sembra offrire, con il recupero del concetto di reti neurona­ li, una concreta possibilità di risolvere assieme ai problemi intrinseci dell'Intelligenza Artificiale anche quelli dell'archi­ tettura dello hardware, settore nel quale la ricerca si muove verso un parallelismo sempre più spinto. L'idea di fondo del nuovo approccio è che una accettabile imitazione dell'intelligenza umana possa essere ottenuta solo da macchine la cui struttura hardware si avvicini il più pos­ sibile alla rete di neuroni che costituisce il cervello, o alme­ no che siano in grado di simulare con operazioni sequenziali il comportamento di reti neuronali. Le differenze essenziali del modello connessionistico, rispetto al modello base di Mc­ Culloch e Pitts, sono secondo Hopfield: a) il passaggio da connessioni neuronali esclusivamente fo rward directed (A -.B-.c-.D) a reti caratterizzate da un forte backward coupling

233

b) l'uso delle reti neuronali non più esclusivamente per lo studio della percezione, ma per produrre proprietà com­ putazionali più astratte e "intelligenti", ritenute emergenti rispetto alla rete. c) l'abbandono dell'ipotesi tipica del perceptron del fun­ zionamento sincrono degli elementi della rete. È già stato notato da l. Alexsander3 che sul piano stretta­ mente matematico il nuovo approccio non ha prodotto finora nulla di realmente nuovo rispetto agli algoritmi in uso negli anni sessanta. Il fatto più interessante collegato al recupero delle reti neuronali sembra invece essere il ruolo attribuito ai processi di collegamento casuale tra i "neuroni" nel deter­ minare le caratteristiche funzionali del sistema, ed è abba­ stanza evidente che ciò che si attende è lo sviluppo di algorit­ mi in grado di trattare in modo soddisfacente la casualità che diventa il "motore" dei fenomeni di computazione e di apprendimento "intelligenti". Ciò è in stretto rapporto con la crisi attuale dell'Intelligenza Artificiale che molti attribui­ scono all'impossibilità di inserire in modo efficace elementi casuali nei programmi destinati a simulare comportamenti intelligenti. Alla radice delle difficoltà attuali dell'Intelligenza Artifi­ ciale sta infatti quello che Hofstadter4 chiama teorema di Tesler: l'lA è tutto ciò che non è ancora stato fatto. Hofstad­ ter sostiene che non appena si riesce a programmare qual­ che funzione mentale, immediatamente si smette di conside­ rarla un ingrediente essenziale del vero pensiero. Il nucleo ineluttabile dell'intelligenza è sempre in quell'altra cosa che non si è ancora riusciti a programmare. Al di là del tono scherzoso, il teorema di Tesler sembra indicare nella nozione stessa di programma la causa del fal­ limento sostanziale dei tentativi finora compiuti nel campo dell'Intelligenza Artificiale. Secondo alcuni questo fallimen­ to non sarebbe momentaneo; il problema evidenziato dal teo­ rema di Tesler sarebbe insuperabile e questo implicherebbe, a rigore, la necessità di abbandonare la via della program­ mazione e di reimpostare l'Intelligenza Artificiale sulla base di nuove strategie hardware o sull'uso di strumenti matema­ tici diversi da quelli attualmente utilizzati nella programma­ zione. Due indirizzi di pensiero molto diffusi e seguiti (quello dei teorici della complessità e della autopoiesi da un lato e quello del connessionismo dall'altro) sostengono, infatti, la non programmabilità della attività della mente, cioè del pen­ siero, sulla base del principio che la mente sarebbe un siste­ ma di fenomeni stocastici che si auto-organizza in maniera 234

totalmente imprevedibile. Sembra in altri termini che ciò che è programmato non possa essere qualificato come "intelli­ gente". D'altra parte il fatto che ancora oggi nessuna macchina sia in grado di superare il test di Turing 5 appare strettamente le­ gato all'assenza di casualità nei processi "mentali" artificiali soprattutto se si tiene conto del ruolo che l'epistemologia re­ cente attribuisce al caso all'interno della "logica" della sco­ perta. 6 Se oggi Turing avesse dovuto riscrivere il suo articolo del 1 950 lo avrebbe intitolato probabilmente: "E possibile pro­ grammare il pensiero?" In questo nuovo articolo Turing avrebbe forse ampliato la nozione di "calcolatore numerico con un elemento casuale" che egli introduceva nel 1 950 sulla base del riconoscimento del fatto che la strategia della creati­ vità, sia umana che naturale, sembra essere essenzialmente casuale. Il problema attuale dell'Intelligenza Artificiale è infatti quello di trovare una adeguata collocazione, all'interno della programmazione, per un meccanismo che genera stati ca­ suali. L'interesse suscitato dal connessionismo è quindi indub­ biamente legato al fatto che questo approccio prospetta un modo abbastanza raffinato per introdurre notevoli elementi di casualità nei modelli matematici destinati a simulare in maniera efficace meccanismi di computazione intelligenti. Tuttavia questa proposta incontra notevoli difficoltà. In­ nanzitutto essendo il numero dei componenti delle reti piutto­ sto elevato il problema della loro interazione è del tipo NP (Non-deterministico Polinomiale) completo, vale a dire che non esiste (o almeno non è stato ancora trovato) un algoritmo in grado di calcolare un determinato pattern di interazione considerato ottimale (corrispondente ad esempio al riconosci­ mento di una figura) usando una quantità di tempo macchina (su un calcolatore sequenziale) che aumenta come potenza di N . La quantità di tempo macchina necessario cresce infatti in modo esponenziale in rapporto a N, ed è praticamente infini­ ta. Il comportamento di una rete neuronale di questo tipo ap­ partiene perciò a quel tipo di problemi che vengono definiti intrattabili. In secondo luogo la definizione algoritmica di ca­ sualità, utilizzata dal nuovo approccio, esclude per principio la programmabilità. Stando infatti alla definizione proposta da A.N. Kolmogorov e G.J. Chaitin nel 1 965, 7 una successione di numeri è casuale se il più piccolo algoritmo in grado di co­ municarla a un calcolatore consta circa dello stesso numero di bit di informazione della successione stessa. 235

Dal momento che in concreto gli algoritmi si presentano come programmi di calcolatore e sono valutati in base alla ra­ pidità con cui determinano (l'esistenza di) una soluzione è chiaro che successioni casuali di numeri non possono essere programmate, o meglio che tali successioni si identificano con il loro programma, il quale si presenta allora come trop­ po complesso per essere interessante ai fini dell'Intelligenza Artificiale. 8 Per superare queste difficoltà si stanno tentando in questo momento varie strade che, nella maggior parte dei casi, fanno riferimento alla meccanica statistica, o comunque a formali­ smi matematici di tipo statistico, e affrontano la questione co­ me un problema di ottimizzazione che richieda di minimizza­ re una funzione relativa a un insieme di variabili. È difficile dire in questo momento quale sarà l'esito di questi tentativi. Sembra però che dal punto di vista matematico non sia anco­ ra emerso nulla di realmente promettente o di sostanzialmen­ te nuovo rispetto agli anni sessanta, mentre è possibile dal punto di vista metodologico evidenziare alcune limitazioni dell'impostazione adottata o almeno sottolineare il peso che alcune scelte potrebbero esercitare nel determinare lo svilup­ po e l'esito di questi tentativi. Innanzitutto la scelta di applicare metodi e tecniche della meccanica statistica all'interno di un approccio che pretende di rifarsi più da vicino che non l'Intelligenza Artificiale, alla specificità biologica del sistema nervoso, appare poco oppor­ tuna o almeno troppo schematica. Anche nel modello che oggi appare più raffinato, quello degli spin glass, 9 l'unico riferi­ mento concreto alla realtà biologica resta il tentativo di inse­ rire nel modello stesso una configurazione architettonica del­ le connessioni il più possibile analoga a quella dei neuroni del cervello animale. In realtà questo approccio si gioverebbe molto di un recupero dell'indagine alla Caianiello tendente a dare una descrizione algoritmica adeguata del comportamen­ to del neurone. L'ostacolo maggiore sembra però essere costituito proprio dall'opposizione caso-programma. Se il problema è realmen­ te: "Come programmare il comportamento casuale di una rete destinata a computazioni intelligenti ?" e se gli algoritmi (pro­ grammi) della casualità si identificano con le stesse sequenze casuali, allora, stante la definizione algoritmica di caso adot­ tata, la soluzione potrebbe anche essere impossibile in linea di principio. Anche se, attualmente, non è possibile fornire la dimostrazione di tale impossibilità. La versione di Chaitin del teorema di Godel stabilisce infatti che non è possibile fornire una dimostrazione della casualità di una sequenza. 236

In altri termini sembra che sia impossibile in linea di principio scrivere dei programmi (o almeno scrivere dei pro­ grammi interessanti) relativi a sequenze casuali. Il che equi­ vale a negare che il pensiero possa essere programmato. La nuova via imboccata dal connessionismo ha infatti raccolto consensi forse proprio perché abbandona la pro­ grammazione a favore di un approccio statistico che vorreb­ be fare emergere le proprietà computazionali dal comporta­ mento intrinsecamente casuale delle reti neuronali, e non dal programma. Questa scelta è avvenuta in modo spontaneo e implicito, ed è stata favorita dalla diffusione della filosofia dell'autopoiesi e della complessità alla Morin, che vedono in questo approccio la possibilità di salvaguardare l 'autonomia e l'indipendenza dei processi del pensiero e più in generale di tutti i processi che implicano la nascita di ordine. 10 Que­ sto sfondo teorico all'interno del quale è maturata o comun­ que si colloca la proposta connessionistica ha spinto a sotto­ valutare l'alternativa possibile di abbandonare il concetto stesso di casualità. In effetti se la casualità non è programmabile, si può an­ cora scegliere di considerare non casuale, ma non per questo deterministico in senso classico, il comportamento di una re­ te neuronale. Esiste ormai da molti anni, e si sta sempre più diffonden­ do negli ultimi tempi, una teoria matematica che tratta le in­ terazioni che si verificano all'interno di sistemi costituiti da più oggetti, come imprevedibili e tuttavia deterministiche, o almeno ordinate. Potrebbe in sostanza risultare preferibile sostituire al concetto di casualità quello di imprevedibilità. A proposito di sistemi di interazione a più oggetti è infatti dimostrabile la non prevedibilità, oltre un certo orizzonte, del loro comportamento, mentre non è dimostrabile la ca­ sualità dello stesso comportamento. Il concetto di imprevedi­ bilità è insomma più facilmente trattabile dal punto di vista matematico. L'aspetto più interessante di questa possibile alternativa è costituito tuttavia dal fatto che esistono dei teoremi che di­ mostrano che il comportamento imprevedibile di sistemi di interazione di più oggetti può essere programmato. Sono stati infatti sviluppati vari programmi di calcolato­ re che, a partire da condizioni date, simulano i moti dei pia­ neti verificando il fatto che, oltre un certo orizzonte di pre­ vedibilità, essi diventano caotici e imprevedibili. Questo ap­ proccio, sviluppato originariamente per l'astronomia, nel tentativo di risolvere il problema degli N corpi, è stato di re­ cente applicato alla fisica delle particelle e sembra destinato 237

a promuovere la formazione di una grande teoria che do­ vrebbe abbracciare la fisica relativistica e la meccanica quantistica all'interno di un approccio in grado di coniugare il determinismo con l'imprevedibilità. 1 1 In sostanza sarebbe possibile, e probabilmente utile, svi­ luppare l'approccio delle reti neuronali non secondo l'ottica indeterministica della meccanica statistica, ma all'interno della teoria dei moti caotici e ordinati che è invece fortemen­ te deterministica. Il nuovo punto di partenza potrebbe essere l'idea che il comportamento delle reti neuronali non è casua­ le e improgrammabile bensì caotico, intrinsecamente impre­ vedibile ma programmabile. Questo approccio, pur discostandosi dai suggerimenti presenti negli ultimi lavori di Turing e di von Neumann che andavano nel senso di introdurre elementi stocastici all'in­ terno della matematica dei computer, risulta oltretutto più in linea con l'impostazione originaria data da questi stessi autori all'informatica che trovava il suo cardine proprio nel concetto di programma.

NoTE l Hopfield, J.J., Neural Networks and Physical Systems with Emergent Collective Computational Abilities, in "Proc. Nati. Acad. Sci. USA", 79, 1982. Ma vedi anche Hopfield, J.J. e D.W. Tank, Computing with Neural Circuits: A Model, in "Science", 233, agosto 1 986, pp. 625-633. 2 McCulloch, W.S. e W.H. Pitts, A Logica[ Calculus of the Ideas Imma­ nent in Nervous Activity, in "Bulletin of Mathematical Biophysics", 5, 1 943, pp. 15-33; Rosenblatt, F., Principles of Neurodynamics, Spartan, Washington 1 962; Minsky, M.L. e S. Papert, Perceptrons: An Introduction to Computatio­ nal Geometry, The MIT Press, Cambridge (Mass.) 1 969. 3 Aleksander, 1., Memory Networks far Practical Vision Systems: Design Calculations, in l. Aleksander, (a cura di), Artificial Vision far Robots, Lon­

don 1983, pp. 197-2 1 3 . 4 Hofstadter, D.R., GOde[ Esche r Bach: un'eterna ghirlanda brillante, Adelphi, Milano 1 984, p. 649. s Nel 1950 Alan Turing pubblicò sulla rivista "Mind" il noto articolo Computing Machinery and /ntelligence che affrontava il problema: "Possono pensare le macchine ?" Per risolvere la questione Turing proponeva il cosid­ detto "gioco dell'imitazione" poi noto come test di Turing nel quale una mac­ china, in concorrenza con un essere umano, tenta di indurre un secondo es­ sere umano (in funzione di osservatore e interrogante) a fornire una rispo­ sta errata alla domanda su quale dei suoi due interlocutori sia uomo (o donna). Nel corso dell'articolo Turing affermava "credo che entro circa cinquan­ t'anni sarà possibile programmare calcolatori con una capacità di memoriz­ zazione di circa 10 elevato alla nona, per far giocare loro il gioco della imi­ tazione cosi bene che un esaminatore medio non avrà più del 70 per cento di probabilità di compiere l'identificazione esatta dopo cinque minuti di inter­ rogazione". 238

A trentasette anni di distanza la previsione o profezia di Turing non si è ancora avverata. Benché le capacità di memorizzazione degli attuali compu­ ter siano andate molto al di là di quelle allora prevedibili, tuttavia non è sta­ to ancora messo a punto un programma che consenta alle macchine di supe­ rare il test di Turing. La traduzione dell'articolo di Turing fu pubblicata da V. Somenzi nella prima edizione dell 'antologia La filosofia degli automi, Bo­ ringhieri, Torino 1 965, pp. 1 1 6- 1 5 5 , ed è stato molto opportunamente ripro­ dotto nella nuova edizione ampliata e rivista a cura dello stesso V. Somenzi e di R. Cordeschi, La filosofia degli automi, Torino 1 986, pp. 157- 1 83. 6 Cfr. Grmek, M.D., Le r6le du hasard dans la genèse des découvertes scientifiques, in "Medicina nei secoli", 1 3 , 1976, pp. 277-305. Somenzi, V., Epistemologia evoluzionistica e creatività scientifica, in " La nuova critica", 45, 1 978; Somenzi, V., Epistemologia, evoluzionismo e scope rta scientifica, in C. Mangione (a cura di), Scienza e filosofia. Saggi in onore di L. Geymonat, Garzanti, Milano 1 985, pp. 3 1 2-330. 7 Cfr. Chaitin, G.J., Casualità e dimostrazione matematica, in Matemati­ ca e calcolatore, a cura di G. Lolli e C. Mangione, Milano 1 984, pp. 82-87. 8 Sandi, C., Problemi di decisione e teoria della complessità, in "Note di Informatica Ibm", 1 5 , marzo 1 987, pp. 1 9-27. 9 Gli spin glass (vetri di spin) sono in generale dei sistemi in cui gli ato­ mi sono disposti casualmente: gli esempi tipici sono leghe con qualche per­ centuale di materiale magnetico immerso in una matrice magnetica (vetri di spin a diluizione) oppure cristalli in cui sono intercalati casualmente atomi di zolfo (vetri di spin a sostituzione). In entrambi i casi l'interazione tra gli spin, che sono localizzati in atomi determinati, dipende fortemente dalla po­ sizione dell'atomo e il risultato finale è che alcuni spin avranno fra di loro un'interazione ferromagnetica che tende ad allinearli, mentre altri spin avranno fra di loro un'interazione antiferromagnetica che tende a disalli­ nearli. Un modello abbastanza semplice dell'interazione fra gli spin che tutta­ via mantiene la complessità del problema originale (modello di Edward An­ derson) richiede che gli spin siano disposti su un reticolo regolare, che sia­ no dei numeri che possono assumere solo i due valori l e - l (modello di Ising), che interagiscano solo con i loro prossimi vicini e che l'interazione sia a caso positiva o negativa. Cfr. Mezard, M., Parisi, G. e M.A. Virasoro, Spin Glass theory and Beyond, Word Scientific, 1 987. IO Cfr. Maturana, H.R. e F.J. Varela, Autopoiesi e cognizione, Marsilio, Padova 1 985; Dupuy, J-P., Ordini e disordini. Inchiesta su un nuovo paradig­ ma, Firenze 1 986; Atlan, H., Tra il cristallo e il fumo. Saggio sull 'organizza­ zione del vivente, Hopfulmonster, Firenze 1 986; Morin, E., Il Metodo. Ordi­ ne, disordine, organizzazione, Feltrinelli, Milano 1983. I l Zaslavsky, G.M., Chaos in the Dynamic Systems, New York 1 987; Chernikov, A.A., Sadgeev, R.Z., Usikov, D.A., Yu Zakharov e M. Zaslavsky, Minima[ Chaos and Stochastic Webs, in "Nature", 326, aprile 1987.

239

Neurobiologia e storia naturale dell'intelligenza di Aldo Fasolo

Introduzione Oggi è forse possibile tentare una "storia naturale" del­ l'intelligenza, a patto che si definisca con precisione l'intelli­ genza come fenomeno biologico e si stabiliscano criteri me­ todologici rigorosi per coordinare i risultati della ricerca scientifica. L'espressione "intelligenza" piuttosto che descri­ vere un fenomeno unitario a mio giudizio è fondamentalmen­ te la metafora che riassume una serie di capacità e presta­ zioni diverse. In questo senso potremmo parlare più corret­ tamente, forse, di prestazioni intelligenti, siano esse: soluzio­ ne di problemi, sviluppo di linguaggio, apprendimento, per­ cezione, risposte integrate all'ambiente, o altro. Queste capacità non sono allora esclusive del genere umano né rientrano in un modello tutto-nulla, ma sono pre­ senti nei differenti taxa del regno animale con gradi diversi di sviluppo (vedi Bullock, 1 982, nell'ampia raccolta di contri­ buti sulla "mente animale" in Griffin, 1 982). Secondo vari studiosi (vedi Macphail, 1982) l'intelletto umano si distingue­ rebbe allora da quello dei vertebrati non umani soltanto per il possesso della capacità di linguaggio, ma altri contributi pongono anche il linguaggio umano in continuità evolutiva almeno con le articolazioni motorie facciali dei primati non umani (Lieberman, 1 987). Cercare di comprendere le prestazioni intelligenti signifi­ ca operare ai diversi livelli di analisi in cui si organizza la scienza moderna, e in particolare, la neuroscienza, da quello filosofico a quello psicologico, a quello organismico e neuro­ logico. Questo implica fra l'altro ammettere che cervello e prestazioni intelligenti si siano evoluti nel regno animale e 240

che la comprensione dei meccanismi evolutivi che ne hanno favorito l'instaurarsi sia di grande utilità per comprendere la natura reale della cosiddetta intelligenza (Jerison, 1 987). La varietà delle soluzioni evolutive A confondere le idee in proposito esistono alcuni diffusi pregiudizi, primo fra tutti quello che le tendenze evolutive seguano una progressione lineare dal più semplice al più complesso. L'evoluzione delle strutture cerebrali ha in realtà seguito spesso vie differenti anche nello stesso gruppo tasso­ nomico e il più delle volte appare una evoluzione "a mosai­ co". Così un animale può avere raggiunto un grado elevato di efficienza o specializzazione in alcune regioni del suo cervel­ lo o in alcuni aspetti del suo comportamento e rimanere me­ no complessamente strutturato in altre. Può essere perciò fuorviante definire un organismo "semplice" o "avanzato" per quel che riguarda cervello e prestazioni comportamenta­ li al di fuori del contesto specifico della prestazione o strut­ tura valutata. Esiste inoltre nella letteratura una vulgata propensione a estrapolare con troppa disinvoltura i risultati dello studio sincronico di organismi attuali diversi, co­ struendo fantasiose sequenze evolutive, in una prospettiva diacronica. Si dimentica così che le specie viventi sono rami terminali dell'albero evolutivo (vedi Mazzi e Fasolo, 1 983). Come fa rilevare Gould (1 976) la sequenza "lemure-scimmia antropomorfa-uomo" è una caricatura della filogenesi dei primati, anche se può risultare utile, in quanto fornisce dati importanti su gradi diversi di organizzazione cerebrale nello studio dei primati stessi. Il metodo comparato Al fine di situare correttamente i risultati di osservazioni ed esperienze diverse, diviene così irrinunciabile elaborare metodi per confrontare gli organismi e per trame ipotesi evolutive. Questo implica ad esempio una scelta razionale delle specie analizzate sia dal punto di vista tassonomico, sia dal punto di vista ecologico-adattativo (Hailman, 1976a). È necessaria inoltre una attenta valutazione del campione stu­ diato per quanto attiene le possibili variazioni interindivi­ duali. Quest'ultimo punto è particolarmente delicato, come ov­ vio, sia quando si compiono analisi macroscopiche di tipo 241

quantitativo sia quando si compie una analisi di microscala al livello cellulare, su strutture cerebrali. È necessario, inoltre, stabilire dei criteri per il confron­ to. Questo implica l'impiego di alcuni strumenti logici del metodo comparato, quali i concetti di omologia e analogia, al fine di comprendere il significato e il livello delle somi­ glianze. Insomma, dobbiamo avere ben chiaro: cosa confron­ tiamo, e perché (Hailman, 1976b; Fasolo e Malacarne, 1987; Northcutt, 1 984). In realtà, la maggior parte delle ricerche attuali non soddisfa appieno tali requisiti, e nel complesso lo studio comparato appare frammentario ed episodico. Per comprendere meglio una materia così complessa possiamo affrontare due livelli di analisi, quello dell'appren­ dimento in prospettiva comparata, e quello dello sviluppo fi­ logenetico del cervello. Lo studio comparato dell'apprendimento Esistono numerose ricerche sull'apprendimento compa­ rato (vedi Bitterman, 1 976; Brookshire, 1 976; Hodos, 1982) che suggeriscono modi e strategie profondamente diversi e divergenti nei vari gruppi di vertebrati. E tuttavia non è af­ fatto risolto il nodo centrale di queste ricerche, e cioè quali processi siano generali (Bitterman, 1 987) e quali specie-spe­ cifici (Poli, 1 987). Questi studi di psicologia comparata non apportano tuttavia un contributo diretto all'analisi dei fatto­ ri evolutivi coinvolti nell'apprendimento. Su questo versante un contributo importante deriva dal­ l'approccio, basato sulla teoria dei giochi (Harley e May­ nard-Smith, 1983). Questo orientamento si chiede se i model­ li di apprendimento animale che sono in accordo con vari schemi comportamentali, riflettono strategie evolutivamente stabili. In questo modo viene impostata una riflessione sui meccanismi attraverso i quali si rendono vantaggiosi e ven­ gono "fissati" evolutivamente comportamenti a maggior fles­ sibilità e che implicano apprendimento. Un altro fecondo contributo sta provenendo dalla cosiddetta ecologia com­ portamentale (Krebs e Davies, 198 1 ), che peraltro non si po­ ne almeno in modo esplicito il problema di correlare i com­ portamenti con le basi neurobiologiche. In realtà le capacità di apprendimento, a ben rifletterei, sono un'aggiunta rispetto agli schemi d'azione fissa, non una alternativa, e deve esistere qualche controllo (sia esso di tipo permissivo, o istruttivo) per "apprendere ad appren­ dere". 242

Diviene perciò irrinunciabile una teoria generale sui mec­ canismi della memoria, la sede della traccia mnestica e le even­ tuali omologie dei sistemi implicati nella memorizzazione e nelle diverse forme di apprendimento. Queste riflessioni sull'apprendimento, implicano inoltre che, specialmente lavorando su organismi in condizioni semi­ naturali, vengano semprè più in rilievo, da una parte la compo­ nente motivazionale e dall'altra l'insieme di prestazioni sia sensoriali-percettive, sia motorie, che caratterizzano il reper­ torio comportamentale di un determinato tipo di organismo ri­ spetto alla sua nicchia ecologica-peculiare. Il tipo di scanda­ glio sensoriale e il mondo percettivo sono profondamente di­ versi nei differenti organismi (vedi ad esempio Blakemore, 1 989) adattati a nicchie ecologiche e inseriti in catene alimen­ tari diverse. Questo implica altresì una nuova valutazione dei processi comunicativi e delle relative implicazioni cognitive nei vertebrati pur tenendo conto dei pesanti artefatti interpre­ tativi, propri dell'osservatore umano in un contesto non uma­ no. Appare comunque evidente che i sistemi comunicativi sono molto più complessi e variati di quanto si ritiene tradizional­ mente nell'ambito dei vertebrati (Beer, 1982). Ad esempio il si­ stema comunicativo di tipo olfattivo così universalmente dif­ fuso nel regno animale (Fasolo, 1 982) è stato finora considerato in modo inadeguato dal punto di vista cognitivo. Un interessante (e relativamente nuovo) approccio è fornito dalla cosiddetta neuroetologia (vedi ad esempio Ewert, 1 985), che tenta un'analisi "verticale" in modelli animali diversi, cer­ cando di integrare livelli comportamentali (apprendimento in­ cluso) e livelli neurologici. I prossimi anni ci diranno comun­ que quanto la ricerca neuroetologica sarà in grado di dire non solo sull'organizzazione funzionale, ma anche sulla storia na­ turale del cervello. Non dimentichiamo peraltro che il lungo dibattito sulla natura dei "processi mentali" negli animali (Griffin, 1978) e la difficoltà di valutare oggettivamente tali processi (Rooijen, 1981) è ben lungi dall'essere risolto. In linea di principio non si può però escludere che oltre a repertori comportamentali espliciti, possano essere presi in considera­ zione sperimentale processi mentali "coperti", quali processi motivazionali e affettivi, stati cognitivi, ecc. (Welker, 1977). Teorie sullo sviluppo filogenetico del sistema nervoso centrale Partendo da analisi di tipo quantitativo sul sistema nervoso centrale sia di organismi attuali che di organismi estinti, se243

condo Jerison (1 976; 1 987), l'intelligenza sarebbe un prodot­ to della cosiddetta "encefalizzazione". In sintesi, vi è una precisa relazione nei vari gruppi tassonomici di vertebrati fra dimensione del corpo e dimensione del cervello. Quelle specie che acquisiscono dimensioni cerebrali relativamente più grandi di quanto previsto da tale relazione (come acca­ de per l'uomo, alcuni cetacei e le scimmie superiori) possie­ dono quindi una certa quantità di cervello "in più" da usare per l'elaborazione di informazioni e per "costruire la realtà" (la rappresentazione del mondo che è la realtà di ciascuna specie). Le specie con encefalizzazione maggiore avrebbero così la possibilità di colonizzare nuove nicchie ecologiche grazie alla maggior "plasticità" e modulabilità del loro cervello. In questa visione, la premessa dei comportamenti intelligenti (e cioè una maggiore encefalizzazione) sarebbe inizialmente un prodotto casuale e, solo successivamente alla afferma­ zione evolutiva della specie, fornirebbe un vantaggio evolu­ tivo diretto. In contrapposizione, spesso, a questa (e altre teorie) su base quantitativa, si pongono le ipotesi filogeneti­ che tese a spiegare modificazioni qualitative dei circuiti nervosi nel corso della filogenesi. La maggior parte delle teorie sullo sviluppo filogenetico cerebrale ha focalizzato la propria attenzione sulla macroscopica espansione struttura­ le e funzionale del telencefalo e in particolare della cortec­ cia cerebrale. Di solito questa espansione è stata attribuita all' "invasione" di informazioni di altre modalità in un te­ lencefalo originariamente "olfattivo" (vedi Ebbeson, 1 977, 1 980a) oppure a uno sviluppo de novo di alcune parti. In questo ambito si colloca anche la celeberrima teoria del cervello "trino" di Mac Lean (1 982) che ipotizza una sorta di stratificazione nell'uomo di tre cervelli, uno rettiliano, uno di mammifero primitivo, e infine uno di mammifero avan­ zato. A questa visione ora si oppone la "rivoluzione copernica­ na" della moderna neurologia comparata che ha dimostrato viceversa la presenza di equivalenti neocorticali nel telence­ falo dei vertebrati non mammiferi apparentemente più pri­ mitivi, quali gli anfibi. Si delinea quindi l'ipotesi opposta, della "parcellizzazione", secondo la quale sistemi diffusi e indifferenziati preesistevano all'inizio dell'evoluzione dei vertebrati e che nello sviluppo di comportamenti complessi e delle relative capacità si siano potenziate e segregate alcu­ ne vie e connessioni specifiche (vedi Ebbeson, 1 980b). Que­ ste ipotesi indirettamente suggeriscono una relativa stabili­ tà del piano organizzativo base dei vertebrati e spiegano le 244

variazioni specie-specifiche come l'impiego differenziale di substrati anatomo-funzionali comuni. In ogni caso si può essere d'accordo con Glenn Northcutt (1 984, p. 172) che una "valutazione critica delle ipotesi corren­ ti sull'evoluzione del sistema nervoso centrale, rivela che que­ ste ipotesi descrivono in generale modelli di variazione di ca­ ratteri e raramente identificano processi". Come a dire che queste teorie sono parziali e descrivono l'esistente senza spie­ game i meccanismi che l 'hanno prodotto! Si può comunque accettare anche la proposta in positivo di Northcutt, e cioè che molti fenomeni di invasione, parcellizzazione, variazione quantitativa o altro si siano verificati, di caso in caso, ma che il problema sia da una parte stabilire nuovi criteri di omolo­ gia e dall'altro identificare le pressioni selettive che hanno portato ai cambiamenti e quali vantaggi adattativi ne sono de­ rivati. Questo diviene drammaticamente importante quando si voglia studiare la storia naturale dell'intelligenza, che in molti casi sembra scaturire (vedi le ipotesi sopra citate di Jeri­ son, sull'encefalizzazione) come un prodotto accessorio dei fe­ nomeni di encefalizzazione. Neurobiologia cellulare e meccanismi dell 'intelligenza Uno dei più notevoli paradossi dello studio neurologico dei meccanismi mentali, è appunto la verifica che a livello cellula­ re apparentemente il cervello dell'uomo non presenta alcuna differenza radicale rispetto a quello di altri mammiferi e che i sistemi principali di neuroni caratterizzati dal punto di vista neurochimico sembrano relativamente stabili (Fasolo e Mala­ carne, 1987). Questa dicotomia fra la novità (apparente ?!) di prestazioni funzionali e la conservatività dell'organizzazione cellulare spesso costringe a teorie estreme e contrapposte. Si fronteggia­ no così posizioni di tipo olistico da una parte, e dall'altra nuove forme di localizzazionismo. Per alcuni ha cioè significato solo il livello d'analisi superiore, quello del cervello come sistema complesso; per altri si devono trovare centri nervosi specifici ed esclusivi che caratterizzino un determinato piano evolutivo. Un modo interessante e nuovo di uscire da questa difficol­ tà è quello di spostare il discorso dal livello dei circuiti regio­ nali, a quello dei circuiti locali (tutte quelle porzioni cioè di neuroni che in determinate condizioni agiscono come unità in­ tegrative indipendenti, vedi Agnati e Fuxe, 1 985). Apparente­ mente nel corso della filogenesi il numero di circuiti locali e di neuroni intrinseci (a funzione associativa locale) è aumentato 245

in varie aree encefaliche, suggerendo un aumento di capacità di trattare informazioni e indirettamente un maggior numero di livelli di controllo del sistema. L'impatto delle moderne tecniche di biologia cellulare e molecolare ha poi profondamente modificato le nostre cono­ scenze sui meccanismi di comunicazione intercellulare nel si­ stema nervoso. Così alla tradizionale visione della comunica­ zione chimica a livello sinaptico, ove un neurotrasmettitore emesso dall'elemento presinaptico agendo su recettori post­ sinaptici trasduceva il segnale elettrochimico da una cellula all'altra, si è sostituita una serie di modelli funzionali molto vari e complessi, che prevedono recettori sull'elemento presi­ naptico (sia per messaggeri chimici prodotti da altri neuroni sia per i suoi stessi messaggeri autorecettori), molteplicità di recettori e azioni postsinaptiche, mediate sia da canali ionici, sia da sistemi di secondi messaggeri citoplasmatici (vedi Bradford, 1 986). È apparso inoltre chiaro che la maggior parte dei neuroni produce più di un singolo messaggero chimico, ma miscele di diversi neurotrasmettitori e neuromodulatori (coesistenza) (Hokfelt et al., 1 986). La sinapsi non è vista più come un semplice interruttore, ma come un complesso siste­ ma integrato. È stata inoltre proposta una vera e propria evoluzione mo­ lecolare dei sistemi di messaggeri sinaptici e dei fenomeni di coesistenza nel corso della filogenesi (Hokfelt et al., 1 986). Ben si comprende quindi il cambiamento di prospettiva: un singo­ lo cervello umano contiene forse oltre l 00 miliardi di neuroni, interconnessi da un numero di sinapsi da 1000 a 10.000 volte superiore. Se queste sinapsi sono poi dei modulatori molto so­ fisticati, il numero di possibili stati funzionali si accresce enormemente. Per complicarci ulteriormente le idee appare probabile che questi circuiti sinaptici siano assai plastici non solo du­ rante lo sviluppo embrionale postnatale, ma anche negli stati funzionali adulti e con grandi variazioni da individuo a indivi­ duo della stessa specie. L'enorme complessità delle reti nervose ripropone alla no­ stra attenzione inoltre i meccanismi che ne controllano lo svi­ luppo e ne codificano la relativa costanza specie-specifica. La ricerca di questi ultimi anni propone un ruolo decisivo dei fenomeni epigenetici, suggerendo che le reti nervose si venga­ no a stabilizzare attraverso veri e propri processi selettivi a li­ vello cellulare e molecolare (Changeaux, 1 983). Mancano tuttavia dati, nei molti modelli sperimentali com­ parati usati, sui meccanismi attraverso i quali vengono stabi­ lizzate, non nell'ontogenesi, ma nella filogenesi, le regole di 246

plasticità che sono alla base dei meccanismi di apprendimen­ to. Questo discorso se da una parte ci fa riflettere sul ruolo critico dell'ontogenesi (il cui studio grazie all'uso della moder­ na ingegneria biologica ha subito un vero salto di qualità con la scoperta dei geni che regolano lo sviluppo embrionale di al­ cune specie), ci costringe peraltro a porre nuova attenzione al vessato problema dei rapporti fra ontogenesi e filogenesi (vedi discussione in Fasolo e Malacarne, 1 987). Conclusioni Una storia naturale dell'intelligenza deve porsi alcuni obiettivi, e in particolare: l ) comprendere i meccanismi fini della comunicazione cellulare e la loro plasticità durante lo sviluppo e nella vita adulta; 2) descrivere modelli di organizza­ zione cerebrale e correlarli, da una parte, all'organizzazione cellulare sottostante e, dall'altra, alle prestazioni funzionali dell'encefalo come sistema; 3) sviluppare teorie per compren­ dere le relazioni genetico-ontogenetiche che determinano a un tempo l'organizzazione specie-specifica del sistema nervoso e le peculiarità del singolo individuo; 4) studiare i fattori seletti­ vi e i vincoli strutturali che garantiscono l'ereditabilità di un comportamento intelligente. In ogni caso l'analisi comparata può fornire contributi fondamentali allo studio dell'intelli­ genza umana sia dal punto di vista funzionale, sia dal punto di vista metodologico, definendo i limiti e le potenzialità dell'e­ strapolazione dal modello animale (costantemente usato nella ricerca biomedica) a quello umano. Dal punto di vista conoscitivo lo studio comparato suggeri­ sce infine i meccanismi evolutivi che hanno sotteso e permes­ so l'instaurarsi dei processi intelligenti nei sistemi biologici. Queste acquisizioni possono avere un grande significato an­ che nel settore dell'Intelligenza Artificiale proponendo solu­ zioni tecnologiche (per esempio, biochip, e comunque trasdut­ tori, che rispecchino la modulabilità delle sinapsi naturali), "modelli di intelligenza" alternativi (basati ad esempio su par­ ticolari sistemi sensoriali d'ingresso e su semantiche differen­ ti da quelle classiche della linguistica) e una "epistemologia evolutiva" nella comprensione delle attività intelligenti.

RIFERIMENTI BIBLIOGRAFICI Agnati, L.F. e K. Fuxe (1 985), New concepts on the structure of the

neuronal networks: the miniaturization and hierarchical organi247

zation of the centra[ nervous system. Hypothesis, in "Biosciences Reports", 4, pp. 93-98. Beer, C.G. (1 982), Study of vertebrate communication. lts cognitive im­ plications, in D.R. Griffin (a cura di), Anima[ Mind - Human Mind, Springer Verlag, Berlin, Heidelberg, New York, pp. 25 1 -268. Bittennan, M.E. (1 976), /ssues in the Comparative Psychology of Lear­ ning, in R.B. Masterton, M.E. Bitterman, C.B.G. Campbell e N. Hotton (a cura di), Evolution of Brain and Behavior in Vertebrates, J. Wiley & Sons Press, New York, Toronto, London, Sydney, pp. 2 1 7-225 . Bitterman, M. E. (1 987), The Evolutionary Biology of lntelligence, ASI Series, Springer Verlag, in corso di pubblicazione. Blakemore, C. (1 989), Pe r una teoria meccanicista della mente e della percezione, in questo volume, pp. 1 35-1 58. Bradford, H.F. (1 986), Chemical Neurobiology. An lntroduction to Neurochemistry, W.H. Freeman and Company, New York. Brookshire, K.H. ( 1976), Ve rtebrate Learning: Evolutionary divergen­ ces, in R.B. Masterton, M. E. Bitterman, C.B.G. Campbell e N. Hot­ ton (a cura di), Evolution of Brain and Behavior in Vertebrates, J. Wiley & Sons Press, New York, Toronto, London, Sydney, pp. 1 9 1 2 1 6. Bullock, T.H. ( 1 982), Afterthoughts an Anima l Minds, in D.R. Griffin (a cura di), Anima[ Mind-Human Mind, Springer Verlag: Berlin, Hei­ delberg, New York, pp. 407-4 14. Changeaux, J.P. (1 983), L 'homme neuronal, Librairie A. Fayard, Paris (trad. it. Feltrinelli, Milano 1 983). Ebbeson, S.O.E. (1980a), Comparative Neurology of the Telencepha­ lon, Plenum Press, New York, London. Ebbeson, S.O.E. (1 980b), The parcellation theory and its relation to in­ terspecific variability in brain organization, evolutionary and on­ togenetic development, and neuronal plasticity, in "Celi Tissue

Res.", 2 1 3 , pp. 1 79-2 1 2. Ewert, J.P. ( 1 985), Concepts in vertebrate neuroethology, in "Anim. Be­ hav.", 33, pp. 1-29. Fasolo, A. (1 982), L 'olfatto dei vertebrati, in "Quaderni di morfologia funzionale comparata", Piccin, Padova. Fasolo, A. e G. Malacarne (1 987), Comparing the structure of brains: implications far behavioral homologies, ASI Series, Springer Ver­ lag, in corso di pubblicazione. Gould, S.J. ( 1 976), Grades and clades revisited, in R.B. Masterton, W. Hodos e H. Jerison (a cura di), Evolution, Brain, and Behavior. Per­ sistent Problems, J. Wiley & Sons Press, New York, Toronto, Lon­ don, Sydney, pp. 1 15-1 22. Griffin, D.R. ( 1978), Prospects far a cognitive ethology, in "Behav. Brain Sci.", 4, pp. 527-538. Griffin, D.R. (a cura di) (1 982), Anima[ Mind - Human Mind, Springer Verlag, Berlin, Heidelberg, New York. Hailman, J.P. (1 976a), Uses of the comparative study of behavior, in R.B. Masterton, W. Hodos e H. Jerison (a cura di), Evolution, Brain, and Behavior. Persistent Problems, J. Wiley & Sons Press, New York, Toronto, London, Sydney, pp. 1 3-22. 248

Hailman, J.P. (1 976b), Homology: logic, information, and efficiency, in R.B. Masterton, W. Hodos e H. Jerison (a cura di), Evolution, Brain, and Behavior. Persistent Problems, J. Wiley & Sons Press, New York, Toronto, London, Sydney, pp. 1 8 1- 1 98. Harley, C.B. e J. Maynard-Smith ( 1 983), Learning - an evolutionary approach, in "TINS", giugno, pp. 204-208. Hodos, W. ( 1 982), Some perspectives on th{! evolution of intelligence and the brain, in D.R. Griffin (a cura di), Animai Mind-Human Mind, Springer Verlag, Berlin, Heidelberg, New York, pp. 33-56. Hokfelt, T., Everitt, B., Meister, B., Melander, T., Schalling, M., Jo­ hansson, B., Lundberg, J.M., Hulting, A.L., Werner, S., Cuello, A., Hemmings, H., Ouimet, C., Walaas, 1., Greengard, P. e M. Goldstein (1 986), Neurons with multiple messengers with special refe rence to neuroendocrine systems, in "Recent Progress in Hormone Research", 42, Academic Press. Jerison, H.J. (1 976), Principles of the evolution of the brain and be­ havior, in R.B. Masterton, W. Hodos e H. Jerison (a cura di), Evolution, Brain, and Behavior. Persistent Problems, J. Wiley & Sons Press, New York, Toronto, London, Sydney, pp. 23-45. Jerison, H.J. ( 1987), Evolutionary biology of intelligence: the nature of the problem, ASI Series, Springer Verlag, in corso di pubbli­ cazione. Krebs, J.R. e N.B. Davies ( 1 98 1), An introduction to Behavioral eco­ logy, Blackwell, Oxford e Londra (trad. it. Boringhieri, Torino

1 987).

Liebennan, P . .(1 987), Language, communication and rule-governed behavior, ASI Series, Springer Verlag, in corso di pubblica­ zione. MacLean, P.D. (1982), On the origin and progressive evolution of the trine brain, in E. Annstrong e D. Falk (a cura di), Primate Brain Evolution. Methods and Concepts, Plenum Press, New York, pp.

291-31 6.

Macphail, E.M. (1 982), Brain and lntelligence in Vertebrates, Claren­ don Press, Oxford . Mazzi, V. e A. Fasolo (1 983), Evoluzione e determinismo del neuro­ ne: dati sperimentali e considerazioni me todologiche, in V. Cap­ pelletti, B. Luiselli, G. Radnitzky e E. Urbani (a cura di), Storia del pensiero scientifico, Jouvence, Roma, pp. 265-294. Northcutt, R.G. (1984), Evolution of the vertebrate centrai nervous system: patterns and processes, in "Amer. Zool.", 24, pp. 701-716. Poli, M.D. (1 987), Species-specific differences in learning, ASI Series, Springer Verlag, in corso di pubblicazione. Rooijen, J. Van (198 1), Are feelings adaptations? The basis of mo­ dern applied animai ethology, in "Appl. Anim. Ethol.", 7, pp. 187-

1 89.

Welker, W. (1 976), Brain Evolution in Mammals: A review of con­ cepts, Problems, and Methods, in R.B. Masterton, M.E. Bitter­ man, C.B.G. Campbell e N. Hotton (a cura di), Evolution of Brain and Behavior in Vertebrates, J. Wiley & Sons Press, New York, Toronto, London, Sydney, pp. 251-344.

249

Parte terza

Cognizione, computazione e Intelligenza Artificiale

Significato e definizione di Marvin Minsky Significato s . m . l. Concetto racchiuso in un qualunque mezzo d 'e­ spressione: senso. 2. Elemento concettuale del segno linguistico. Contenuto semantico, mentale, emotivo di una qualsiasi espres­ sione linguistica, parola o frase. 3. Ciò che esprime, vuole o può esprimere un 'azione, una parola, e si m. il modo in cui q.c. viene fatto, detto e sim. 4. fig. Importanza, valore. (Dal Vocabolario della lingua italiana, di Nicola Zingarelli, 1 1 a ed., Zanichelli, Bologna 1 983)

Cosa significa "significato" ? Per usare correttamente una parola è a volte sufficiente che qualcuno ce ne dica la defini­ zione, ma ciò non càpita spesso, e non tutte le definizioni hanno un tale magico effetto. Supponiamo di dover spiegare il significato di "gioco". Potremmo cominciare dicendo: Gioco: un'attività in cui due squadre competono mediante un certo oggetto (ad esempio, una palla) per ottenere un punteggio vincente.

Sotto questa definizione ricade un certo numero di gio­ chi, ma non tutti: non si riescono a descrivere adeguatamen­ te quei giochi in cui non si usa alcun oggetto ma, ad esem­ pio, soltanto parole, né quelli in cui non c'è punteggio o man­ ca l'elemento della competizione. Ora, è sempre possibile estendere la definizione in modo da ricomprendere questo o quel gioco, ma non riusciremo mai a formulare una defini­ zione che descriva adeguatamente i giochi nella loro totalità, semplicemente perché le caratteristiche comuni a ciò che chiamiamo "gioco" non sono sufficienti. Ma dimentichiamo per un momento gli aspetti fisici o strutturali dei giochi, e concentriamoci sulla loro funzione psicologica. Ciò suggeri­ sce una definizione completamente diversa: GIOco: un 'attività impegnativa e diverten te, intenzionalmente pri­

va di connessioni con la vita reale.

Una volta adottato questo punto di vista tutti quei giochi, così radicalmente diversi, sembrano molto più simili. Infatti, ora è chiaro che essi hanno tutti un fine comune, e ciò ne spiega anche la grande varietà fisica e strutturale: semplice­ mente, è possibile usare molti oggetti diversi per raggiunge­ re uno stesso scopo. A questo punto potrebbe anche sembra253

re strano considerare il gioco non come un oggetto o un'atti­ vità, ma come un processo mentale. Tuttavia, in ciò non vi è realmente nulla di nuovo: già la nostra prima definizione conteneva alcuni elementi mentalistici, nascosti nelle parole "competizione" e "vittoria". D'altra parte, non dovrebbe sorprenderei il fatto che i giochi non sono simili alle pietre e, come vedremo, questo carattere mentalistico è condiviso anche da altri oggetti, che pure siamo soliti considerare fisici. Tentiamo ora di dare una definizione di "sedia". A prima vista potrebbe sembrarci sufficiente dire: SEDIA:

un oggetto dotato di gambe, schienale e sedile.

Se tuttavia passiamo in rassegna con più attenzione gli oggetti che possono essere considerati sedie, il problema ri­ sulta del tutto analogo a quello originato dalla definizione di "gioco". È facile convincersi che, dopo aver tentato varie strade, non resta che identificare il significato con lo scopo a cui l'oggetto deve servire o con l'uso che se ne intende fare. La parola "sedia" assume allora la stessa colorazione menta­ listica di un desiderio: SEDIA:

qualcosa su cui ci si può sedere.

Vi sono dunque due modi di considerare le sedie. Da un lato, è possibile darne una descrizione strutturale come "og­ getti dotati di gambe, schienale e sedile". Dall'altro, possia­ mo darne una descrizione psicologica come "oggetti su cui ci si può sedere". Perché non cercare un compromesso, intrec­ ciando le due definizioni in un'unica descrizione del signifi­ cato di "sedia"? Non basta associare in modo più o meno va­ go aspetti strutturali e aspetti funzionali: bisogna specificare completamente il ruolo di ogni singolo aspetto strutturale nell'adempimento della funzione generale. Per far ciò biso­ gna rappresentare le connessioni fra le parti strutturali della

sedia e le parti o le necessità del corpo umano cui esse sono dedicate. Si ha così la seguente rappresentazione:

ri

STRUTTURA

FUNZIONE

o � Lo schienale sostiene la schiena �--- Il sedile sostiene

il

corpo ---::.

�--Le gambe tengono alto il sedile --....:;. � Le gambe permettono di piegare le ginocchia �

254

Il

Senza questo tipo di conoscenze, non si può sostenere di conoscere il significato di "sedia": in tal caso, infatti, po­ tremmo anche pensare che per usare correttamente una se­ dia sia necessario strisciarvi sotto, o mettersela in testa. Ma una volta stabilite le giuste connessioni fra la struttura e lo scopo, possiamo applicare il concetto di sedia anche ad altri oggetti, e capire, ad esempio, come anche una semplice sca­ tola possa svolgere le stesse funzioni di una sedia, nonostan­ te non abbia né gambe né schienale. Per poter applicare il concetto di "sedia" a una scatola bisogna riuscire a sezionar­ la in parti che approssimino quelle che entrano nella descri­ zione strutturale di una sedia:

? ? D

DIFFERENZA: non c'è schienale a sostenere la schiena La sommità sostiene il corpo

ilf

I lati mantengono l'altezza del sedile DIFFERENZA: non c'è spazio per piegare le ginocchia

Simili corrispondenze ci permettono di capire molto me­ glio come si possano usare scatole al posto delle sedie, gra­ zie anche alle nostre conoscenze relative alle connessioni fra struttura, comodità e posizione. Si può vedere, ad esempio, che una scatola sarebbe adatta solo per coloro che non han­ no bisogno di appoggiarsi o a cui non spiace non poter piega­ re le ginocchia. Si tratta naturalmente di un ragionamento complesso che richiede una notevole abilità mentale per n­ descrivere tanto la sedia quanto la scatola in modo che, no­ nostante le differenze, vi sia una corrispondenza strutturale. Ciò che chiamiamo "conoscenza pura" risulta utile solo in quei pochi ma cruciali contesti in cui è necessaria l'abilità mentale di riforrnulare appropriatamente le proprie descri­ zioni per adattarle agli scopi e alle circostanze del momento. Senza tale abilità potremmo applicare ciò che abbiamo im­ parato solo e unicamente in quelle circostanze in cui lo ab­ biamo imparato, e ciò costituirebbe un grave problema per­ ché, al di fuori dell'universo artificiale della logica matema­ tica, nessuna situazione si ripresenta sempre identica a se stessa. Torniamo alle sedie e ai giochi. Abbiamo visto che le de­ scrizioni strutturali sono di solito troppo specifiche: la mag­ gior parte delle sedie ha gambe e schienale, ma vi sono molte eccezioni. D'altro lato, le descrizioni funzionali non sono di solito sufficientemente specifiche: "oggetti su cui ci si può se­ dere" è un'espressione troppo vaga per identificare univoca255

mente le sedie, così come "attività divertente" non riesce a distinguere i giochi dagli altri modi di impiegare il proprio tempo libero. Le definizioni psicologiche sono di solito troppo lasche e non sufficientemente restrittive. Le definizioni strutturali sono di so­ lito troppo rigide ed eccessivamente restrittive.

È difficile, in generale, che una singola definizione riesca a caratterizzare univocamente una classe di oggetti. Ma co­ me abbiamo visto si riesce a volte a catturare il significato di una parola mediante un attacco su più fronti. Nel caso di "sedia", ad esempio, abbiamo intessuto una rete fra due di­ versi tipi di descrizione. Io credo che le ragioni del successo di questo tentativo siano molto profonde, e che possano esse­ re riassunte nel modo seguente: Le nostre idee migliori sono quelle che gettano un ponte fra due mondi diversi!

Non è necessario che ogni definizione sia una miscela di esattamente questi due ingredienti: struttura e intenzione; pure, si tratta di una coppia particolare, da un certo punto di vista: ci permette di stabilire una connessione fra gli og­ getti che sappiamo descrivere (e quindi reperire, fare o pen­ sare) e i problemi che vogliano risolvere. La corrispondenza struttura-funzione ci permette di unire i "mezzi" ai "fini". Vi è un modo particolare di rappresentare gli oggetti di uso più comune, ed è così profondamente radicato nel nostro pensiero che non ci accorgiamo mai di usarlo. Per eviden­ ziarlo si consideri l'effetto psicologico che si ottiene dise­ gnando una linea orizzontale nel modo seguente:

--��-

Persona

Lampada

Automobile

Albero

Tavolo

La linea divide ogni oggetto in due parti, ma in modo par­ ticolarmente significativo, distinguendo un corpo e un soste­ gno. Non avrebbe senso dividere verticalmente il tavolo, ot­ tenendo due parti a forma di "L", né dividere la parte ante256

riore dell'automobile da quella posteriore. Si tratterebbe di divisioni prive di qualsiasi scopo apparente. Non è affatto strano nella vita quotidiana distinguere le gambe di un tavo­ lo dal ripiano, o le ruote di un'automobile dalla carrozzeria, e ciò perché è il ripiano del tavolo che assolve allo scopo per cui noi usiamo i tavoli, e cioè per appoggiarvi oggetti. Le gambe, invece, hanno un ruolo del tutto secondario: è vero che senza di esse il ripiano cadrebbe, ma è anche vero che senza il ripiano il tavolo sarebbe del tutto inutile. In questo senso, la distinzione corpo-sostegno esprime più di una semplice relazione fisica: essa incorpora l'idea della connessione fra un oggetto e il suo scopo, fra una de­ scrizione strutturale e un fine psicologico. Come abbiamo vi­ sto, non basta usare una semplice metafora, non è sufficien­ te giustapporre una descrizione strutturale come "ripiano so­ stenuto da gambe" a una intenzionale come "per mantenere gli oggetti lontano dal pavimento". Per poter usare questa co­ noscenza, occorre sapere anche come usarla: chi ci dice, ad esempio, di porre gli oggetti sul tavolo, invece che sotto? Questo tipo di conoscenza è implicito nella rappresenta­ zione corpo-sostegno: usandolo, noi supponiamo che il "cor­ po" sia l'elemento strutturale che permette di raggiungere il fine, mentre il "sostegno" non è altro che una parte accesso­ ria necessaria al funzionamento del "corpo". Conseguente­ mente, l'unica parte del tavolo che prendiamo in considera­ zione per appoggiarvi un oggetto, è il ripiano. La nostra co­ noscenza può farsi più ampia e più profonda man mano che impariamo come, concretamente, il sostegno aiuta il corpo. Ad esempio, un buon modo per capire la funzione delle gam­ be del tavolo è quello di provare a pensare a cosa accadreb­ be se esse fossero rimosse. Per capire il funzionamento di un oggetto, può essere utile sapere come esso può non funzio­ nare: DIFFERENZA NEL SOSTEGNO

EFFETTI SUL CORPO

Rimuovi la gamba destra Rimuovi la gamba sinistra

Il lato destro del ripiano cade n lato sinistro del ripiano cade

Vi sono naturalmente molti altri modi per stabilire una connessione fra la descrizione e lo scopo, e ognuno di essi suggerisce un modo possibile di sezionare gli oggetti metten­ done in luce le parti che, in quel contesto, sembrano più es­ senziali. FUNZIONE STRUTTURA

FINI MEZZI

CONCLUSIONE PREMESSA

EFFETTO CAUSA

CORPO SOSTEGNO

257

Ciascuna di queste coppie comporta un modo preciso di distinguere le parti essenziali da quelle secondarie o accesso­ rie, ed anche rimanendo all'interno del mondo degli oggetti fisici è possibile assumere molti diversi punti di vista psico­ logici. Ad esempio, vi sono molti modi di rappresentare l'i­ dea di salire su un tavolo per raggiungere un oggetto posto particolarmente in alto: il tavolo mantiene gli oggetti lontano dal pavi­ mento. Funzione: il tavolo è fatto per appoggiarvi oggetti. Conclusione: se si mette qualcosa su un tavolo, la sua altezza aumenta. Causa-Effetto: posso giungere più in alto perché parto da un punto posto più in alto. volendo giungere più in alto, posso salire su un Mezzi-Fini: tavolo. Sostegno:

Quando si tratta di risolvere un problema difficile, spesso facciamo uso di più prospettive contemporaneamente, e la qualità della nostra comprensione dipende da quella della connessione che riusciamo a stabilire fra tutti questi diffe­ renti punti di vista. La traduzione da un punto di vista all'al­ tro richiede la costruzione di qualche corrispondenza. Ma è difficile riuscire a costruirle in maniera coerente; spesso la situazione è simile a quella in cui ci siamo ritrovati tentando di definire il concetto di "sedia": alla semplice idea funziona­ le di "oggetto su cui ci si può sedere" fa riscontro una miria­ de di oggetti fisici differenti. In generale, ciò che è semplice ed elementare da un dato punto di vista, risulta complesso e inestricabile da un altro. La distinzione corpo-sostegno è al­ lora tanto più rimarchevole in quanto conduce, di solito, a corrispondenze chiare e precise. Ad esempio, possiamo tra­ durre l'espressione "sostenuto da", del mondo architettonico, in quella, appartenente al mondo geometrico, "avente una su­ perficie orizzontale al di sotto di se stesso". Vi sono, natural­ mente, delle eccezioni: questa traduzione non riesce a rap­ presentare, ad esempio, la possibilità di sostenere qualcosa appendendolo a un sostegno posto più in alto. Ma non pos­ siamo nemmeno sperare di dare traduzioni immuni alle ec­ cezioni. Non è un caso che la distinzione corpo-sostegno ri­ sulti così potente e di così larga applicabilità: essa riassume in sé tutte le relazioni fra struttura e funzione. Le connessioni coerenti fra mondi descrittivi diversi sono la chiave delle nostre più utili metafore, permettendoci di comprendere anche ciò che esula dalla nostra esperienza di­ retta. Se qualcosa ci sembra totalmente nuovo in uno dei no258

stri mondi descrittivi, è possibile che, se tradotto nel lin­ guaggio di un altro mondo, cominci a somigliare a qualcosa che già conosciamo. Le coppie di opposti come quella che oc­ corre nello schema corpo-sostegno non sono, in sé, molto si­ gnificative, ma possono essere un ottimo punto di partenza per costruire corrispondenze fra mondi descrittivi diversi. In un certo senso, sono cartelli che ci indicano come giungere ai ponti costruiti per unire modi diversi di guardare alla stessa realtà. [Questo saggio è una versione di un capitolo del mio The Society (Simon and Schuster, New York 1986). L'idea dello schema descrittivo Corpo-Sostegno ha avuto origine in collaborazione con Seymour Papert. Il problema di definire i giochi fu posto per la pri­ ma volta da Ludwig Wittgenstein nelle sue Ricerche filosofiche, ma egli non riuscì a risolverlo perché (a mio parere) non comprese l'o­ rigine psicologica di tali concetti. Ciò lo costrinse a ricercare le proprietà comuni ai giochi in quanto tali, e tutto ciò che riuscì a trovare furono delle vaghe "somiglianze di famiglia". E qui si fer­ mò: essendo infatti anche la nozione di somiglianza di natura psico­ logica e non strutturale.] of Mind

259

Pensiero e modelli mentali di Philip N. Johnson-Laird

Introduzione Supponiamo che il cervello sia un dispositivo computa­ zionale ad architettura parallela, diverso dai comuni calcola­ tori digitali, ma in grado di eseguire computazioni grazie al­ le sue caratteristiche fisiologiche; sarebbe allora compito dello psicologo scoprire le varie procedure usate dal cervello nell'adempimento delle proprie funzioni principali: la perce­ zione del mondo esterno, il pensiero e il controllo dei movi­ menti corporei. Le pagine seguenti verteranno su un singolo aspetto del pensiero, il ragionamento inferenziale, tentando di descrivere le procedure computazionali ad esso soggia­ centi. Secondo alcuni studiosi di orientamento "connessionista" (fra cui, ad esempio, Faldman, 1 985) la scienza cognitiva non può trascurare la natura dei neuroni e delle loro intercon­ nessioni. Ma prima di formulare precise teorie psicologiche che tengano conto delle caratteristiche fisiche del cervello, bisogna determinare i requisiti computazionali di ogni singo­ la funzione cerebrale, e indicare una procedura che soddisfi tali requisiti (Marr, 1 982). La teoria della computazione per­ mette di giungere alla stessa conclusione (vedi Johnson­ Laird, 1 983): è possibile rappresentare ogni funzione compu­ tabile per mezzo di poche funzioni primitive e un piccolo nu­ mero di operazioni di composizione funzionale, anche se, na­ turalmente, la rappresentazione finale può essere notevol­ mente complessa. Concesso che il cervello stesso è composto di unità fondamentali e di principi di composizione funziona­ le di potenza paragonabile, la sua fisiologia, a noi nota, pone pochi vincoli alla teoria cognitiva. La teoria cognitiva può in260

vece trarre indicazioni più rilevanti dallo studio delle capaci­ tà mentali a livello psicologico. Infatti, una volta che tali ca­ pacità siano state spiegate per mezzo di adeguate procedure cognitive, non dovrebbe essere difficile esprimere tali proce­ dure nel quadro del meccanismo computazionale di basso li­ vello, quale che sia, proposto dalla neurofisiologia. Il pensiero è alla base di molte diverse attività cognitive, dalla soluzione di intricati problemi concettuali al semplice fantasticare, ma quando è esplicitamente diretto a un fine, ri­ cade sotto tre principali categorie: il calcolo, l'inferenza e l'immaginazione. Stiamo eseguendo un calcolo, ad esempio, quando "facciamo i conti" a mente: il calcolo è un processo del pensiero volto a determinare il valore di una funzione se­ guendo passo per passo una procedura fondata su regole for­ mali deterministiche. L'immaginazione, invece, è di natura completamente diversa: è un processo non deterministico, che a parità di condizioni iniziali può portare a risultati diver­ si. Essa è alla base di attività altamente creative, come dipin­ gere un quadro, comporre un brano musicale, scrivere una poesia, attività di cui non si è ancora riusciti a dare una spie­ gazione cognitivamente adeguata. L'inferenza lascia perplesso lo psicologo perché, pur es­ sendo uno degli aspetti più importanti dell'attività della men­ te, non si sa se può essere ricondotta al calcolo o all'immagi­ nazione (o ad entrambi). Vi è certamente un qualche tipo di procedimento sistematico che porta da un insieme di proposi­ zioni, dette "premesse", a un altro insieme di proposizioni, dette "conclusioni", ma tale procedimento può dare origine a inferenze di tipo diverso. Nel caso più comune, le proposizio­ ni (espresse mediante un certo numero di enunciati del lin­ guaggio naturale) sono inserite nel contesto della conoscenza generale dell'individuo, generando un'unica conclusione, a sua volta espressa per mezzo di un enunciato linguistico. Ma, nella vita di ogni giorno, capita di fare molte inferenze che hanno come conclusione un'azione diretta, e che muovono da informazioni derivate dalla percezione, dalla conoscenza ge­ nerale o da premesse linguistiche. Il procedimento inferenzia­ le fa uso di principi, espliciti o impliciti, che stabiliscono una corretta relazione semantica fra premesse e conclusione. Nel caso del ragionamento deduttivo tali principi devono essere logicamente corretti, in modo da garantire, in particolare, che la conclusione sia vera se lo sono le premesse (si dice che un'inferenza con questa proprietà è valida). Altre forme di ra­ gionamento possono richiedere principi di altra natura, ad esempio riconducibili alla statistica, alla teoria delle probabi­ lità o alla matematica applicata (vedi Kahneman e altri, 1 982). 261

In certi casi particolari l'inferenza può essere eseguita in modo puramente meccanico . Chi conosce le procedure di prova di un particolare calcolo logico può essere in grado di dimostrare che una certa conclusione segue da un dato insie­ me di premesse per mezzo di un'applicazione meccanica di regole di inferenza comunemente accettate. Questo caso non è tuttavia generalizzabile: non si sa ancora con certezza quali siano i metodi con cui conduciamo le inferenze della nostra vita quotidiana (vedi Evans, 1 982). Secondo alcune teorie del ragionamento sviluppate in ambito psicologico l'inferenza è un procedimento molto simile al calcolo, mentre altre tendo­ no a considerarla più simile all'immaginazione: una prima ovvia ragione di questo disaccordo risiede nel fatto che non possiamo osservare direttamente i nostri processi di pensie­ ro, ma che conosciamo soltanto i risultati. Poiché vi sono molte più teorie che assimilano il ragionamento a un calcolo, sposando in qualche modo l'idea di una "logica mentale", ri­ spetto a quelle che condividono l'altra posizione (vedi ad esempio Inhelder e Piaget, 1 958; Osherson, 1 975; Braine, 1 978; Mayer e Revlin, 1978; Rips, 1 983), cercherò di dimo­ strare l'importanza dell'immaginazione nei processi inferen­ ziali, non esclusi quelli di natura deduttiva.

Logica e ragionamento La logica specifica i principi del ragionamento valido in diverse aree di pensiero. Sono possibili diversi modi di for­ malizzare un dato settore della logica, ma quello classico adotta un punto di vista essenzialmente sintattico secondo cui la conclusione è derivabile dalle premesse per mezzo di regole formali (cioè sintattiche) di inferenza. Ad esempio, il calcolo proposizionale studia le relazioni reciproche delle proposizioni connesse da termini come "e", "oppure" e "non", ma può essere formalizzato senza far riferimento al signifi­ cato che questi termini comunemente hanno. Le regole for­ mali di inferenza come il modus ponens sono enunciate in modo puramente sintattico: p p-+ q Quindi, q

e sono usate, in effetti, solo per derivare certi segni sulla carta a partire da certi altri segni. Nonostante sia enunciata in modo sintattico, una regola come il modus ponens è natu­ ralmente suscettibile di interpretazione semantica: data una 262

premessa p, eventualmente complessa (formata cioè a parti­ re da proposizioni atomiche per mezzo di connettivi proposi­ zionali), e una premessa della forma "p implica materialmen­ te q" (dove l'implicazione materiale è una relazione vero-fun­ zionale equivalente all'assunzione "p &/or q"), allora è valido concludere q. Questa semplice interpretazione vero-funziona­ le non è l'unica possibile per il calcolo proposizionale, e in generale è sempre possibile dare interpretazioni diverse di uno stesso calcolo formale. Quando tuttavia le regole di un calcolo vengono date in modo sintattico, i simboli che vi compaiono non sono interpretati: anche storicamente, i me­ todi per specificare le interpretazioni possibili di un calcolo (la cosiddetta "semantica modellistica") sono posteriori allo sviluppo della logica formale. Secondo molti psicologi, alla base della nostra capacità di ragionamento c'è un qualche tipo di logica mentale. In parti­ colare, Piaget e i suoi seguaci hanno sostenuto che il ragio­ namento formale, che impariamo a padroneggiare fra i tredi­ ci e i diciotto anni, "non è altro che il calcolo proposizionale stesso". Dal punto di vista della teoria della logica mentale, un'inferenza deduttiva richiede la traduzione delle premesse in un linguaggio mentale interno, la combinazione delle rap­ presentazioni così ottenute con la conoscenza generale rela­ tiva all'argomento espresse nello stesso modo, e la derivazio­ ne di una conclusione per mezzo di regole formali di inferen­ za applicate a queste rappresentazioni. Uno schema esplica­ tivo simile è stato adottato, fra gli altri, da Inhelder e Piaget ( 1 97 1 ), Osherson (1 975), Johnson-Laird (1 975), Braine (1978) e Rips ( 1 983). Una teoria dell'inferenza che segua tale schema esplicativo deve rispondere a due domande cruciali: quale lo­ gica, fra le molte possibili, è effettivamente quella usata nel­ la mente e come essa è rappresentata internamente? Doman­ de analoghe si hanno anche nel caso di altri tipi di inferenze, come ad esempio quelle fondate sulla probabilità o sull'ap­ plicazione della matematica. La teoria di Piaget va incontro a una particolare difficol­ tà : le inferenze che dipendono dai quantificatori "ogni" e "qualche" non possono essere espresse nel calcolo proposi­ zionale, ma richiedono il più potente calcolo dei predicati che permette di analizzare la struttura interna delle proposi­ zioni e i quantificatori che vi occorrono. Similmente vi sono inferenze che dipendono da nozioni di possibilità, necessità, tempo, numero, non-monotonicità (vedi McDermott e Doyle, 1 980; Davis, 1 980) o che usano condizionali controfattuali e altri connettivi proposizionali non vero-funzionali (vedi Brai­ ne, 1 979; Johnson-Laird, 19 84); e infine inferenze in cui oc263

corrono quantificatori non standard come "la maggior par­ te", "alcuni", "più di un terzo" (vedi Johnson-Laird, 19 83). Una simile complessità richiederebbe almeno un calcolo dei predicati intensionale di ordine superiore, ma i calcoli logici di questo genere sono incompleti, nel senso tecnico secondo cui è impossibile definire un insieme di regole di inferenza formali attraverso cui siano derivabili tutte le inferenze vali­ de. Nonostante queste considerazioni teoriche portino a du­ bitare della praticabilità della teoria della logica mentale, al­ cuni psicologi continuano a sostenerla (ad esempio Rips, co­ municazione personale), anche se non sono ancora riusciti a formulare le regole tli inferenza richieste dalle forme di de­ duzione riscontrabili nella vita quotidiana, né tantomeno a provare che tali regole sono effettivamente usate dalla mente.

L 'inferenza nella vita quotidiana L'inferenza è alla base di molti fenomeni cognitivamente rilevanti della vita quotidiana. Ad esempio, posti di fronte al­ la seguente situazione: Carol viveva da sola in una grande casa in un quartiere malfa­ mato della città. Una sera, rincasando, notò una luce accesa nel suo soggiorno,

è facile inferire, almeno in via provvisoria, che vi sia un in­ truso in casa. La mente giunge a questa conclusione in modo spontaneo e, soprattutto, largamente inconscio. È chiaro che l'inferenza non è valida, come hanno riconosciuto i soggetti di un esperimento condotto da Bruno Bara e Tony Anderson; posti di fronte a questa stessa situazione, essi hanno pronta­ mente offerto spiegazioni alternative: Carol, uscendo, avreb­ be potuto dimenticare la luce accesa, l'impianto elettrico avrebbe potuto essere difettoso, o un amico avrebbe potuto avere le chiavi di casa. Anche se queste ipotesi sono elimina­ te (perché lo sperimentatore, pur riconoscendone la plausibi­ lità, nega che siano vere nella situazione in questione), molti soggetti continuano a ricercare soluzioni alternative finché non vi sia una conclusione in grado di sfidare ogni ragione­ vole dubbio. Ciò non basta, tuttavia, a garantire la validità dell'inferenza, perché non si possono escludere con sicurezza tutte le possibili spiegazioni dei fatti diverse dalla conclu­ sione. Le inferenze implicite della vita quotidiana hanno luogo anche se non vi è alcuno sforzo consapevole per trarre una 264

conclusione, e richiedono che la conoscenza generale si ren­ da disponibile in modo veloce, automatico e libero da ogni controllo conscio. Tre fenomeni esigono una spiegazione. Co­ me fa il sistema inferenziale a individuare le conoscenze per­ tinenti a una determinata situazione? Come fa a scegliere una conclusione, anche se provvisoria? E quand'è che una conclusione appare corretta oltre ogni ragionevole dubbio? Tenterò di fornire una risposta a ognuna di queste domande.

Il reperimento delle informazioni necessarie Una volta che la conoscenza generale relativa a una situa­ zione sia stata recuperata, sono in linea di principio possibili diversi modi di condurre un'inferenza. Si può ad esempio pensare a una versione mentale del calcolo dei predicati, op­ pure a un metodo semantico come quello che descriverò fra breve. Ma qualunque teoria scegliamo di adottare, occorre spiegare come avvenga il recupero delle informazioni relati­ ve al contesto dell'inferenza. Secondo Schank ( 1 980) vi sono delle parole chiave che attivano spezzoni di conoscenza gene­ rale; ad esempio, la parola "cameriere" fa affiorare una sorta di "copione" contenente informazioni su azioni e situazioni tipiche dei ristoranti. Tuttavia, nell'esempio di Carol sopra riportato, è difficile individuare un insieme di parole la cui occorrenza sia sufficiente ad attivare la conoscenza relativa alla situazione descritta. Piuttosto, sembra che la possibilità di crimini venga evocata dal significato dell'intera espressio­ ne "quartiere malfamato della città". Analogamente, la pre­ messa che Carol aveva visto una luce nel suo soggiorno fa ri­ cordare che una persona entrando in una stanza, di solito, accende la luce, e la premessa che Carol viveva da sola può far pensare che qualcuno diverso da Carol abbia acceso la luce. Solo a questo punto è chiaro il legame fra quest'altra persona e la possibilità del crimine: un ladro può essere en­ trato in casa. Le connessioni di questo genere non possono essere prodotte per mezzo di regole formali o sintattiche, ma richiedono che si prenda in considerazione il significato del­ le espressioni e che tale significato venga posto in relazione con la conoscenza generale.

La natura delle conclusioni inferenziali Un aspetto importante del processo inferenziale è l'origi­ ne delle conclusioni . Negli esperimenti che si conducono di 265

solito è lo sperimentatore a fornire le conclusioni, e l'unica preoccupazione di molte teorie è spiegare come si giunga a ritenere corretta una conclusione data. Queste posizioni teo­ riche, cosi come le pratiche sperimentali ad esse ispirate, ignorano il fatto che nella vita quotidiana tutti sono capaci di trarre da soli le proprie conclusioni. A questo riguardo vi è un interessante problema che i teorici della logica mentale tendono a trascurare: dato un insieme di premesse, da esso segue un numero infinito di conclusioni valide distinte. La grande maggioranza di tali conclusioni è banale, essendo co­ stituita ad esempio da congiunzioni o disgiunzioni di pre­ messe, e nessuna persona dotata di buon senso formulereb­ be mai spontaneamente una conclusione di tale genere. Le conclusioni cui si giunge spontaneamente nella vita quotidia­ na hanno tipicamente le seguenti proprietà: l. Non sono meno informative delle premesse e della re­ lativa conoscenza generale: l'insieme di situazioni possibili in cui la conclusione è vera non è più grande di quello in cui sono vere le premesse. Sono cosi escluse tutte le forme di ra­ gionamento simile alla seguente (che è, tuttavia, logicamente valida): Carol viveva da sola in una grande casa. Quindi, Carol viveva da sola in una grande casa oppure viveva con la sua famiglia in una piccola casa.

2. La conclusione esprime lo stesso contenuto semantico delle premesse, ma in modo più compatto ed economico. Ciò spiega perché di solito la conclusione non è la semplice con­ giunzione delle premesse, anche se si tratta di una forma di ragionamento corretta. 3. Se possibile, nelle conclusioni sono enunciate relazioni non esplicitamente contenute nelle premesse. 4. Nell'attenersi a questi principi la gente assume come non necessario rendere espliciti fatti ovvi (vedi Grice, 1975), cosi che di solito non ci si prende il disturbo di ri-enunciare nella conclusione semplici premesse. Questi principi sono stati confermati da una serie di veri­ fiche sperimentali: i soggetti di tali esperimenti formulavano conclusioni conformi ad essi, purché le informazioni loro fornite fossero sufficienti per effettuare una deduzione vali­ da. Si noti che i principi 1-4 non hanno nulla a che fare con la logica, essendo il loro scopo quello di impedire conclusio­ ni banali, anche se valide, permettendo solo quelle informati­ ve. Invero, ritengo che l'informatività di una inferenza possa essere correttamente definita in riferimento ai principi so­ pra enunciati. Si può accettare questa definizione senza pre266

supporre che questi principi abbiano una propria autonoma esistenza mentale: vi sono diversi algoritmi inferenziali che di fatto si attengono ad essi senza farne alcuna esplicita men­ zione (vedi Johnson-Laird, 1 983, capitolo 3). Comunque la lo­ ro natura semantica è evidente (essi si basano sul significato delle premesse), né si può esprimere il loro contenuto per mezzo di regole puramente formali che non facciano riferi­ mento al significato.

La teoria dei modelli mentali Abbiamo visto che tanto il reperimento delle informazioni necessarie quanto la formulazione di una conclusione dipen­ dono da procedimenti semantici. Occorre ancora spiegare un ultimo aspetto dei processi inferenziali della vita quotidiana, cioè il modo in cui si giunge a stabilire la correttezza di una conclusione al di là di ogni ragionevole dubbio. Affronteremo il problema cominciando da un caso particolare, quello delle inferenze valide. Una volta determinato come si giunge a sta­ bilire che un'inferenza è valida, cercheremo di estendere la soluzione al fenomeno più generale e meno definito delle infe­ renze della vita quotidiana . Come ho cercato di dimostrare, l'idea che la validità di un'inferenza dipenda da una derivazione formale in un calco­ lo mentale va incontro a serie difficoltà. Una possibile solu­ zione che non fa riferimento al meccanismo sintattico dei cal­ coli logici è quella che riconduce l'inferenza al principio se­ mantico fondamentale della validità dal punto di vista della teoria dei modelli: un'inferenza è valida se è impossibile che la conclusione sia falsa se le premesse sono vere. Si può dun­ que condurre un'inferenza prendendo in considerazione tutti i possibili modelli delle premesse (cioè tutti i modi in cui que­ ste possono essere interpretate), verificando che la conclusio­ ne risulti vera in ognuno di essi. Purtroppo, anche la più sem­ plice delle premesse è suscettibile di infinite interpretazioni distinte: l'asserzione "Il gatto sedeva sul tappeto" si adatta a un numero infinito di situazioni in cui vi sono gatti diversi, tappeti diversi, o diverse posizioni del gatto sul tappeto. Se i logici possono ignorare il problema, non dovendo rimanere entro i limiti della realtà della psicologia umana, lo studioso di scienze cognitive non può far propria una teoria del ragio­ namento che richiede che un individuo prenda in considera­ zione un numero infinito di modelli alternativi distinti. Una soluzione cognitivamente più adeguata è quella se­ condo cui si immagina una situazione tipica descritta dalle 267

premesse, tentando di trovare il modo di modificarla in mo­ do da rendere falsa la conclusione. La forma della rappre­ sentazione mentale di una situazione tipica non è un elemen­ to cruciale: possiamo pensare a un'immagine visiva oppure a qualche altra forma non immediatamente disponibile all'i­ spezione conscia. Ciò che conta non è l'esperienza fenomeni­ ca della rappresentazione, ma il suo contenuto e la sua strut­ tura, che fanno si che essa sia la rappresentazione di un par­ ticolare stato di cose. Prendiamo in considerazione il caso dell'inferenza sillogi­ stica, che ho studiato per alcuni anni insieme con alcuni miei colleghi (vedi Wason e Johnson-Laird, 1 972; Johnson­ Laird e Steedman, 1 978; Johnson-Laird e Bara, 1 984). Secon­ do la teoria dei modelli mentali il primo passo di un ragiona­ mento consiste nell'immaginare una situazione in cui le pre­ messe sono vere. Così, per rappresentare una premessa della forma "Tutti gli artisti sono barbieri", possiamo immaginare un certo numero di artisti (diciamo due) cui viene apposto un qualche tipo di etichetta per rappresentare il fatto che so­ no barbieri. La struttura di una simile rappresentazione sa­ rebbe più o meno la seguente: artista artista

= =

barbiere barbiere.

La rappresentazione stessa può poi essere anche una vivi­ da immagine di due persone con grembiule e tavolozza che impugnano anche il rasoio del barbiere. Tuttavia, il modo in cui la rappresentazione è esperita da chi conduce il ragiona­ mento non è importante; la rappresentazione mentale po­ trebbe perfino essere prodotta e percepita in modo incon­ scio. Il punto critico è piuttosto che vi sono degli insiemi di simboli mentali semplici che rappresentano insiemi di indi­ vidui. La rappresentazione che abbiamo dato della premessa "Tutti gli artisti sono barbieri" non riesce a rendere conto della possibilità che vi siano barbieri che non sono artisti. È, questa, una possibilità che la premessa che vogliamo rappre­ sentare di per sé non esclude, e che potrebbe dar luogo al se­ guente modello: artista artista

=

barbiere barbiere barbiere

che rappresenta esplicitamente un certo numero di barbieri (nella fattispecie, uno, ma questo numero è arbitrario) che 268

non sono artisti. Vi sono dunque almeno due modi per rappre­ sentare compiutamente la nostra premessa: si può pensare che il soggetto costruisca entrambe queste rappresentazioni, assimilando così i modelli mentali ai diagrammi di Eulero (ve­ di Erickson, 1 974), oppure che vi sia un modo per rappresenta­ re in un singolo modello sia individui effettivamente esistenti sia individui soltanto possibili (vedi Johnson-Laird, 1 983). Quest'ultimo tipo di individui può essere rappresentato in un modello mentale per mezzo di simboli speciali, che corrispon­ dono a entità che possono esistere oppure no: artista artista

=

barbiere barbiere (barbiere)

In questo tipo di modello mentale le parentesi rappresen­ tano l'esistenza possibile di un oggetto. Vi sono buoni motivi per ritenere che i modelli mentali costruiti nel corso del pro­ cesso inferenziale siano di questo secondo tipo. L'informazione da una seconda premessa, ad esempio "Tutti i barbieri sono chimici", può essere usata per costruire un modello che integra entrambe le premesse. Perciò, le pre­ messe: Tutti gli artisti sono barbieri Tutti i barbieri sono chimici

sono rappresentate con il seguente tipo di modello: artista artista

=

barbiere barbiere (barbiere

=

chimico chimico chimico) (chimico)

in cui, ancora una volta, il numero di simboli di ciascun tipo è essenzialmente arbitrario perché il significato delle premesse non dipende dal numero di simboli con cui sono rappresen­ tate. Come secondo passo, una volta costruito un modello delle premesse, occorre formulare, se possibile, una conclusione in­ formativa e non banale. Vi è una semplice procedura che esa­ mina il modello determinando se c'è una conclusione che ri­ sponda ai requisiti precedentemente illustrati. Poiché nel mo­ dello ogni simbolo che rappresenta un artista è unito da una relazione di identità a un simbolo rappresentante un chimico, la procedura fornisce la conclusione "Tutti gli artisti sono chi­ mici", che stabilisce una relazione non esplicitamente asserita nelle premesse. 269

Infine, come terzo passo, si cerca un modello alternativo delle premesse che serva come controesempio alla conclusio­ ne precedente. Nel nostro esempio di inferenza sillogistica ciò non è possibile, e la conclusione è quindi valida. Vi sono casi, tuttavia, in cui un modello alternativo delle premesse permette di falsificare la conclusione iniziale. Sup­ poniamo ancora una volta di avere artisti, barbieri e chimici, e consideriamo le seguenti asserzioni: Nessun artista è un barbiere. Tutti i barbieri sono chimici.

È difficile trarre una conclusione valida da queste premes­ se perché ciascuno dei passi seguenti del procedimento infe­ renziale deve essere eseguito correttamente. Bisogna dappri­ ma costruire un modello delle premesse: a a b b

=

c c (c)

in cui la linea continua denota una rappresentazione menta­ le della negazione: nessun artista potrà mai essere identifi­ cato con un barbiere. Il secondo passo consiste nel trarre una conclusione informativa dal modello, cioè: Nessun artista è un chimico

o la conversa di tale asserzione: Nessun chimico è un artista.

Il terzo passo richiede la ricerca di un controesempio. Si giunge così a un secondo modello : a a

(c)

=

b b

= =

c c

che falsifica la conclusione precedente. La procedura infe­ renziale deve ora tenere in considerazione entrambi i model­ li che, congiuntamente, originano la conclusione: 270

Qualche artista non è un chimico

o la conversa di tale asserzione: Qualche chimico non è un artista.

Ancora una volta, occorre cercare un controesempio alla conclusione, costruendo un terzo modello: a a

(c) (c)

=

b b

-

c

=

c

che refuta la conclusione "Qualche artista non è un chimi­ co". Dalla considerazione congiunta dei tre modelli la proce­ dura inferenziale trae la conclusione: Qualche chimico non è un artista

che non è refutabile da alcun modello delle premesse ed è dunque valida. La difficoltà di quest'inferenza, che fa sì che solo pochi riescano a condurla correttamente, dovrebbe ora essere chiara: per ottenere in modo corretto l'unica conclu­ sione valida bisogna costruire ben tre modelli mentali, che per di più devono essere esaminati in senso inverso a quello in cui sono stati costruiti, secondo un ordine cioè contrario a quello "figurale". In generale, come hanno mostrato Johnson-Laird e Bara ( 1 984), la difficoltà di un sillogismo è funzione del numero dei modelli che devono essere costruiti e dell'effetto "figurale". Inoltre, quasi tutti gli errori compiuti nel corso dell'inferenza sillogistica possono essere ricondotti alla mancata costruzio­ ne di uno o più modelli mentali e all'incapacità di seguire una direzione opposta rispetto all'ordine "figurale" dei termini. Un tipico errore consiste nel trarre una conclusione basata su un singolo modello iniziale e nel non riuscire a falsificarla; è come se, nell'esempio precedente, non si riuscisse a costruire un contromodello all'asserzione "Nessun artista è un chimi­ co". Questa teoria del ragionamento sillogistico è stata via via sviluppata fino a dame un modello completo su calcolatore . Si noti che la teoria della logica mentale non è ancora riu­ scita a spiegare la difficoltà relativa di sillogismi diversi né gli errori caratteristici che si verificano nel corso di un'infe­ renza (ma vedi Braine e O'Brien, 1 984, per una prima discus­ sione del problema). 27 1

Se si sostiene, come pure è possibile, che i modelli menta­ li siano rappresentati sotto forma di diagrammi di Eulero (ad esempio, vedi Wason e Johnson-Laird, 1 972; Erickson, 1 974; Guyote e Sternberg, 1 98 1 ), il numero delle possibili rappresentazioni congiunte delle premesse può essere com­ binatoriamente assai poco maneggevole, anche se Marilyn Ford (comunicazione personale) ha sostenuto che si può for­ mulare una teoria euleriana che non va incontro a questa difficoltà. D'altra parte, vi sono risultanze sperimentali che suggeriscono che la gente non costruisce rappresentazioni distinte delle diverse situazioni possibili compatibili con as­ serzioni come "Tutti gli artisti sono barbieri"; essi sono ca­ paci di rappresentare l'esistenza possibile di certi individui direttamente all'interno di un singolo modello. Secondo la soluzione euleriana, per rappresentare le premesse: Tutti gli A sono B Tutti i B sono C è necessario un insieme di modelli che tenga conto del fatto che ognuna di esse si applica a due distinti stati di cose, mentre per una coppia di premesse del tipo: Qualche A è B Tutti i B sono C

sono ben quattro le situazioni distinte che possono essere de­ scritte dalla prima premessa. Ne segue che dovrebbe essere più difficile trarre una conclusione da questo secondo insie­ me di premesse che dal primo. Le risultanze sperimentali, tuttavia, non confermano affatto questa conseguenza della posizione euleriana: non vi è alcuna sensibile differenza di complessità rispetto al problema di trarre una conclusione dall'uno o dall'altro dei due insiemi di premesse. Ciò, d'altra parte, depone a favore della capacità dei soggetti di rappre­ sentare nei modelli mentali entità la cui esistenza è solo pos­ sibile. In questo caso, infatti, la prima coppia di premesse ri­ chiede un modello del tipo: a a

= =

b b

(b

=

=

c c c) (c)

da cui segue la conclusione "Tutti gli A sono C", mentre la seconda coppia di premesse può essere rappresentata me­ diante il modello: 272

a a (a)

-

b b

(b

-

c c c) (c)

da cui altrettanto immediatamente segue "Qualche A è C". Si tratta dunque, in accordo con le risultanze sperimentali, di inferenze di complessità equivalente. Vi sono naturalmente non solo molti altri tipi di ragiona­ mento in generale, ma anche molti altri tipi di ragionamento deduttivo. Nella teoria dei modelli mentali si può formulare un algoritmo del tutto generale per condurre inferenze di qualsiasi tipo su un dominio finito. Tale algoritmo compren­ de tre passi principali: l. La determinazione di uno stato di cose in cui siano ve­ re le premesse dell'inferenza e la conoscenza generale a esse relativa, cioè la costruzione di un modello mentale della si­ tuazione. 2. La formulazione di una conclusione informativa (am­ messo che ve ne sia una) che risulti vera nello stato di cose individuato al passo l . 3. La ricerca di una situazione alternativa in cui riman­ gano vere le premesse e la conoscenza generale, ma in cui la conclusione sia falsa. Se c'è un modello alternativo siffatto, si ritorna al passo 2, tentando di formulare una nuova con­ clusione che risulti vera in ognuno dei diversi modelli che sono stati costruiti, altrimenti la conclusione è valida. Se, co­ me è possibile, è difficile determinare se c'è una conclusione vera in tutti i modelli delle premesse, si formula una conclu­ sione provvisoria. Questo procedimento inferenziale non richiede abilità co­ gnitive particolari, se non per il passo 3, che è l'unico che può garantire la validità di una conclusione; in particolare, al passo l vengono richieste abilità che sono alla base della comprensione, mentre il passo 2 coinvolge gli stessi processi cognitivi che permettono di descrivere una situazione in mo­ do informativo. Così, la difficoltà di un'inferenza va ricon­ dotta alla complessità del passo 3. Nella vita quotidiana non si può sempre essere sicuri di avere considerato tutti i possi­ bili controesempi di una conclusione, e di solito si ritiene che una conclusione sia corretta quando si sono esaurite le prime ovvie possibilità alternative. È chiaro che un siffatto giudizio di correttezza è spesso prematuro . Il ragionamento su domini infiniti di oggetti richiede in­ vece un discorso a parte: notiamo soltanto che persino gli in­ dividui più intellettualmente dotati (ad esempio Galileo), ra273

gionando su domini infiniti, incontrano spesso grandi diffi­ coltà e commettono grossolani errori se non fanno uso degli strumenti formali della matematica.

Conclusioni Le inferenze della vita quotidiana dipendono in modo es­ senziale dal reperimento di appropriate conoscenze generali: è questo l'aspetto del ragionamento che più somiglia a un esercizio d'immaginazione. Quando facciamo un'inferenza possiamo trarre una prima conclusione, ad esempio che un ladro sia entrato a casa di Caro!, ma se vogliamo esserne cer­ ti dobbiamo escludere tutte le possibilità alternative, e per far ciò bisogna considerare ogni altra soluzione che contrad­ dica la conclusione iniziale. Caro! potrebbe aver dimenticato di spegnere le luci, un amico potrebbe averle fatto visita, il gatto potrebbe aver fatto scattare un interruttore, o gli abi­ tanti di un lontano pianeta, con la loro superiore tecnologia, potrebbero aver acceso a distanza le luci di casa. Non vi è li­ mite al numero di situazioni che si possono immaginare, ma è chiaro che esse non possono essere il frutto di un calcolo formale fondato su regole sintattiche di inferenza: bisogna usare l'immaginazione per reperire le informazioni necessa­ rie e usarle nella costruzione di un modello alternativo, e ta­ le reperimento è un processo semantico. La semantica è richiesta anche per formulare una conclu­ sione, persino in quei casi in cui le premesse sono sufficien­ temente esplicite e informative e permettono di trarre una conclusione valida . La conclusione infatti deve essere infor­ mativa, e questa è una nozione essenzialmente semantica: una conclusione non ammette un numero maggiore di stati di cose che le premesse. Dal punto di vista della teoria della logica mentale, le premesse di un'inferenza contengono sufficiente informazio­ ne per trarre una conclusione valida : dopo tutto, da un nu­ mero qualsiasi di asserzioni si può sempre inferire valida­ mente la loro congiunzione. Ma le persone normali, digiune di logica formale, tendono a comportarsi in modo alquanto diverso. Se si chiede loro che cosa segua da due premesse come: Margaret Thatcher è conosciuta come la "Lady di ferro" Esistono infiniti numeri primi

la risposta sarà: "Nulla". Nella vita quotidiana, così come nell'esempio della luce a casa di Caro!, tendiamo a trarre 274

conclusioni provvisorie, pur essendo consapevoli del fatto che non sono valide. Posti di fronte alla seguente coppia di premesse: Chi ha un televisore deve pagare il canone Jarnes possiede un televisore

è del tutto naturale giungere alla conclusione: Jarnes deve pagare il canone

sapendo che essa deve essere vera se lo sono le premesse. Quest'ultima inferenza è stata condotta facendo uso soltanto delle informazioni contenute nelle premesse, cercando una conclusione informativa (nel senso precedentemente defini­ to) vera in ogni possibile modello delle premesse. Secondo la teoria dei modelli mentali, ciò avviene attraverso la costru­ zione di un modello, basato sul significato delle premesse, ri­ spetto al quale si ricerca un controesempio a una conclusio­ ne informativa. L'elemento critico di un'inferenza deduttiva è un processo semantico. All'inizio di questo articolo ho sostenuto che vi sono tre tipi principali di pensiero esplicitamente diretto a un fine: il calcolo, l'inferenza e l'immaginazione. Il calcolo richiede l'applicazione meccanica di regole formali. L'immaginazione è una facoltà non deterministica che ancora non è stata com­ piutamente spiegata. Il procedimento inferenziale, infine, sembra avere aspetti dell'uno e dell'altra: è ora possibile spe­ cificare più chiaramente questi rapporti. L'inferenza è un processo semantico che può coinvolgere in modo essenziale l'immaginazione, specialmente per quan­ to riguarda il reperimento e l'utilizzo della conoscenza gene­ rale. Sono tre gli stadi principali del processo inferenziale: il primo è la costruzione di una rappresentazione mentale di una situazione tipica, così come è descritta dalle premesse: si tratta essenzialmente di un processo di comprensione del­ le premesse, sulla base delle loro condizioni di verità e della conoscenza generale. Il secondo è la formulazione di una conclusione, sotto la forma di una descrizione informativa di una situazione. Il terzo, infine, è la ricerca di controesempi a una conclusione, un processo che è finito e deterministico laddove le premesse da sole permettono di trarre una con­ clusione al tempo stesso informativa e valida, ma non deter­ ministico e aperto se le premesse permettono conclusioni so­ lo plausibili. L'inferenza si riduce quindi a un semplice cal­ colo meccanico solo nel caso assai raro in cui uno disponga degli appropriati strumenti logico-formali. In tutti gli altri 275

casi essa richiede comprensione, descrizione e immagina­ zione .

RIFERIMENTI BIBLIOGRAFICI Braine, M.D.S. (1978), On the Relation between the Natural Logic of Reasoning and Standard Logic, in "Psychological Review", 85, pp. 1-21. Braine, M.D.S. (1979), On Some Claims about If-Then, in "Lingui­ stics and Philosophy", 3, pp. 35-47. Braine, M.D.S. e D.P. O'Brien (1984), Categorica[ Syllogisms: a Re­ conciliation of Mental Models and Inference Schemas, mano­ scritto mimeografato, New York University. Davis, M. (1980), The Mathematics of Non-Monotonic Reasoning, in "Artificial Intelligence", 13, pp. 73-80. Erickson, J.R. (1974), A Set Analysis Theory of Behavior in Formai Syllogistic Reasoning Tasks, in R. Solso (a cura di), Loyola Sym­ posium on Cognition, Erlbaum, Hillsdale (N.J.). Evans, J. St. B.T. (1982), The Psychology of Deductive Reasoning, Routledge and Kegan Paul, London. Feldman, J.A. (1985), Connectionists Models and Their Applications. Introduction, in "Cognitive Science", 9, pp. 1-2. Grice, P. (1975), Logic and Conversation, in P. Cole e J.L. Morgan (a cura di), Syntax and Semantics, vol. 3: Speech Acts, Academic Press, New York. Guyote, M.J. e R.J. Sternberg (1981), A Transitive-Chain Theory of Syllogistic Reasoning, in "Cognitive Psychology", 13, pp. 461525. Inhelder, B. e J. Piaget (1971), Dalla logica del fanciullo alla logica dell'adolescente, Giunti-Barbera, Firenze. Johnson-Laird, P.N. (1983), Mental Models, Cambridge University Press, Cambridge e Harvard University Press, Cambridge (Mass.). Johnson-Laird, P.N. (s.d.), Conditionals and Mental Models, in C. Ferguson, J. Reilly, A. Meulen e E.C. Traugott (a cura di), On Conditionals, Stanford University Press, Stanford (Ca). Johnson-Laird, P.N. e B. Bara (1984), Syllogistic Inference, in "Co­ gnition", 16, pp. 1-61. Kahneman, D., Slovic, P. e A. Tversky (a cura di) (1982), Judgement under Uncertainty: Heuristic and Biases, Cambridge University Press, New York. (Vedi specialmente capp. l, 8 e 14.) McDernott, D. e J. Doyle (1980), Non-Monotonic Logic /, in "Artifi­ cial Intelligence", 13, pp. 41-72. Marr, D. (1982), Vision: a Computational Investigation in the Hu­ man Representation of Visual Information, Freeman, San Fran­ cisco. Mayer, R.E. e R. Revlin (1978), An Information Processing Frame­ work for Reasearch on Human Reasoning, in R. Revlin e R.E. 276

Mayer (a cura di), Human Reasoning, Winston, Washington (D.C.). Osherson, D.N. (1975), Logic and Models of Logica[ Thinking, in R.J. Falmagne (a cura di), Reasoning: Representation and Process, Erlbaum, Hillsdale (N.J.). Rips, L.J. (1983), Cognitive Processes in Propositional Reasoning, in "Psychological Reviewn, 90, pp. 38-71. Schank, R.C. (1980), Language and Memory, in "Cognitive Sciencen, 4, pp. 243-284. Wason, P.C. e P.N. Johnson-Laird (1972), Psychology of Reasoning: Structure and Content, Batsford, London e Harvard University Press, Cambridge (Mass.).

277

Visione: l'altra faccia dell'Intelligenza Artificiale di Tomaso Poggio

Le due facce dell 'Intelligenza Artificiale Scopo dichiarato dell'Intelligenza Artificiale è quello di rendere intelligenti le macchine, individuando al tempo stes­ so i fondamenti dell'intelligenza dei sistemi naturali come di quelli artificiali. Coerentemente con questa definizione, fanno parte dell'Intelligenza Artificiale tanto lo studio del ragiona­ mento e della capacità di risolvere problemi, quanto quello della percezione, anche se è al primo che sono andate storica­ mente, e ancora oggi vanno, le maggiori attenzioni degli stu­ diosi di Intelligenza Artificiale. Il primato conferito in Intelligenza Artificiale alla risolu­ zione di problemi e alla pianificazione è dovuto chiaramente al fatto che queste sembrano, a prima vista, le tipiche attività intelligenti. D'altro lato la percezione e, in particolare, la vi­ sione, ci appaiono facili, immediate e tali da non richiedere alcuno sforzo. Solo recentemente la ricerca si è accorta delle difficoltà computazionali che molte attività visive e percettive nascondono: non avendo alcun accesso introspettivo alla per­ cezione, tendiamo a sottovalutare le difficoltà che questa pre­ senta, e se ci sembra che vedere non richieda alcuno sforzo, ciò dipende solo dal fatto che non ne siamo coscienti. Gli scac­ chi, viceversa, ci sembrano difficili perché richiedono tutta la nostra concentrazione. Si può sostenere, credo, che siamo più consci di quelle attività in cui il nostro cervello intelligente in­ contra più difficoltà, attività che vengono per ultime nella no­ stra storia evolutiva come la logica, la matematica, la filoso­ fia e, più in generale, la risoluzione di problemi e la pianifica­ zione. I veri poteri del cervello, come la visione, passano inve­ ce del tutto inosservati sullo sfondo della nostra coscienza. 278

Gli ultimi quindici anni di ricerca hanno chiarito che comprendere la percezione significa comprendere una parte importante di quei principi che rendono possibile il compor­ tamento intelligente. Lo studio della percezione sta diventando sempre più im­ portante, pur costituendo un tipo di ricerca diverso da quel­ lo ormai "classico" in Intelligenza Artificiale, come testimo­ niano le difficoltà di comunicazione che dividono i due setto­ ri principali di questa disciplina. Si tratta anche di problemi di tipo fondamentalmente diverso. La risoluzione dei proble­ mi richiede che sia dato un corpo di conoscenze sufficiente­ mente ampio su cui fondare la ricerca di una soluzione: il problema è tipicamente ben posto, nel senso che la soluzio­ ne, per quanto di difficile reperimento, è comunque unica e ben definita. (Più avanti definirò in modo più preciso la clas­ se dei problemi ben posti.) Al contrario, nei problemi percet­ tivi le informazioni disponibili sono tipicamente insufficienti e la soluzione non è unica né ben definita: i problemi percet­ tivi, tipicamente, sono mal posti. La tesi di questo articolo è che vi sia un'importante diffe­ renza fra queste due correnti dell'Intelligenza Artificiale, che non è stata ancora sufficientemente riconosciuta . Per poter esporre questa tesi con più chiarezza, discuterò preliminar­ mente alcuni recenti lavori sulla "prima visione" (early vi­ sion) che muovono dall'assunto che i problemi di cui tratta­ no siano mal posti. Cercherò di spiegare come questa sia una caratteristica della maggioranza dei problemi della prima vi­ sione, suggerendo una possibile soluzione. L'intelligenza de­ ve poter sfruttare entrambe queste modalità di pensiero, per quanto diverse siano l'una dall'altra: l'abilità nel risolvere i problemi e le capacità percettive . Infine, abbozzerò una par­ ticolare teoria, secondo cui vi è una struttura comune sog­ giacente tanto alle attività percettive quanto a quelle della ri­ soluzione di problemi.

La prima visione La semplicità della visione è ingannevole. Una cosa è digi­ talizzare un'immagine per mezzo di una telecamera digitale, un'altra è comprendere e descrivere ciò che l'immagine rap­ presenta. Quindici anni fa, quando i ricercatori di Intelligen­ za Artificiale cominciarono seriamente a scrivere programmi per la simulazione della visione, si accorsero subito della dif­ ficoltà del compito. Uno dei problemi maggiori è che le im­ magini contengono una quantità enorme di informazioni 279

grezze: una normale immagine ad alta risoluzione contiene 1000 x 1000 unità elementari (pixels), ognuna delle quali ri­ chiede da sei a otto bit. Anche per una semplice operazione di filtraggio su un'immagine di questo tipo possono essere necessari circa cento milioni di operazioni elementari. L'oc­ chio umano ha circa cento milioni di sensori, fra coni e ba­ stoncelli, con un ciclo temporale equivalente vicino ai venti millisecondi, o minore . La retina, quindi, può eseguire l'equi­ valente di alcuni miliardi di operazioni elementari al secon­ do, e tutto ciò prima ancora che le informazioni visive giun­ gano al cervello. È stato stimato che circa il sessanta per cento della corteccia del reso (un particolare tipo di scim­ mia) sia dedicato all'elaborazione delle informazioni visive. La visione, quindi, richiede computazioni massicce e pesanti. Paradossalmente, la complessità computazionale non è il problema principale della visione. Anzi, con tutte le informa­ zioni contenute in un'immagine, ancora non ve ne sono a suf­ ficienza. Le immagini sono solo proiezioni bidimensionali di un mondo che è invece tridimensionale, e nel processo di for­ mazione dell'immagine molte informazioni vanno perdute. Uno dei compiti principali della visione, preliminare rispetto alle altre operazioni di più alto livello, è la determinazione della struttura tridimensionale del mondo che ci circonda. Queste informazioni, benché codificate nell'immagine, sono altamente ambigue di per sé. Un sistema visivo efficace ha bisogno di moltissime conoscenze relative al mondo reale per risolvere queste ambiguità. Da questo punto di vista il problema della visione potrebbe sembrare inespugnabile, molto di più di quanto appaiano i problemi del ragionamen­ to e dell'inferenza. Fra i ricercatori che se ne occupano si è però diffusa la sensazione che la prima parte del problema della visione (calcolare la forma e la struttura tridimensiona­ le a partire dall'immagine bidimensionale) sia ormai vicina a una soluzione generale. Nel seguito di questo articolo espor­ rò i tratti essenziali di una nuova potente teoria della prima visione che ha suscitato l'interesse degli scienziati, al MIT e altrove. Le prossime sezioni seguono da vicino Poggio e Tor­ re ( 1 984), a cui il lettore è rimandato per i particolari più tec­ nici. l processi della prima visione

La prima visione è costituita dall'insieme di quei processi che permettono di ricostruire le proprietà fisiche delle su­ perfici visibili a partire da una matrice di intensità bidimen280

sionale, producendo ciò che potremmo paragonare allo "sketch in 2- 1/20" di Marr o alle "immagini intrinseche" di Barrow e Tennenbaum. In anni recenti si è giunti alla con­ vinzione che tali processi siano del tutto generali e non ri­ chiedano conoscenze dipendenti dal dominio, ma solo pre­ supposizioni affatto generiche relative al mondo fisico e allo stadio di formazione dell'immagine. Gli scienziati hanno or­ mai identificato i processi della prima visione, che possono essere elencati nella seguente tavola: visione stereottica - calcolo del flusso ottico - determinazione della struttura per mezzo del movimento determinazione della forma per mezzo delle ombre rilevamento dei profili (edge detection) calcolo della luminosità e dell'albedo determinazione della forma per mezzo dei contorni determinazione della forma per mezzo della consistenza dei materiali (texture) - ricostruzione delle superfici mediante dati incompleti sulle profondità - identificazione delle fonti luminose e delle proprietà illuminanti - identificazione e uso delle specularità - identificazione dei diversi materiali mediante la loro diversa consistenza. Questi processi rappresentano moduli concettualmente indipendenti che, in prima approssimazione, possono essere studiati isolatamente. Si tratta, naturalmente, solo di un'uti­ le semplificazione da non prendere troppo alla lettera: le in­ formazioni provenienti da processi diversi devono poter combinarsi, così come moduli differenti possono interagire anche a basso livello. Inoltre, si deve tener conto del fatto che l'elaborazione visiva non può procedere unicamente dal basso verso l'alto: vi sono conoscenze specifiche che possono influenzare l'elaborazione delle informazioni fin dai suoi pri­ missimi stadi. Due problemi caratteristici delle difficoltà che si incon­ trano nella prima visione sono il calcolo del movimento e il rilevamento di bruschi cambiamenti di intensità dell'imma­ gine (corrispondenti a contorni fisici). Il calcolo del campo bidimensionale di velocità nell'im­ magine è un passo importante in diversi schemi per la deter­ minazione del movimento e della struttura tridimensionali 281

degli oggetti. In particolare, si consideri il problema di de­ terminare il vettore di velocità in ogni punto di un contorno ricurvo di un'immagine. Come mostra la prima figura il vet­ tore di velocità locale è decomposto in due componenti, una perpendicolare e una tangenziale alla curva. Ora, le misure locali di velocità permettono di catturare solo la componente perpendicolare, mentre quella tangenziale resta "invisibile". Il problema di stimare il campo di velocità totale è così, in generale, sottodeterminato dalle misure direttamente dispo­ nibili dall'immagine. La misurazione del flusso ottico è ine­ rentemente ambigua, e può essere resa unica solo aggiungen­ do assunzioni o informazioni intrinseche. Il problema del rilevamento dei profili presenta difficoltà di natura in parte diversa. Tale problema ·richiede l'identifi­ cazione dei limiti fisici di superfici tridimensionali mediante le differenze di intensità dell'immagine, ma il termine "rile­ vamento di profili" è di solito usato per riferirsi soltanto a un primo passo in tale direzione, e precisamente alla localiz­ zazione di bruschi cambiamenti di intensità nell'immagine. A tale scopo si usa la differenziazione numerica dei dati del­ l'immagine: a questi ultimi è tuttavia inerente una dimensio­ ne di rumore che deriva dai processi di formazione dell'im­ magine e di campionamento. Poiché la differenziazione a sua volta amplifica il rumore, il processo è intrinsecamente in­ stabile. Molti altri problemi della prima visione presentano diffi­ coltà simili: o sono sottospecificati, come il calcolo del flusso ottico, o sono troppo sensibili al rumore, come il rilevamen­ to di profili.

Problemi mal posti e teoria della regolarizzazione La prima visione è ottica inversa C'è una buona definizione della prima visione: ottica in­ versa. Nell'ottica classica, il problema generale è la determi­ nazione delle immagini degli oggetti fisici. In teoria della vi­ sione si ha invece a che fare con il problema inverso di rico­ struire le proprietà fisiche delle superfici tridimensionali a partire dalle loro immagini bidimensionali o matrici di in­ tensità. Poiché moltissime informazioni vanno perdute du­ rante il processo di formazione dell'immagine, la visione de­ ve appoggiarsi a delle limitazioni naturali o assunzioni sul mondo per poter eliminare ogni dimensione di ambiguità. L'identificazione e l'uso di tali limitazioni è un argomento ri282

corrente di discussione nell'analisi dei problemi specifici della visione. Vi è una caratteristica comune alla maggior parte dei pro­ blemi della prima visione (che sembra in un certo senso costi­ tuirne la struttura profonda) che può essere formalizzata: la maggior parte di questi problemi è mal posta, nel senso preci­ samente definito da Hadamard. Inoltre, usando la definizione di Hadamard è possibile render conto dell'importanza delle li­ mitazioni e della definizione della visione come ottica inversa .

Problemi mal posti La definizione di "problema mal posto" introdotta da Ha­ damard nel 1 923 era relativa al campo delle equazioni diffe­ renziali parziali, ed è stata considerata per molti anni quasi esclusivamente una curiosità matematica. È ora chiaro, tutta­ via, che molti problemi mal posti, e tipicamente i problemi in­ versi, sono di grande interesse pratico. Un problema è ben po­ sto se la sua soluzione (a) esiste, (b) è unica, e (c) dipende in mo­ do continuo dai dati iniziali. Sono mal posti tutti quei proble­ mi che non soddisfano almeno uno di questi criteri. È facile provare formalmente che molti problemi della pri­ ma visione sono mal posti nel senso di Hadamard (vedi Poggio e Torre, 1 984): corrispondenza stereottica, determinazione della struttura per mezzo del movimento, calcolo del flusso ot­ tico, rilevamento di profili, determinazione della forma per mezzo delle ombre, calcolo della luminosità, ricostruzione della superficie. Il calcolo del flusso ottico è un problema "inverso" che ri­ chiede che il campo di velocità totale sia ricostruito a partire dalla sua componente normale lungo un contorno, ed è mal posto perché non soddisfa la condizione (b). Il rilevamento di profili, inteso come differenziazione numerica, è mal posto perché la soluzione non dipende in modo continuo dai dati (condizione [c]}. Ciò è verificato considerando una funzione t (x) perturba­ ta da un termine di "rumore" molto piccolo (in norma L2) esenr x . t (x) e t (x) + esen r x possono essere considerati abi­ trariamente vicini, ma le loro derivate possono essere molto differenti se r è sufficientemente grande.

Regolarizzazione Il modo migliore per "risolvere" i problemi mal posti (per ricondurli cioè alla condizione di problemi ben posti) consi283

ste nel restringere la classe delle soluzioni ammissibili usando conoscenze a priori adatte. A tale scopo in anni re­ centi sono state sviluppate diverse teorie rigorose della "regolarizzazione", fra cui le due principali sono i principi variazionali e la teoria dei processi stocastici. Descrivere­ mo ora a grandi linee i metodi di regolarizzazione stan­ dard, dovuti principalmente a Tikhonov (ma vedi anche Nashed, 1 976 e Bertero, 1 982), indicando anche, nel segui­ to, quali potrebbero essere alcune possibili estensioni della teoria standard dal punto di vista della prima visione. Consideriamo il problema mal posto di reperire z dal "dato" y nel problema inverso:

Az = y

(l)

La regolarizzazione di tale problema richiede la scelta delle norme 11 · 11 e di un funzionale stabilizzante IIPzll . Nella teoria standard della regolarizzazione le norme sono qua­ dratiche e P è lineare. Due dei tre metodi principali in li­ nea di principio applicabili sono i seguenti (vedi Poggio e Torre, 1 984): (a) fra gli z che soddisfano IIAz - yll :E;; C trovare z che minimizza

IIPzll (b) trovare

z

(2)

che minimizza (3)

dove A. è un parametro di regolarizzazione. Il metodo (a) computa la funzione z che è sufficiente­ mente vicina ai dati (C dipende dalla stima degli errori di misura ed è zero nel caso in cui i dati siano privi di ru­ more) ed è la più regolare. Nel metodo (b) il parametro A. di regolarizzazione controlla il compromesso fra il grado di regolarizzazione della soluzione e la sua vicinanza ai dati. Così, i metodi standard di regolarizzazione limitano il problema mediante un "principio variazionale" come ad esempio il "funzionale di costo" dell'equazione (3). Il costo minimizzato rappresenta le limitazioni fisiche relative a ciò che rappresenta una buona soluzione: tale costo deve essere (a) vicino ai dati e {b) regolare, rendendo piccola la quantità IIPzll . P incorpora le limitazioni fisiche sul pro­ cesso derivate da un'analisi fisica del problema specifico. 284

Esempi Si possono regolarizzare i problemi mal posti della pri­ ma visione usando principi variazionali della forma dell'e­ quazione (3). Tuttavia, anche prima che la teoria della rego­ larizzazione fosse applicata alla visione, alcuni problemi del flusso ottico e dell'interpolazione superficiale erano stati af­ frontati in termini di principi variazionali, e tale soluzione è stata ora estesa ad altri problemi mediante il richiamo esplicito alla teoria della regolarizzazione. Comunque sia, la maggior parte dei funzionali stabilizzanti finora usati nella prima visione sono del tipo di Tikhonov. Ma rivolgiamo nuovamente la nostra attenzione agli esempi del movimento e del rilevamento di profili per vedere come si possano ap­ plicare in pratica le tecniche della regolarizzazione.

Movimento Intuitivamente, le misure del componente perpendicola­ re di velocità lungo un contorno esteso dovrebbero fornire numerose limitazioni sui movimenti possibili del contorno. Bisogna tuttavia ricorrere a ulteriori assunzioni relative al­ la natura del mondo reale per poter mettere insieme misure locali effettuate in differenti locazioni. Ad esempio, l'assun­ zione del movimento rigido del piano dell'immagine è suffi­ ciente per determinare unicamente V. In tal caso, infatti, le misure locali del componente perpendicolare in locazioni differenti possono essere usate direttamente per trovare il flusso ottico, che risulta lo stesso ovunque. Tale assunzione, tuttavia, è eccessivamente restrittiva, perché non copre il caso del movimento di un oggetto rigi­ do nello spazio tridimensionale. Seguendo Horn e Schunk, Hildreth ha suggerito di limitare il problema mediante una più generale assunzione di "liscezza" (smoothness) sul cam­ po di velocità. Tale assunzione si basa sull'as sunzione che il mondo consiste di oggetti solidi con superfici lisce, aventi un campo di velocità la cui proiezione è di solito liscia. Yuille e Ullman (1 985) hanno prodotto argomenti formali in favore di questa assunzione. La forma specifica dello stabilizzatore (uno stabilizzato­ re di Tikhonov, in ultima istanza) fu determinata sulla base di considerazioni di natura matematica, fra cui in particola­ re quella dell'unicità della soluzione. I due metodi di regola­ rizzazione corrispondono ai due algoritmi proposti e realiz­ zati da Hildreth, il primo dei quali, per dati esatti, mini­ mizza 285

IIPV II 2

J( �: r

=

{4)

ds

condizionatamente alle misure del componente perpendico­ lare di velocità. Per dati non esatti il secondo metodo forni­ sce la soluzione minimizzando

II KV

-

v .L IF

+

).j( �: r

ds

(5)

dove K è l'operatore di proiezione che stabilisce una corri­ spondenza fra il campo di velocità lungo il contorno e il suo componente normale. Esempi di computazioni del flusso ot­ tico effettuate con successo per mezzo del primo algoritmo sono riportati in Hildreth { 1 984).

Rilevamento di profili Recentemente, le tecniche di regolarizzazione sono state applicate anche all'altro nostro esempio, il rilevamento di profili. Il problema della differenziazione numerica è mal posto a causa dell'inevitabile rumore che inquina i dati. Si assume in questo caso che l'immagine priva di rumore sia li­ scia a causa delle proprietà di limitazione di banda dell'otti­ ca che taglia le alte frequenze spaziali. Una possibile tradu­ zione di questa limitazione fisica nei termini della teoria del­ la regolarizzazione consiste nello scegliere P = d2/dx2 {in una dimensione; in due dimensioni una possibile scelta per P è il laplaciano). Il metodo di regolarizzazione (b) porta al proble­ ma variazionale di minimizzare {6) Poggio e altri { 1 984) hanno mostrato che questo principio variazionale è equivalente a certe deboli condizioni {i dati dell'immagine devono essere dati su un reticolo regolare e devono soddisfare adeguate condizioni di confine), all'avvol­ gimento (convolving) dei dati di intensità y; con uno spline convolution filter. Tale filtro risulta molto simile a una di­ stribuzione gaussiana. La regolarizzazione standard della differenziazione numerica per il rilevamento di profili porta dunque a un semplice algoritmo per l'avvolgimento dell'im­ magine con una derivata appropriata dello spline filter. Il pa286

rametro A. controlla la scala del filtro, e il suo valore dipende dal rapporto segnale-rumore nell'immagine.

Computazione del colore In termini generali, scopo della visione a colori è la de­ terminazione della riflessività spettrale invariante degli og­ getti (superfici). I compiti che tale determinazione richiede da un sistema visivo esemplificano efficacemente la diffi­ coltà dei problemi dell'ottica inversa: bisogna decodificare le proprietà riflessive delle superfici tridimensionali a par­ tire dall'immagine di intensità, tenendo conto della natura della fonte luminosa, delle ombre e di altri fattori. Nella computazione del colore, così come in altri problemi di ot­ tica inversa, l'immagine di intensità è un insieme ambiguo di segnali decodificabili solo mediante certe assunzioni sul mondo fisico, che si rivelano comunque spesso corrette, ma non sempre. Si può affrontare questo problema per mezzo di tecniche di regolarizzazione: Hurlbert e Poggio (in preparazione, vedi Poggio e altri, 1985) hanno sviluppato un algoritmo di regola­ rizzazione in cui vi sono due assunzioni particolari che per­ mettono di decomporre la matrice di intensità cromatica nei suoi componenti dovuti alla riflettività della superficie e alla fonte luminosa. La prima di esse è l'assunzione di una singo­ la fonte, secondo cui la variazione spaziale dell'illuminazione della fonte luminosa è la stessa per ogni canale di lunghezza d'onda (wavelength channel); la seconda è l'assunzione di re­ golarizzazione spaziale, che afferma che la variazione spazia­ le della fonte luminosa effettiva è più lenta di quella della ri­ flessività della superficie. Seguendo Hurlbert ( 1 985) comincerò dall'equazione di in­ tensità, che definisce i dati misurati dai sensori, dati a parti­ re dai quali bisogna decodificare le proprietà della superfi­ cie riflettente e della fonte luminosa. L'equazione di intensi­ tà è:

I (A., r)

=

R (A., r) F (k, n, s) E (A., r)

(7)

dove A. è la lunghezza d'onda, r è la coordinata retinica (la proiezione bidimensionale della coordinata della superficie), E (A., r) è l'intensità della fonte luminosa, e R (A., r) F(k, n, s) è la riflettività della superficie. R (A., r) è il componente della riflessività che dipende unicamente dalle proprietà materia­ li della superficie (ovvero dall'albedo che, per definizione, dipende solo dal materiale di cui è costituito l'oggetto e non 287

dalla sua forma o dalla sua posizione rispetto all'osservatore o alla fonte luminosa), e F (k, n, s) è la componente che di­ pende dalla geometria dell'osservazione, dove k è la direzio­ ne d'osservazione e s è la direzione della fonte, ciascuna del­ le due relativa alla normale alla superficie n. Volendo sepa­ rare i termini che rappresentano la luminosità della superfi­ cie da quelli relativi alla direzione d'osservazione, possiamo definire l'intensità effettiva di illuminazione E (À., r) dove

E (À., r)

=

F (k, n, s) E (À., r)

L'illuminazione effettiva è quindi l'illuminazione prove­ niente dalla fonte, modificata dall'orientamento, la forma e la posizione della superficie riflettente. Se la superficie riflettente è bidimensionale e tanto la di­ rezione dell'osservatore quanto quella della fonte sono nor­ mali a essa, allora F (k, n, s) = l, ovvero E (À., r) = E (X, r). Se, inoltre, la fonte di illuminazione è bianca, ovvero E (À., r) = k, allora l'intensità riflessa è uguale all'albedo a meno di un fattore costante. L'attività di un sensore è funzione dell'intensità della lu­ ce, integrata e pesata su tutte le lunghezze d'onda visibili al senso re:

s• (r)

=

f a• (J..) R (À., r) E (À., r) dì..

(8)

Si può rappresentare il segnale eterocromatico nelle sue principali componenti mediante combinazioni lineari delle attività dei sensori (vedi Buchsbaum, 1 983; Yuille, 198 5); si ottiene così la seguente equazione: S (x)

=

T.,. E. (x) R,. (x)

Per una particolare scelta delle funzioni di base, Hurlbert e Poggio hanno mostrato che quest'equazione può assumere la forma

Si (x) = lJi (x)

+

Ri (x)

(9)

dove i è l'indice dei nuovi canali di colore formati dalla tra­ sformazione. Ciò corrisponde a un passo di normalizzazione spettrale, poiché fa uso di conoscenze a priori e, in particola­ re, delle conoscenze per cui si possono approssimare l'albe­ do e gli illuminanti "normali" mediante un insieme fissato di 288

tre funzioni di base (che, in generale, sono differenti per gli illuminanti e per l'albedo). È impossibile risolvere queste equazioni in assenza di ul­ teriori assunzioni. Si tratta di equazioni sottodeterminate perché, per ogni x, le incognite sono in numero doppio ri­ spetto alle equazioni. Per risolvere questo problema, così ti­ picamente mal posto, dobbiamo dapprima assumere che

E• (x)

=

(9)

E (x) K•

Siamo così giunti alla assunzione della singola fonte: la variazione spaziale della fonte luminosa è la stessa per ogni canale di lunghezza d'onda. Quest'assunzione è generalmente vera se c'è un'unica fonte luminosa; essa afferma, in partico­ lare, che i mutamenti di illuminazione dovuti alle ombre, al­ l'orientamento della superficie, e ai gradienti spaziali in­ fluenzano tutte le lunghezze d'onda allo stesso modo (come sostenuto anche da Rubin e Richards [1984], che però non formulano esplicitamente queste equazioni). Quest'assunzio­ ne risulta invece falsa nel caso vi siano zone di massima illu­ minazione (highlights), che devono quindi essere identificate indipendentemente, o nel caso di più fonti luminose spazial­ mente e spettralmente distinte. Ad esempio, le condizioni di illuminazione riscontrabili all'aperto, in un giorno di sole, soddisfano generalmente l'as sunzione della singola fonte, ma ciò non è più vero se il sole e la luna sono presenti contem­ poraneamente e l'intensità della luce lunare non è trascura­ bile. L'assunzione della singola fonte ci permette di riscrivere l'equazione (in rappresentazione logaritmica) nel modo se­ guente: s• (x)

=

E (x) K•

+

R.• (x) = E (x)

+

K•

+

R.• (x)

( l O)

Questo sistema di equazioni è ancora sottodeterminato, ma in modo meno drammatico rispetto al precedente purché v sia maggiore di l , e ciò a causa della ridondanza del termi­ ne K• per ogni x. Il passo successivo è l'assunzione della regolarizzazione spaziale, che riducendo lo spazio delle soluzioni permette di risolvere le equazioni. Quest'assunzione estende l'idea prin­ cipale di Land e Horn, secondo cui E (x), l'illuminazione ef­ fettiva, cresce al crescere di x più lentamente di quanto fac­ cia R (x, v), mentre R (x, v) o è costante oppure cambia bru­ scamente (in corrispondenza di bordi materiali). 289

Quindi, si traducono queste due as sunzioni in un princi­ pio variazionale di tipo standard, con uno stabilizzatore di Tikhonov che impone a E una liscezza maggiore di quella di R. La soluzione di questo principio variazionale equivale a filtrare i dati mediante un filtro lineare simile agli spline fil­

ters.

Plausibilità fisica e illusioni L'aspetto più importante dell'analisi della regolarizzazio­ ne è la plausibilità fisica della soluzione, più importante an­ cora della sua unicità. In questo quadro, all'analisi fisica del problema e delle sue limitazioni significative spetta il ruolo principale: ed è la teoria della regolarizzazione che fornisce lo strumento e i riferimenti generali per poter andare alla ri­ cerca di quelle limitazioni che più sono radicate nella fisica del mondo visivo. Chiaramente, le assunzioni a priori richieste per risolvere i problemi mal posti possono risultare false in casi specifici, facendo sì che la soluzione regolarizzata sia fisicamente sba­ gliata: l'algoritmo soffre di illusioni ottiche. Un buon esem­ pio di questo fenomeno si ha nel caso del calcolo del movi­ mento: l'assunzione di liscezza (nella forma dell'equazione (4)) permette di ottenere risultati corretti a certe condizioni molto generali (ad esempio, quando le immagini degli oggetti sono costituite da linee rette connesse). Tuttavia, per alcuni tipi di movimento e di contorno, il principio di liscezza non fornisce il campo di velocità corretto. Peraltro, va notato che in molti di questi casi anche il sistema visivo umano sembra derivare un campo di velocità simile e ugualmente scorretto: basti pensare, ad esempio, all'illusione dell' "insegna del bar­ biere" (vedi Hildreth, 1 984a, 1 984b).

Oltre la regolarizzazione standard Limitazioni Il nuovo quadro concettuale della prima visione mostra chiaramente non solo le attrazioni, ma anche le limitazioni inerenti alla forma standard di Tikhonov della teoria della regolarizzazione. Il problema principale è il grado di liscezza richiesto dalla funzione incognita che si vuole determinare: nell'interpolazione della superficie, ad esempio, il grado di li scezza corrispondente ai cosiddetti thin-plate splines smus290

sa troppo gli sbalzi di profondità, portando spesso a risultati non realistici. Sono possibili anche altri principi variazionali. La teoria standard della regolarizzazione è basata su principi variazio­ nali quadratici e conduce quindi a equazioni lineari di Eulero­ Lagrange, ma in molti casi possono essere necessari degli sta­ bilizzatori non quadratici per determinare le limitazioni fisi­ che corrette. Marroquin (1 984, 1 985) ha usato con successo uno stabilizzatore non quadratico per risolvere il problema della conservazione delle discontinuità nella ricostruzione della superficie a partire da dati sulla profondità. Questo sta­ bilizzatore, dovuto a Geman e Geman (1 984), incorpora cono­ scenze relative alla geometria delle discontinuità e, in partico­ lare, al fatto che tali discontinuità hanno contorni continui e spesso diritti. In questi casi il problema è che non vi è più al­ cuna garanzia che il principio variazionale sia convesso. Nei principi di regolarizzazione standard lo spazio di ricerca ha un unico minimo a cui convergono gli algoritmi appropriati, mentre nel caso di principi non quadratici lo spazio di ricerca può essere simile a una catena montuosa con molti minimi lo­ cali. Recentemente sono stati proposti degli algoritmi stoca­ stici per risolvere i problemi di minimizzazione di questo tipo, sfuggendo a quei minimi locali in cui cadrebbero i più sempli­ ci algoritmi di "arrampicamento". L'idea principale è quella di aggiungere all'algoritmo di ricerca un termine di rumore di forcing. Se si rappresenta il principio variazionale non qua­ dratico mediante una rete analogica non lineare, tale rete po­ trebbe essere guidata da una fonte appropriata di rumore gaussiano. Si potrebbe allora descrivere la dinamica del siste­ ma mediante un'equazione differenziale stocastica non linea­ re, rappresentante un processo di diffusione. Oggi, la sfida che la teoria della visione si trova a dover fronteggiare è quella di estendere i metodi di regolarizzazio­ ne standard. L'universo delle computazioni eseguibili in ter­ mini di principi variazionali quadratici è piuttosto ristretto. A riprova di ciò basti considerare che la minimizzazione di funzionali di costo quadratici conduce a un operatore di re­ golarizzazione lineare, cioè a una corrispondenza lineare fra i dati in ingresso e lo spazio delle soluzioni. Se i dati sono su una griglia regolare e soddisfano le condizioni di limite adat­ te, allora l'operatore lineare si specializza in un avvolgimen­ to (convolution), cioè in una semplice operazione di filtraggio sui dati. Così come i modelli lineari in fisica, la teoria stan­ dard della regolarizzazione costituisce in molti casi un'ap­ prossimazione assai utile, ma non è in grado di catturare tut­ ta la complessità della visione. 291

Apprendimento In futuro la ricerca dovrà rivolgere la propria attenzione a un argomento importante e strettamente correlato al pre­ cedente: l'apprendimento di un operatore di regolarizzazione (un aspetto della teoria della visione che potrebbe risultare interessante anche da un punto di vista biologico). Nel caso della regolarizzazione standard Poggio e Hurlbert (1 984) han­ no mostrato che è possibile "imparare" l'operatore lineare per mezzo di uno schema di apprendimento associativo, si­ mile a quelli proposti in passato per la memoria biologica. Per i principi di regolarizzazione non quadratici sono possi­ bili diversi schemi di apprendimento, e in special modo le estensioni polinomiali dello schema lineare (vedi Poggio, 1 983). Hinton e Sejnowski (1 984) hanno invece proposto uno schema differente, sviluppato appositamente per le architet­ ture computazionali che consistono di unità semplici che tentano di soddisfare simultaneamente più condizioni.

Verso descrizioni simboliche La discussione si è finora limitata al primo stadio della visione, lo stadio che crea rappresentazioni simili a immagi­ ni delle superfici fisiche tridimensionali che circondano l'os­ servatore. Il passo successivo, che dovrebbe portare oltre questo tipo di rappresentazioni (dette anche immagini intrin­ seche o sketch in 2- 1 120), è piuttosto impegnativo. Le imma­ gini intrinseche sono ancora rappresentazioni numeriche, non descrivibili in termini di oggetti: può darsi che siano sufficienti per alcuni dei compiti più generali di un sistema visivo, come ad esempio la manipolazione di oggetti o lo spo­ stamento nello spazio, ma sono affatto inutili ai fini del rico­ noscimento e della descrizione, compiti che richiedono la ge­ nerazione e l'uso di forme di rappresentazione di tipo più simbolico. E non è facile capire, almeno a prima vista, come la computazione di rappresentazioni simboliche possa essere adattata al quadro concettuale della teoria della regolarizza­ zione. Ciò che i metodi di regolarizzazione fanno è, essenzial­ mente, restringere lo spazio delle soluzioni possibili. Vi sono buone probabilità che un problema inverso risulti ben posto, a condizione che lo spazio delle soluzioni abbia dimensioni finite. Così, una rappresentazione basata su un insieme fini­ to di simboli discreti "regolarizza" un problema eventual­ mente mal posto, e poiché a spazi finiti si può applicare sen­ za rischi la logica del primo ordine, le corrispondenti teorie 292

sintattiche e semantiche potranno essere coerenti e comple­ te. Si noti che le teorie che hanno a che fare con insiemi fi­ niti di simboli discreti sono immuni ai noti paradossi di Russell e di Godei, sorti nell'ambito della formalizzazione dell'aritmetica. Da questo punto di vista, il problema della percezione (la regolarizzazione di un problema altrimenti non limitato mediante assunti generici relativi al mondo fi­ sico) risulta praticamente equivalente alla risoluzione di problemi e all'inferenza, nonché a ogni altro modo di risol­ vere problemi intrattabili (ad esempio, gli scacchi) ponendo dei limiti alla ricerca delle soluzioni. Nell'un caso come nell'altro, la limitazione della ricerca ovvero, parlando ap­ prossimativamente, la regolarizzazione del problema, è l'es­ senza dell'intelligenza.

Giano: la vecchia e la nuova faccia cominciano a fonde rsi Quanto più l'elaborazione delle informazioni visive si fa simbolica, tanto più i metodi utilizzati diventano simili a quelli che, in Intelligenza Artificiale, costituiscono le proce­ dure per la risoluzione dei problemi : si tratta, in entrambi i casi, di ridurre la ricerca causale delle soluzioni. Ai dati disponibili nei casi specifici bisogna aggiungere molte conoscenze a priori: si ha allora che, da un certo punto di vista, la risoluzione di problemi e la visione di alto livello non differiscono poi troppo dalle teorie della prima visione che fanno uso della regolarizzazione. In tutti questi casi per giungere alla soluzione bisogna ricorrere alla conoscenza delle regolarità del mondo per limitare la ricerca. La diffe­ renza risiede piuttosto nel modo di applicare le conoscenze a priori: metodi di regolarizzazione nella prima visione, logica formale ed euristica nella visione di alto livello, ragionamen­ to per analogia in molti casi della risoluzione di problemi. Vi è naturalmente differenza anche nel tipo di conoscenze a priori utilizzate. Nella prima visione, ad esempio, si usano informazioni a priori di natura piuttosto generale relative al­ le limitazioni fisiche del processo di formazione dell'immagi­ ne e alla natura fisica degli oggetti nel mondo. D'altra parte, nella visione di alto livello sono necessarie conoscenze mag­ giori e di natura più specifica per limitare la ricerca della soluzione di un problema (ad esempio) di riconoscimento: ciò equivale a dire che non si possono esprimere tali informazio­ ni in forma compatta. Infatti, si tratta di conoscenze relative alle diverse classi di oggetti, alle loro proprietà, alla loro funzione oltreché, naturalmente, di conoscenze più generi293

che del tipo di quelle della fisica o della geometria ingenue. La specificità e la quantità delle conoscenze diventa persino più importante nel ragionamento, un'attività in cui gli esseri umani fanno uso di un'enorme base di conoscenze, costituita tanto da informazioni fattuali quanto da esperienze. Bisogna dunque riconoscere che vi sono cospicue differen­ ze fra la moderna teoria della percezione e i metodi di ragio­ namento formale utilizzati nei primi due decenni di ricerca in Intelligenza Artificiale. Tali metodi, tuttavia, utilizzano la stessa idea generale usata nella percezione, e precisamente quella di limitare la ricerca della soluzione mediante cono­ scenze a priori. Vi è infine un ultimo punto che può risultare interessante sia per la risoluzione di problemi sia per la percezione. Come abbiamo visto discutendo dei problemi mal posti che la teoria della prima visione deve affrontare, l'essenza dei metodi di regolarizzazione sta nel rendere il problema ben posto e tro­ vare quindi una soluzione. Questi metodi, tuttavia, non speci­ ficano quali limitazioni debbano essere usate: sembra dunque che sia nella natura dei problemi mal posti che essi possano avere una o più soluzioni, ma l'esistenza della soluzione è una questione che non è di competenza della matematica. Abbia­ mo visto come limitazioni che risultano corrette nella grande maggioranza dei casi possano a volte condurre a soluzioni fi­ sicamente sbagliate. Nel ragionamento, analogamente, criteri euristici che pure normalmente funzionano possono di tanto in tanto portare alla risposta sbagliata. Anche se le soluzioni non sono scorrette, succede spesso che vi siano più soluzioni ugualmente soddisfacenti, a seconda delle diverse limitazioni usate per regolarizzare il problema e guidare la ricerca.

RIFERIMENTI BIBLIOGRAFICI Barrow, H.G. e J.M. Tennenbaum ( 198 1), Interpreting Line Drawings as Three Dimensionai Surfaces, in "Artificial Intelligence", 17, pp. 75-1 17. Bertero, M. ( 1982), Problemi lineari non ben posti e metodi di regola­ riu.azione, in Problemi non ben posti e inversi, Istituto di Analisi Globale, Firenze. Brady, J.M., Grimson, W.E.L. e D.J. Langridge ( 1 980), Shape Enco­ ding and Subjective Contours, in First Annua[ National Conferen­ ce on Artificial Intelligence, pp. 15- 17. Brady, J.M. e A. Yuille ( 1984), An Extremum Principle far Shape from Contour, in "I.E.E.E. Trans. on Pattem Analysis and Machine In­ telligence", pp. 288-30 l. 294

Canny, J.F. (1983), Finding Edges and Lines in Images, Massachu­ setts Institute of Technology Artificial Intelligence Laboratory Technical Report, n. 720. Geman, S. e D. Geman (1984), Stochastic Relaxation, Gibbs Distribu­ tions and the Bayesian Restoration of Images, in "PAMI", 6, pp. 721-741. Gihman, 1.1. e A.V. Skorohod (1972), Stochastic Differential Equa­ tions, Springer Verlag, Berlin. Grimson, W.E.L. (1981a), A Computer Implementation of a Theory of Human Stereo Vision, in "Phil. Trans. R. Soc. Lond.", B, 217253. Grimson, W.E .L. (1981b), From Images to Surfaces: a Computational Study of the Human Early Visual System, The MIT Press, Cam­ bridge (Mass.). Grimson, W.E.L. (1982), A Computational Theory of Visual Surface Interpolation, in "Phil. Trans. R. Soc. Lond.", B, 298, pp. 395427. Hadamard, J. (1923), Lectures on the Cauchy Problem in Linear Par­ tial Differential Equations, Yale University Press, New Haven. Hildreth, E.C. (1980), Implementation of a Theory of Edge Detec­ tion, S.M. Thesis, Dept. of Computer Science and Electrical En­ gineering, MIT (vedi anche MIT Art. Int. Lab. Technical Report, n. 597, 1980). Hildreth, E.C. (1984a), The Measurement of Visual Motion, The MIT Press, Cambridge (Mass .). Hildreth, E.C. (1984b), Computation of the Velocity Field, in "Proc. R. Soc. Lond .", B, 221, pp. 189-220. Hinton, G.E. e T.J. Sejnowski (1983), Optimal Perceptual Inference, in "Proc. I.E.E.E. 1983 Conf. Computer Vision and Pattern Reco­ gnition", Washington (D.C.). Hopfield, J.J. (1984), Neurons with Graded Response Have Collective Computational Properties like Those of Two-State Neurons, in "Proc. National Acad. Sci.", USA. Horn, B.K.P. (1984), Determining Lightness from an Image, in "Com­ puter Graphics and Image Processing", 3, pp. 111-299. Horn, B.K.P. (1981), The Least Energy Curve, AI Memo 612, MIT Art. Int. Lab., Cambridge (Mass.). Horn, B.K.P. e B.G. Schunk (1981), Determining Optical Flow, in "Artificial Intelligence", 17, pp. 185-203. Hummel, R. e S. Zucker (1980), O n the Foundations o f Relaxation Labeling Processes, McGill University, Computer Vision and Graphics Laboratory, TR 80-7. Hurlbert, A. (1985), Color Computation in the Visual System, MIT Art. lnt. Lab. Memo, n. 814. Hurlbert, A. (1984), Associative Learning of Standard Regularization Operators in Early Vision, MIT Art. Int. Lab. Working Paper 264. Ikeuchi, K. e B.K.P. Horn (1981), Numerica[ Shape from Shading an d Occluding Boundaries, in "Artificial Intelligence", 17, pp. 141-184. Kac, M. (1966), Can One Hear the Shape of a Drum?, in "Am. Math. Monthly", 73, 4, parte II, pp. 1-23. 295

Kass, M.H. (1 984), Computating Stereo Correspondance, manoscrit­ to, MIT. Kirkpatrick, S., Gelatt, C.D. Jr. e M.P. Vecchi (1983), Optimization by Simulated Annealing, in "Science", 220, pp. 671-680. Luenberger, D.G. ( 1969), Optimization by Vector Space Methods, Wi ­ ley Pubi., New York. Marr, D. e T. Poggio (1979), A Theory of Human Stereo Vision, in "Proc. R. Soc. Lond.", B, 204, pp. 301-328. Marroquin, J. ( 1 984), Surface Reconstruction Preserving Discontinui­ ties, MIT Art. Int. Lab. Memo, 792. Marroquin, J. (1985), Probabilistic Solutions of Inverse Problems, PhD Thesis, MIT. Mayhew, J.E.W. e J.P. Frisby ( i 98 1), Psychophysical and Computatio­ nal Studies Towards a Theory of Human Stereopsis, in "Artificial Intelligence", 17, pp. 349-385. McCulloch, W.S. e W. Pitts (1943), A Logica[ Calculus of the Ideas Im­ manent in Nervous Activity, in "Bull. Math. Biophys.", 5, pp. 115133. Metropolis, N., Rosenbluth, A., Rosenbluth, M., Teller, A. e E. Teller (1953), Equation of State Calculations by Fast Computing Machi­ nes, in "J. Chem . Phys.", 21, pp. 1087-1092. Nashed, M.Z. (1974), Approximate Regularized Solutions to Impro­ perly Posed Linear Integra[ and Operator Equations, in G. Auger (a cura di), Constructive and Computational Methods far Diffe­ rential and Integra[ Equations, Akademie Verlag, Berlin. Nashed, M.Z. (a cura di) (1976), Generalized Inverses and Applica­ tions, Academic Press, New York. Nishihara, H.K. e T. Poggio, Stereo Vision for Robotics, in "Procee­ dings of the First International Symposium of Robotics", in cor­ so di stampa. Poggio T. (1983), Visual Algorithms, in O.J. Braddick e A.C. Sleigh (a cura di), Physical and Biologica[ Processing of Images, Springer Verlag, Berlin. Poggio, T. e A. Hurlbert (1984), Associative Learning of Standard and Regularizing Operators in Early Vision, MIT Art. Int. Lab. Wor­ king Paper, n. 264. Poggio, T. e V. Torre (1984), Ill-posed Problems and Regularization Analysis in Early Vision, MIT Art. Int. Lab. Memo, n. 773. Poggio, T., Voorhees, H. e A. Yuille (1984), Regularizing Edge Detec­ tion, MIT Art. Int. Lab. Memo, n. 776. Reinsch, C.H. (1967), Smoothing by Spline Functions, in "Numer. Math.", 10, pp. 177-183. Schunk, B.G. e B.K.P. Horn (1981), Constraints on Optical Flow Com­ putation, in "Proc. I.E.E.E. Conf. Pattern Recognition and Image Processing", pp. 205-210. Terzopoulos, D. (1984), Multiresolution Computation of Visible-Sur­ face Representations, Ph.D. Thesis, Dept. of Computer Science and Electrical Engineering, MIT. Terzopoulos, D. (1983), Multilevel Computational Processes for Vi­ sua[ Surface Reconstruction, in "Computer Vision, Graphics, and Image Processing", 24, pp. 52-96. 296

Terzopoulos, D. (1984), Multilevel Reconstruction of Visual Surfa­ ces: Variational Principles and Finite Element Representations, MIT Art. lnt. Lab., n. 671; ora in A. Rosenfeld (a cura di), Multireso­ lution Image Processing and Analysis, Springer Verlag, Berlin. Terzopoulos, D. (1985), Integrating Visual Jnformation from Multiple Sources for the Cooperative Computation of Surface Shape, in A. Pentland (a cura di), From Pixels to Predicates: Recent Advances in Computational and Robotic Vision, Ablex. Tikhonov, A.N. (1963), Solution of Incorrectly Formulated Problems and the Regularization Method, in "Soviet Math. Dokl.", 4, pp. 1035-1038. Tikhonov, A.N. e V.Y. Arsenin (1977), Solutions of Ill-Posed Problems, Winston & Sons, Washington (D.C.). Torre, V. e T. Poggio (1984), On Edge Detection, MIT Art. lnt. Lab. Me­ mo, n. 768. Ulman, S. (1976), Filling the Gaps: the Shape of Subjective Contours and a Model for Their Generation, in "Biologica} Cybemetics", 25, pp. 1-6. Ullman, S. (1979), The Jnterpretation of Structure from Motion, in "Proc. R. Soc. Lond.", B, 203, pp. 405-426. Wahba, G. (1980), Ill-Posed Problems: Numerica[ and Statistica[ Me­ thods for Mildly, Moderately and Severely Ill-Posed Problems with Noisy Data, University of Winsconsin Techn. Report, n. 595. Yuille, A. (1983), The Smoothest Velocity Field and Token Matching Schemes, MIT Art. Int. Lab. Memo, n. 724.

297

Il ragionamento: dal formale al quotidiano

*

di Bruno G. Bara, Antonella Carassa e Giuliano Geminiani

Introduzione Secondo la prospettiva filosofica e poi teoretica che pos­ siamo far risalire ad Aristotele, il ragionamento formale è l'aspetto del pensiero umano più alto e complesso. Anche la psicologia evolutiva ha assunto la stessa posizio­ ne: nella teoria piagetiana il vertice dello sviluppo cognitivo è costituito dal pensiero formale, che corrisponde all'acqui­ sizione della capacità di ragionare in modo astratto, secondo i principi di quella che possiamo chiamare logica mentale (Piaget, 1 973). In questo lavoro proporremo un approccio alternativo, secondo il quale il ragionamento non si fonda sull'applicazio­ ne di regole logiche di inferenza, ma sulla manipolazione di modelli mentali che rappresentano gli stati di cose specifici su cui si ragiona. I modelli mentali sono strutture di rappre­ sentazione analogiche, che riproducono gli aspetti rilevanti di una situazione e che vengono elaborate secondo processi che sono legati alla struttura stessa del modello. In partico­ lare, per quanto riguarda il ragionamento, la manipolazione di modelli mentali conduce a conclusioni che sono non solo valide, ma anche pertinenti e informative. Vogliamo sottolineare che il concetto di modello mentale a cui facciamo riferimento è completamente diverso dal con* La ricerca è stata effettuata grazie al finanziamento concesso dal Mi­ nistero della Pubblica Istruzione, a B.G. Bara, per l'a.a. 1987/1 988. È un piacere per noi ringraziare Marco Colombetti e Philip Johnson­ Laird per i consigli e le indicazioni fomite sulla base della prima stesura del lavoro.

298

cetto di modello mentale di un dispositivo fisico, concetto re­ centemente sviluppato soprattutto all'interno della comunità americana di Intelligenza Artificiale. In quest'ultima accezio­ ne, il modello mentale corrisponde al modo in cui gli indivi­ dui pensano che uno specifico dispositivo fisico sia struttu­ rato e su come ragionano sul suo funzionamento; per esem­ pio, come è fatto e come funziona un apparecchio telefonico. Sebbene in letteratura siano stati proposti modelli cognitivi dettagliati di questo tipo (Gentner, Stevens, 1 983), non vengo­ no definiti né gli elementi cognitivi che costituiscono il mo­ dello, né i processi di pensiero che ne permettono l'elabora­ zione. I modelli di dispositivi fisici sono utili per comprende­ re e insegnare come si comporta uno specifico dispositivo, ma non hanno l'ambizione di identificare modalità basilari per il ragionamento non specifico. Il nostro scopo è invece quello di tracciare un quadro uni­ tario del ragionamento, individuando un insieme di principi generali di manipolazione di modelli, in grado di spiegare differenti tipi di processi di inferenza. Dopo aver presentato un modello di ragionamento formale e un modello di ragio­ namento quotidiano, analizzeremo le relazioni esistenti fra queste due aree, con l'obiettivo di ricondurle alle stesse com­ petenze di base.

Il ragionamento Tradizionalmente la psicologia cogmttva ha suddiviso i processi cognitivi in aree individuate sulla base di funzioni diverse, o di compiti specializzati all'interno di una funzione, postulando per ciascuna di esse un'abilità differenziata di base: conoscenza, percezione, problem solving, memoria, ap­ prendimento, linguaggio, pensiero. Secondo tale suddivisio­ ne, i processi relativi a ciascuna area sono stati analizzati in modo indipendente; ciò permette di generare ipotesi ad hoc, specifiche per il settore considerato, senza vincoli di compa­ tibilità con gli altri processi cognitivi. In un approccio computazionale, qualsiasi funzione co­ gnitiva richiede un'attività inferenziale di base: in questo senso il ragionamento è un processo di manipolazione di co­ noscenze, essenziale sia nella comprensione del linguaggio, che nella percezione o nel problem solving. Storicamente, l'aspetto del pensiero che è stato oggetto di maggior interesse è stato il ragionamento deduttivo, in quan­ to la capacità di compiere deduzioni era considerata la ca­ ratteristica essenziale che definiva la razionalità dell'indivi299

duo (da Piaget a Boolos). In questo approccio il ragionamen­ to viene a costituire un'area a sé stante, che studia le sole in­ ferenze di tipo deduttivo, trattandole come una funzione co­ gniti-va separabile dalle altre. L'obiettivo fondamentale degli studi sul ragionamento di­ venne perciò l'analisi dei processi psicologici sottostanti la capacità di dimostrare una proposizione o di produrre una conclusione, ricavandola in modo corretto da premesse date. Inevitabile fu a questo punto per gli psicologi il confronto con la logica, disciplina che tratta appunto i principi dell'in­ ferenza valida (Kneale e Kneale, 1 962). In particolare ci si ri­ ferì alla logica dei predicati del primo ordine, in quanto si­ stema che permette di ricavare tutte e solo le inferenze vali­ de a partire da un dato insieme di premesse. Considerando il problema da un punto di vista psicologi­ co, il ragionamento deduttivo è applicabile solo nelle situa­ zioni in cui le relazioni fra le entità o i fatti cui si fa riferi­ mento hanno uno dei tre tipi di struttura che definiamo di seguito. l . In un primo caso, tale struttura è riconducibile alle re­ lazioni espresse dai connettivi della logica del primo ordine. In particolare se la struttura è riconducibile agli schemi di inferenza del calcolo proposizionale, saranno derivabili infe­ renze logicamente valide. La regola di inferenza più importante è il modus ponens; ad esempio, date le premesse: SE piove ALLORA E oggi piove

prendo l'ombrello

si può concludere che: oggi prendo l'ombrello

e ciò in virtù della formulazione delle premesse stesse e non della conoscenza generale sul mondo, in questo caso specifi­ co dal sapere che, per non bagnarsi quando piove, è opportu­ no munirsi di ombrello. 2. Nel secondo caso, si considerano unicamente relazioni fra entità quantificate. Così da: tutti gli uomini sono mortali

e tutti i Greci sono uomini

si può concludere che: 300

tutti i Greci sono mortali.

3. Infine, oggetto del ragionamento deduttivo sono i pro­ blemi in cui le entità sono collegate da un unico tipo di relazio­ ne per la quale vale la proprietà di transitività. Così, per esem­ pio, da: l'elefante è più alto del cavallo

e il cavallo è più alto del cane

si può concludere che l'elefante è più alto del cane.

L'aspetto comune ai tre casi descritti, aspetto che secon­ do noi definisce l'ambito del ragionamento deduttivo, è il trarre inferenze manipolando la struttura delle premesse, a prescindere dal contenuto semantico specifico delle stesse. Ma ben raramente ci troviamo nella fortunata condizione di poter garantire la validità logica delle nostre inferenze; la co­ noscenza generale sul mondo, esclusa così drasticamente nel ragionamento deduttivo, è invece l'elemento chiave in gran parte della nostra attività cognitiva. Consideriamo un esem­ pio di quello che definiamo ragionamento quotidiano: Alice stava scassinando la cassaforte

e Alice udì un rumore nell'anticamera.

Non è possibile in questo caso richiamare le procedure di elaborazione formale che abbiamo descritto per il tipo e l'e­ terogeneità delle relazioni implicate. I processi di ragionamento che ci permettono, per esem­ pio, di fare un'inferenza come: Alice si nascose dietro il divano

sono basati essenzialmente sulla conoscenza generale del mondo, che ci permette di generare ipotesi sulle relazioni fra i fatti menzionati nelle premesse. Di congetture si tratta e non di deduzioni, di cui il cammino inferenziale dovrà co­ struire non tanto una prova di validità logica quanto una ri­ cerca di plausibilità. 301

Malgrado la sostanziale differenza tra i due tipi di ragio­ namento, talora, soprattutto in ambito psicologico, si è ten­ tato implicitamente o esplicitamente di ricondurre il ragio­ namento quotidiano al ragionamento deduttivo, estendendo così la logica dei predicati del primo ordine a modello del ra­ gionamento umano nel suo complesso. Si potrebbe ipotizza­ re che, per compiere l'inferenza "Alice si nascoste dietro il divano", si faccia riferimento a una logica, che comprenda, oltre agli assiomi logici, un tal numero di assiomi specifici del dominio quali, ad esempio: l) SI! x fa qualcosa di scorretto E viene scoperto ALLORA x viene punito 2) SE x teme di essere scoperto ALLORA x lo evita 3) ecc.

da rendere totalmente inefficiente e implausibile da un pun­ to di vista psicologico la generazione di inferenze su questa base. . Nella prospettiva di costruire una teoria psicologica, af­ fermare che il ragionamento quotidiano è riducibile al ragio­ namento deduttivo costituisce un'ipotesi molto vincolante da un punto di vista teorico, e le cui conseguenze richiedono il conforto di dati empirici. Da un lato si as sume infatti che la nostra conoscenza generale sul mondo sia strutturata in for­ ma assiomatica. Se così fosse, a parte i casi di inferenze ba­ nali, il ragionamento quotidiano richiederebbe un numero di passi inferenziali generalmente superiore rispetto, ad esem­ pio, al più complesso dei sillogismi, con un conseguente faci­ le esaurimento delle risorse cognitive e della working me­ mory in particolare. In altre parole, ciò significa che il ragio­ namento quotidiano dovrebbe risultare più difficile, richie­ dere cioè uno sforzo cognitivo maggiore rispetto al ragiona­ mento deduttivo classico mentre quest'ipotesi si scontra con un'evidenza anche introspettiva decisamente contraria. In una prospettiva di Intelligenza Artificiale, i sistemi cui si richiedono competenze quali la comprensione di sto­ rie, la visione, il problem-solving in situazioni che hanno la complessità della vita reale, devono essere in grado di com­ piere inferenze non traducibili in forme classiche di ragio­ namento deduttivo (McDermott, Doyle, 1 980; Reiter, 1 980; Zadeh, 1 97 5). Questo fallimento della formalizzazione del ragionamento quotidiano attraverso logiche elementari, mostra che vi sono anche ragioni teoriche e difficoltà computazionali contrarie 302

all'ipotesi che assume il ragionamento deduttivo come il tipo di ragionamento alla base di tutti i processi inferenziali.

L 'ipotesi dei modelli mentali La distinzione fondamentale fra l'ipotesi della logica mentale e quella dei modelli mentali è che la prima lavora esclusivamente a livello della teoria, mentre i secondi utiliz­ zano le interpretazioni della teoria stessa, appunto i modelli. Secondo la logica mentale, il punto di partenza è la defi­ nizione di una teoria che comprende es senzialmente gli as­ siomi pertinenti a uno specifico dominio, all'interno di una logica sottostante che definisce le regole di inferenza utiliz­ zabili. In senso generale, compiere inferenze è un'attività svolta unicamente a livello della teoria. La nostra assunzione di base è che, da un punto di vista psicologico, si mostra più utile considerare l'attività inferen­ ziale come basata piuttosto su modelli, cioè su interpretazio­ ni particolari di una data teoria. Tale distinzione teoria-mo­ dello si riflette anche su un importante e discusso punto, la scelta della forma di rappresentazione della conoscenza. L'approccio della logica mentale favorisce una rappresenta­ zione di tipo sintattico della conoscenza, in quanto non fa ri­ ferimento a interpretazioni particolari ma a una teoria astratta ben gestibile da rappresentazioni di tipo proposizio­ nale. Al contrario i modelli mentali costituiscono strutture di rappresentazione di tipo analogico, che interpretano se­ manticamente la teoria astratta del dominio specifico su cui si opera. Parlando di struttura di rappresentazione, ci riferiamo in questo contesto a come viene rappresentata momento per momento la conoscenza che il sistema elabora, e quindi rap­ presentazioni presenti nello spazio della memoria di servi­ zio, mentre non ci interessa qui fare assunzioni su come sia organizzata l 'intera conoscenza generale sul mondo che il si­ stema deve possedere per generare modelli (su questo pro­ blema, ci riferiamo alla teoria rappresentazionale di Airenti, Bara, Colombetti, 1 982). Un primo punto da tenere presente è che l'obiettivo di un sistema che manipola informazioni non è produrre tutte le possibili conclusioni derivabili da un insieme di premesse ma ricavare le sole inferenze interessanti. Per esempio, date le premesse: tutti gli apicoltori sono barbieri 303

e nessun barbiere è commerciante

si potrebbe dedurre che nessun commerciante è barbiere

inferenza valida ma poco informativa, in quanto equivalente alla seconda premessa. La conclusione altrettanto valida nessun commerciante è apicoltore

è invece più informativa di ognuna delle premesse considera­ te separatamente. Ragionare significa in senso generale costruire una rap­ presentazione coerente che integri le informazioni contenute nelle premesse. Le inferenze informative consistono nell'e­ splicitare nuove relazioni nella rappresentazione in atto. Se­ condo l'ipotesi che noi assumiamo, alla base del ragionamen­ to vi è un'attività di manipolazione di modelli mentali di si­ tuazioni specifiche, piuttosto che l'applicazione di regole d'inferenza su strutture simboliche astratte. Tale manipola­ zione porta alla costruzione di nuovi modelli che generano conclusioni valide e informative. Costruire una rappresentazione analogica, in particolare un modello mentale, significa considerare la realtà secondo un determinato punto di vista, isolare alcune dimensioni pri­ vilegiate, pertinenti agli scopi cognitivi in funzione dei quali il modello è costruito. Si tratta di scegliere entità e relazioni, e di definirle completamente nella rappresentazione, la qua­ le, a differenza di una rappresentazione proposizionale, non contiene variabili. Ad esempio, facendo riferimento a propo­ sizioni in forma linguistica, costruire un modello significa rappresentare uno specifico stato di cose, uno fra diverse al­ ternative possibili, che renda vera la proposizione data; in questo senso, il modello è una proposizione interpretata. Ciò implica che, anche in caso di incompletezza di informazioni, costruire un modello obbliga a formulare ipotesi interpreta­ tive, cosa che corrisponderebbe all'assegnazione di valori ar­ bitrari in una rappresentazione contenente variabili. Sottoli­ neamo il fatto che il modello non può che essere manipolato globalmente e che un modello eventualmente falsificato por­ ta alla costruzione ex novo di un modello alternativo. Infatti un modello non può essere scomposto in unità di significato più elementari, in ciò a differenza di una semantica composi­ zionale, in cui il significato di entità complesse viene ottenu304

to componendo i significati di entità elementari. Qui invece l'informazione viene rappresentata nella struttura globale del modello. Elaborare rappresentazioni di tipo analogico non corrisponde a un'operazione di applicazione di procedu­ re astratte a un sistema di simboli, così come si applicano regole di inferenza a formule di un dato sistema logico-for­ male. L'elaborazione di modelli mentali consiste piuttosto nel trasformarli secondo processi che dipendono dalle pro­ prietà strutturali intrinseche; per processo intendiamo qui una procedura interna al modello in grado di farlo evolvere. È chiaro a questo punto che l'ipotesi dell'uso di modelli porta a considerare il ragionamento come un'attività forte­ mente dipendente dal dominio di applicazione, sia per il ri­ lievo dato alla conoscenza che viene di volta in volta utilizza­ ta, sia per la specificità dei processi di elaborazione della rappresentazione. Riteniamo perciò che studiare il ragiona­ mento implichi la ricerca di uno spettro di dominii significa­ tivi e l'individuazione delle classi di modelli che li caratteriz­ zano. Nello stesso tempo è di primaria importanza sviluppa­ re una teoria unitaria del ragionamento in grado di indivi­ duare una serie di principi di manipolazione di modelli, estendibili a tutti i dominii. Tali principi, che secondo il no­ stro punto di vista dominano ogni tipo di attività inferenzia­ le, rispecchiano alcune competenze elementari del sistema cognitivo, quali la capacità di costruire, integrare e falsifica­ re modelli, competenze che si realizzano in modo specifico in ciascun particolare dominio di applicazione (Bara, Carassa, Geminiani, 1 987). Nei due paragrafi seguenti esamineremo una teoria uni­ taria del ragionamento costruita attraverso la definizione dei suoi principi di base; questi principi saranno successiva­ mente applicati a due modelli esemplari di attività inferen­ ziali: il ragionamento sillogistico e il ragionamento su un processo di causalità fisica.

Il ragionamento deduttivo Nello studio del pensiero, il ragionamento deduttivo è stato considerato in psicologia un'area di indagine privilegia­ ta e costituisce oggi un dominio paradigmatico, in cui è pos­ sibile un confronto fra differenti teorie sui processi di pen­ siero. Il punto fondamentale non è tanto chiedersi se il ragiona­ mento deduttivo sia più o meno consistente con la logica; è stato dimostrato che gli esseri umani compiono errori nelle 305

loro deduzioni, che tali errori sono spesso sistematici e non casuali e che tale fallacia nel ragionamento non è unicamen­ te correlabile con la difficoltà logica del compito richiesto (Evans, 1 982). Tutto ciò non significa che la deduzione umana sia fonda­ mentalmente illogica, ma significa unicamente che la nostra competenza deduttiva non coincide esattamente con i sistemi logico-formali studiati dalla logica classica. Inoltre, definire un sistema logico-formale che catturi la nostra competenza deduttiva, non conduce necessariamente a individuare il tipo di processi implicati nella deduzione. Individuare quali siano le operazioni mentali è possibile solo formulando una serie di assunzioni teoriche più generali, fra le quali, in primis, è necessario definire quale sia il tipo di rappresentazione uti­ lizzata nel pensiero. Come già discusso in precedenza, individuiamo almeno due classi di ipotesi teoriche: l) teorie che postulano regole generali di manipolazione di strutture simboliche; tali regole garantiscono la validità delle inferenze prodotte; naturalmente saranno necessarie delle euristiche che stabiliscano l'applicabilità effettiva di ta­ li regole nei singoli casi; 2) teorie che postulano la manipolazione di strutture sim­ boliche interpretate o modelli; non sono richieste euristiche in quanto sono le strutture dei modelli che definiscono le specifiche procedure. Le procedure realizzano principi gene­ rali di manipolazione di modelli; la validità delle conclusioni viene garantita attraverso una valutazione sistematica di controesempi. Discuteremo brevemente quest'ultima ipotesi, conside­ rando, a titolo esemplificativo, un caso particolare di ragio­ namento deduttivo, il ragionamento sillogistico. Nel ragionamento sillogistico, si considerano proposizio­ ni in cui compaiono quantificatori. A seconda del quantifica­ tore, ogni proposizione assume uno fra i quattro possibili

modi:

universale affennativo Tutti gli A sono B particolare affermativo Qualche A è B universale negativo Nessun A è B particolare negativo Qualche A non è B

Un sillogismo è costituito da due proposizioni dette pre­ messe e da una proposizione detta conclusione; nei sillogi­ smi validi, questa segue logicamente dalle premesse, che so­ no espresse in forma, per esempio simile a: 306

Tutti gli A sono B Tutti i B sono C

dove un elemento (B) compare in entrambe le premesse. Que­ sta figura è schematizzabile nella forma A B

B C

In tutto le figure possibili sono quattro: AB (l) BC

AB

BA (III)

(Il) CB

CB

BA

(IV)

BC

Dato che in ogni figura è possibile comporre le quattro pre­ messe in sedici diversi modi, questo porta il numero dei sil­ logismi classici a sessantaquattro. Gli studi psicologici sul sillogismo hanno l'obiettivo ulti­ mo di definire i processi cognitivi che, data una coppia di premesse, producano conclusioni valide, se ve ne sono. I numerosi lavori sperimentali compiuti per studiare co­ me gli esseri umani risolvano i sillogismi, hanno evidenziato alcune sistematicità di comportamento quali, ad esempio, i cosiddetti effetto atmosfera ed effetto figurale. Tali compor­ tamenti danno indicazioni, seppure indirette, sui processi co­ gnitivi sottostanti; qualunque teoria psicologica del sillogi­ smo deve perciò render conto di tali osservazioni. Recentemente, Johnson-Laird e Bara (1 984) hanno propo­ sto una delle teorie più interessanti, in quanto non solo è sta­ ta in grado di spiegare in modo relativamente completo un'e­ norme quantità di dati sperimentali, ma ha permesso di co­ struire un modello computazionale che consente la simula­ zione dei comportamenti verificati sperimentalmente. La teoria proposta da Johnson-Laird e Bara ipotizza un sistema di rappresentazione basato sui modelli mentali. Tre sono i fattori fondamentali da cui dipendono le prestazioni dei soggetti sperimentali: l) differente complessità di elaborazione delle premesse legata alla figura delle premesse stesse, in ordine di comples­ sità crescente da I a IV; 2) numero dei modelli che è necessario costruire per ve­ rificare la validità di una conclusione in ciascun sillogismo: una conclusione è valida solo se è provata compatibile con tutti i modelli significativamente diversi che si possono co­ struire; 307

3) limitazione delle risorse cognitive, in particolare la di­ versa capacità della working memory mostrata da diversi soggetti. Sulla base delle assunzioni teoriche, è stato ideato un mo­ dello computazionale dei processi del ragionamento sillogi­ stico, modello che ha permesso la realizzazione di un pro­ gramma di simulazione (sYLLY). L'implementazione del pro­ gramma è stata confrontata con successo con dati sperimen­ tali. Da un punto di vista metodologico (vedi Pylyshyn, 1 984) è importante sottolineare che i criteri di successo di un pro­ gramma di simulazione si articolano in due aspetti che de­ scriveremo brevemente: a) Procedure equivalenti Il programma deve riprodurre, al livello desiderato di det­ taglio, i processi degli esseri umani impegnati nello stesso compito. Il vincolo di procedure equivalenti ha due corollari impor­ tanti: al) il tempo di computazione del programma deve essere proporzionale al tempo necessario agli esseri umani per ri­ solvere un certo problema a2) alcuni stadi rilevanti di conoscenza, intermedi fra lo stato iniziale e lo stato finale del processo, devono essere si­ mulati dal programma. Pylyshyn rileva che il test di Turing (Turing, 1 950) riguar­ da solo gli stadi iniziale e finale; questa è una delle ragioni per cui, sebbene esso sia un test per l'Intelligenza Artificiale, un programma che lo superi non può essere considerato un programma di simulazione. b) Prestazioni uguali

Il programma di simulazione deve riprodurre le prestazio­ ni che i soggetti umani mostrano quando sono impegnati nel­ lo stesso compito. Nel caso dei sillogismi, il programma deve riprodurre esattamente i protocolli dei differenti soggetti. Questo significa che la simulazione degli errori è altrettanto importante della simulazione delle risposte corrette. Natural­ mente, dal momento che soggetti differenti hanno percentua­ li differenti di risposte corrette e compiono differenti tipi di errori, il programma deve esibire prestazioni differenti, a se­ conda del particolare soggetto che sta simulando. Secondo la teoria di Johnson-Laird e Bara, i processi dei soggetti che risolvono sillogismi si possono suddividere in tre fasi fondamentali: 308

l) fase di interpretazione delle premesse: per ciascuna premessa i soggetti costruiscono un modello mentale che rappresenta lo stato di cose da essa descritta; si avranno co­ sì due modelli separati ciascuno costituito da un numero fi­ nito di token, che rappresentano individui, e da relazioni fra token; 2) fase di integrazione dei modelli delle premesse e for­ mazione di una conclusione compatibile con il modello inte­ grato così ottenuto; i due modelli iniziali sono integrati in un modello complesso in cui si pongono delle relazioni fra i token fra i quali non esiste una relazione esplicitata nelle premesse, e cioè i termini A e C. In tal modo, il modello complesso integrato rappresenta una conclusione informa­ tiva; 3) fase di falsificazione: verifica della validità attraverso la ricerca di controesempi. Applicando ricorsivamente la funzione precedente vengono generati modelli integrati al­ ternativi di cui ciascuno rappresenta una possibile conclu­ sione; la funzione di verifica confronta ciascuna conclusione ottenuta con lo stato di cose descritto dagli altri modelli in­ tegrati. Se una conclusione risulta compatibile con tutti i modelli integrati generati, tale conclusione sarà considerata valida; se viceversa, tutte le conclusioni sono falsificate da almeno uno dei modelli integrati, allora nessuna conclusio­ ne valida risulta possibile.

Un programma di simulazione per l 'inferenza sillogistica Il programma SYLLY riproduce le operazioni corrispon­ denti alle ipotesi teoriche che abbiamo illustrato, ed è per­ ciò costituito da tre funzioni principali che realizzano le tre fasi fondamentali discusse in precedenza: coNSTRUCT, INTE­ GRATE, FALSIFY. L'implementazione del programma è in grado di simula­ re un qualsiasi soggetto umano che deve risolvere i sessan­ taquattro sillogismi classici, secondo i vincoli metodologici che abbiamo discusso precedentemente. Pochi esempi chiari ranno il modo di operare del programma. Il sillogismo Pl: Tutti gli A sono B P2: Tutti i B sono C

ammette una conclusione derivata da un solo modello. La rappresentazione in termini di modello mentale delle due premesse ha la seguente forma: 309

Pl: a b a--b 'b

P2: b-e b c 'c

-

__

dove 'b rappresenta un numero non definito di elementi non legati da relazioni di identità. Così nell'esempio precedente "Tutti gli A sono B" non implica necessariamente "Tutti i B so­ no A", perciò vengono rappresentati nel modello alcuni ele­ menti b che non sono a, indicati con ·b. Il soggetto ottiene un modello unico integrando il modello della seconda premessa col modello della prima premessa: a--b--c a--b--c ·b e c --

che porta alla seguente conclusione: Tutti gli A sono C

Invece, il seguente sillogismo ammette una conclusione basata su due modelli: P l: Alcuni A non sono B P2: Nessun B è C

La rappresentazione in termini di modello mentale delle due premesse ha la forma: Pl: a a

P2: b b

·a b b

c c

Aggiungendo il modello della seconda premessa al modello della prima premessa, il soggetto ottiene il modello integrato: a a 'a

b b c c

310

che fornisce una prima conclusione: Nessun A è C

È possibile però costruire un modello differente, ancora consistente con le premesse, cambiando la posizione agli ele­ menti isolati c: a c a c ·a

b b

Tale modello integrato rende falsa la prima conclusione, in quanto ci sono elementi c isolati collegabili con elementi a, e non supporta a sua volta una conclusione compatibile con il primo modello integrato. La conclusione corretta quindi è: Non esiste conclusione valida

Per ultimo il tipo più difficile di sillogismo ammette una conclusione basata sulla costruzione di tre modelli, con una lettura dei modelli in senso inverso (da destra a sinistra): Pl: Nessun A è B P2: Qualche B è C

La rappresentazione in termini di modelli mentali delle due premesse ha la seguente forma: Pl: a a

P2: b e b--e -

b b

b

·c

Aggiungendo P l a P2 il soggetto può costruire il primo modello integrato: a a b--e b e ·c --

311

che porta alla prima conclusione possibile: Nessun A è C

Ma un secondo modello integrato può essere costruito: a

·c

a

h--c b e --

che porta alla seconda conclusione possibile: Alcuni A non sono C

Tale seconda conclusione non è falsificata dal primo mo­ dello costruito. Al contrario, la prima conclusione generata è falsificata da questo secondo modello integrato. Esiste un terzo modello, ancora compatibile con le pre­ messe: "c "c

a a

b h

---

e c

Questo modello rende false le due conclusioni precedenti, forzando il soggetto ad asserire che non esiste conclusione valida (terza conclusione possibile). Ma, se il soggetto è capace di scandire quest'ultimo mo­ dello da destra a sinistra, può raggiungere la conclusione corretta: Alcuni C non sono A

Di fatto questa quarta ed ultima conclusione è compatibi­ le con tutti i modelli integrati costruiti. Negli esperimenti ef­ fettuati, nessun soggetto è stato in grado di esibire la presen­ tazione perfetta, cioè di dare tutte e sessantaquattro le rispo­ ste corrette. Tuttavia gli errori dei soggetti sono stati abbastanza si­ stematici, dal momento che ogni soggetto tende a ripetere lo stesso stile di elaborazione di modelli attraverso l'intera se­ rie di sillogismi. Questo ha permesso di classificare i sogget312

ti sperimentali in cinque tipi differenti, in relazione alla loro abilità di costruire e manipolare modelli mentali: tipo tipo tipo tipo

l 2 3 4

tipo 5

= = = =

=

soggetti capaci di costruire fino a un modello; soggetti capaci di costruire fino a due modelli; soggetti capaci di costruire fino a tre modelli; soggetti capaci di costruire fino a tre modelli e di scandirli da destra a sinistra; soggetti che danno una risposta: "non esiste una con­ clusione valida" ogni volta che riescono a falsificare un modello, cioè tutte le volte che costruiscono più di un unico modello integrato dalla coppia di premesse assegnata.

A titolo esemplificativo riportiamo le risposte previste dal programma, per ciascun tipo di soggetto, in riferimento ai sillogismi che abbiamo presentato precedentemente. Il sillogismo P l : Tutti gli A sono B P2: Tutti i B sono C

richiede una conclusione basata su un solo modello. Perciò le risposte previste per ciascun tipo di soggetto sono: tipo l : tipo 2: tipo 3: tipo 4: tipo 5:

Tutti Tutti Tutti Tutti Tutti

gli A sono gli A sono gli A sono gli A sono gli A sono

C (primo modello) C (primo modello) C (primo modello) C (primo modello) C (primo modello)

Il sillogismo P l : Alcuni A non sono B P2: Nessun B è C

richiede una conclusione basata su due modelli. Le risposte previste per ciascun tipo di soggetto sono: tipo l: tipo 2: tipo 3: tipo 4: tipo 5:

Nessun A è C Nessuna conclusione valida Nessuna conclusione valida Nessuna conclusione valida Nessuna conclusione valida

(primo modello) (secondo modello) (secondo modello) (secondo modello) (più di un modello)

Il sillogismo P l : Nessun A è B P2: Qualche A è B 313

richiede la costruzione di tre modelli e una conclusione data scandendo il modello in modo inverso. Le risposte previste per ciascun tipo di soggetto sono: tipo l : tipo 2: tipo 3: tipo 4: tipo 5:

Nessun A è C Alcuni A non sono C Nessuna conclusione valida Alcuni C non sono A Nessuna conclusione valida

(primo modello) (secondo modello) (terzo modello) (terzo modello, inverso) (più di un modello)

Il programma SYLLY si dimostra in grado di riprodurre le prestazioni umane non su basi statistiche, ma simulando soggetti individuali, rispettando le loro differenze. Per quanto riguarda l'equivalenza di procedure fra pro­ gramma e soggetti umani, è possibile verificare i passi inter­ medi nel processo di ragionamento, interrompendo l'elabo­ razione dei dati prima di ottenere l'uscita normale, e con­ frontando tali uscite intermedie con le risposte date dai sog­ getti quando si dà loro una limitazione nel tempo di elabora­ zione, costringendoli perciò a produrre delle "conclusioni in­ termedie". In uno degli esperimenti riportati di Johnson-Laird e Ba­ ra, si è richiesto ai soggetti di dare una risposta entro 10 se­ condi; successivamente si presentava loro di nuovo il sillogi­ smo insieme con la loro prima risposta, dando loro il tempo necessario per cambiare la risposta, se lo ritenevano oppor­ tuno. Con questa procedura si è ottenuto uno stadio interme­ dio di elaborazione a l O secondi, con una procedura analoga quello a 60 secondi e, in ultimo, le risposte definitive. Il programma può riprodurre queste prestazioni, per cia­ scun tipo di soggetto, dando differenti conclusioni a seconda del livello di elaborazione consentito. Inoltre, il tempo di cal­ colo del programma è proporzionale al tempo che ciascun soggetto richiede per risolvere i sillogismi. Il tempo di elabo­ razione può essere differente per diversi soggetti: per esem­ pio, nel sillogismo che richiede tre modelli i soggetti di tipo l costruiscono un solo modello per raggiungere la loro con­ clusione, mentre i soggetti di tipo 2 e 5 costruiscono due mo­ delli e i soggetti di tipo 3 e 4 tre modelli. Sperimentalmente, è stato dimostrato che il tempo di elaborazione delle risposte cresce col crescere del numero dei modelli che il soggetto prende in considerazione. Come già accennato, il tempo di elaborazione del programma corrisponde in modo proporzio­ nale ai tempi registrati per i soggetti sperimentali. In conclusione, SYLLY simula le prestazioni individuali, gli stadi intermedi e il tempo di elaborazione umano, rispettan­ do così i criteri che definiscono il successo di un modello si314

mulativo; si può perciò affermare che il programma ripro­ duce non solo che cosa fanno gli esseri umani quando effet­ tuano inferenze sillogistiche, ma anche come lo fanno.

Il ragionamento quotidiano La maggior parte delle attività inferenziali compiute nel­ la vita di tutti i giorni non consiste di deduzioni logiche simi­ li a quelle esaminate nel paragrafo precedente. L'attività in­ ferenziale che chiamiamo ragionamento quotidiano si carat­ terizza perché tratta situazioni in cui i dati necessari per produrre conclusioni informative non sono sempre esplicita­ ti; è pertanto indispensabile attingere alla conoscenza del mondo, cioè a un insieme di conoscenze specifiche che ri­ guardano oggetti, individui, fatti e le loro reciproche relazio­ ni. Il dover trattare con conoscenze incomplete significa ra­ gionare non solo su fatti la cui evidenza è definita in positi­ vo, ma anche su fatti di cui non è data evidenza negativa (ra­ gionamento pe r default); è perciò necessario generare aspet­ tative in base alla conoscenza di situazioni stereotipate, for­ mulare ipotesi attraverso processi di induzione, ragionare per analogie; si procede così attraverso una serie di assun­ zioni arbitrarie che pos sono in seguito essere dimostrate fal­ se. È chiaro che non si può parlare di inferenze valide nel senso logico-formale del termine, ma siamo nell'ambito delle inferenze possibili o plausibili (Simon, 1 983). Per quanto riguarda l'aspetto epistemologico del ragiona­ mento quotidiano, distinguiamo almeno due fondamentali ambiti di conoscenza: a) conoscenza sui fenomeni fisici del mondo; cioè fatti ed eventi fisici nonché relazioni causali e temporali; b) conoscenza su stati mentali intenzionali e non, nonché delle loro relazioni causali e temporali. In quest'ottica, la causalità assume un ruolo chiave in quanto organizza la costruzione di modelli complessi che permettono di porre in relazione gli eventi fra loro. Come già discusso in un precedente lavoro (Bara, Caras­ sa, Geminiani, 1 984) proponiamo uno schema che definisce in termini psicologici gli elementi costitutivi di una relazione causale. Lo schema rappresenta i ruoli giocati dai fatti in una in­ terpretazione soggettiva di una relazione causale. Il nucleo di una relazione causale è costituito da un legame causa-ef­ fetto fra eventi, che tuttavia non sarebbe significativo, se considerato isolatamente. Noi riteniamo infatti che in una 315

relazione causale l'evento-effetto segua l'evento-causa con un elevato grado di aspettativa solo se si verificano determinate condizioni abilitanti. La valutazione di un insieme di tali condizioni da parte di chi ragiona è perciò necessaria per giustificare il legame causa-effetto che viene postulato. In questo modo, il grado di aspettativa di un medesimo legame condizioni ab litanti

f

evento-causa

-+

evento-effetto

muta al variare del numero e della qualità delle condizioni abilitanti poste. Stabilire una relazione causale è perciò un'attività creativa, basata su un'interpretazione soggettiva dei fatti. Per esempio, consideriamo i seguenti fatti: F l : Alberto fu morso da un serpente F2: Alberto morì

Il sostenere un legame causa-effetto fra F l e F2, richiederà di individuare il sussistere di alcune condizioni, quali, ad esempio: C l : Alberto era di debole costituzione

oppure C2: Non gli fu iniettato alcun antidoto

oppure C3: L'antidoto gli fu iniettato in ritardo

e altro ancora. Come sarà evidente anche introspettivamente al lettore, è possibile produrre un'ampia varietà di condizioni, che verifi­ cano o meno un determinato legame; la ricchezza di ipotesi alternative suggerisce non tanto l'uso di leggi precostituite, quanto piuttosto un'attività di esplorazione di modelli che rappresentino aspetti significativi dei fatti descritti. Ciò ren­ de anche conto della novità delle conclusioni che possiamo trarre di volta in volta e della possibilità di scoprire aspetti di una situazione precedentemente mai considerati. Il mani­ polare un modello analogico di un processo di causalità fisi­ ca permette di simulare mentalmente l 'evolvere di una situa­ zione, considerando nella loro globalità le conseguenze di al­ cuni fattori che interagiscono causalmente. Nel modello ana­ logico di un processo di avvelenamento, come quello rappre­ sentato nella figura l , si può contemporaneamente tenere traccia di come il veleno fluisca nell'organismo, della possi­ bile interazione fra il veleno e l'antidoto introdotto in tempi 316

diversi, della possibilità di deviare o di rallentare il flusso del veleno, o ancora degli effetti di diverse quantità di veleno in rapporto alla resistenza dell'organo bersaglio. In un modello di questo tipo, il veleno assume il ruolo di agente causale che agisce per contatto con l'organo bersa­ glio; è il realizzarsi di tale contatto attraverso il flusso del veleno nell 'organismo l'aspetto cruciale per il verificarsi del legame causale. In questo senso il modello è analogico ri­ spetto alle caratteristiche del mezzo attraverso il quale av­ viene il contatto. Ricordando che la nostra tesi di fondo è che ogni attività di ragionamento sia dominata da alcuni principi generali, che valgono sia nell'ambito del ragionamento deduttivo che nelle inferenze inerenti al ragionamento quotidiano, illustre­ remo ora come i tre principi generali che abbiamo analizzato per il ragionamento deduttivo, si realizzino nel dominio del ragionamento quotidiano. l . La fase di interpretazione corrisponde alla costruzione di un modello di uno specifico processo causale. Facendo ri­ ferimento alla conoscenza generale sul mondo, si cerca di at­ tribuire a uno dei fatti descritti nelle premesse, il ruolo di evento-causa in una relazione causale. Riteniamo infatti che nella conoscenza generale, siano rappresentati esplicitamen­ te dei legami causa-effetto, che rendono immediata l'attribu­ zione dei ruoli. Si tratta di una conoscenza schematica, che esprime in modo unitario, non ulteriormente analizzabile, una sequenza di fatti altamente probabile. Così nell'esempio che abbiamo precedentemente esaminato possiamo ipotizza­ re una struttura di rappresentazione del tipo: X

morso dal serpente

-+

X

muore

Per valutare la plausibilità di tale legame in relazione alla specifica situazione descritta, viene costruito un modello del processo causale, che analizza, scomponendolo temporal­ mente, il divenire del legame causa-effetto (fig. 1). Sottoli­ neiamo che nel modello vengono rappresentate le caratteri­ stiche fisiche del mezzo, attraverso cui avviene l'azione del­ l'agente causale sullo specifico bersaglio. La scelta di tali caratteristiche del mezzo corrisponde al­ l'individuazione di aspetti, o parametri, ritenuti determinan­ ti del modo in cui il processo di interazione causale si svolge. Ad esempio, nel modello della circolazione del sangue, il rite­ nere che i condotti siano elastici può generare la credenza che si possa intervenire per bloccare il flusso del veleno mo­ dificando la sezione del condotto con l'applicazione di lacci. 317

2. La fase di integrazione corrisponde all'attribuzione di valori ai parametri del modello, sulla base dei fatti espressi nelle premesse o di conoscenza stereotipa; il modello viene fatto evolvere nel tempo simulando così l'interazione dei di­ versi fattori implicati (fig. 2). Ad esempio, l'introduzione tardiva di un antidoto non im­ pedirà l'azione dannosa del veleno, ormai prossimo all'orga­ no bersaglio. L'evoluzione temporale del modello genera uno stato finale del processo causale, che costituisce una conclu­ sione possibile. 3. La fase di falsificazione ha lo scopo di valutare il gra­ do di plausibilità di una conclusione prodotta. Un modello può essere falsificato, operando ricorsiva­ mente a livello della fase di interpretazione o a livello della fase di integrazione. Nel primo caso, le premesse iniziali ven­ gono reinterpretate, costruendo modelli alternativi; ciò si­ gnifica individuare differenti aspetti, o parametri, preceden­ temente non considerati (figg. 3 e 5). Riferendoci sempre al nostro modello di avvelenamento, un primo modello in cui si è considerato l'effetto dell'intro­ duzione di un antidoto, può essere sostituito da un modello in cui si considera anche l'effetto dell'applicazione di un lac­ cio al di sopra della ferita. Nel secondo caso, la falsificazione avviene, attribuendo valori differenti ai parametri considerati, in modo compati­ bile con i fatti descritti (fig. 4). Ciò avviene, ad esempio, quando si considerano tempi diversi dall'introduzione del­ l'antidoto. Per entrambe le modalità di falsificazione, l'evoluzione temporale dei modelli alternativi così ottenuti genera con­ clusioni fra loro più o meno compatibili, dove è possibile at­ tribuire un grado diverso di credibilità o di probabilità alle diverse conclusioni.

3 18

MODELLO DI UN PROCESSO DI AVVELENAMENTO

LUOGO DI INOCULAZIONE E CANALE 01--l:::::: ASSORBIMENTO

Figura l.

-

Interpretazione

to

t1

Figura 2. -Fase d'integrazione

t3

t1o

X

t2s

muore

-;i

la

t10

X si inietta un antidoto

Figura 3.- Fase di falsificazione

t11

t20

�5

antidoto

X si inietta un

Figura 4.

X muore (l'antidoto è stato iniettato troppo tardi)

X si applica un laccio X si Inietta un antidoto

Figura 5.

X si salva

Conclusioni I punti essenziali dell'approccio basato sui modelli men­ tali, per quel che riguarda l'area del pensiero, sono due. Il primo punto consiste nell 'assunzione che non vi sia una gerarchia che correli i diversi tipi di pensiero ponendo al vertice il ragionamento formale e in posizione subalterna tutti gli altri, versioni imperfette del primo. L'argomentazione propria della psicologia evolutiva, che identifica nel pensiero formale il livello massimo dello svi­ luppo intellettuale, in virtù del fatto che è l'ultimo a mo­ strarsi nella crescita cognitiva dell'individuo, non è suffi­ ciente. Il puro e semplice criterio dell'emergenza temporale non dimostra di per sé il primato del formale: altri tipi di pensiero, come la capacità di riflettere su se stessi, o di ana­ lizzare i propri stati mentali, emergono in tempi ancora suc­ cessivi intorno all'adolescenza, rispetto alla capacità di ra­ gionare formalmente, situabile intorno ai dodici anni; non per questo è stato postulato che l'analisi e la riflessione su di sé costituiscano un ulteriore passo evolutivo. Per fare un pa­ rallelo col campo dell'azione, l'abilità motoria di suonare il pianoforte viene certamente acquisita dal bambino in un tempo posteriore a quella di schiacciare un pulsante, ma non per questo può essere considerata a un livello gerarchico più alto. È una specializzazione motoria, un particolare struttu­ rarsi di una serie di competenze di base, non lo svilupparsi di una capacità più essenziale, che poi possa fungere da pa­ radigma di confronto con altri tipi d'azione, se non addirittu­ ra soppiantarli Più complesso non vuol dire più importante, o più fondamentale. Il secondo punto è che il pensiero non è costituito da una serie di procedure astratte, indipendenti dal dominio, ma da un insieme di modelli specifici per l'area d'applicazione, che utilizzano processi di elaborazione caratteristici per quel ti­ po di modello. Ciò che accomuna i diversi processi di pensie­ ro è il loro svolgersi realizzando una serie di principi genera­ li che, in sintesi, sono: interpretazione, integrazione, falsifi­ cazione. Il nostro approccio si pone esplicitamente in contrasto sia con la scuola rappresentata tipicamente da McCarthy (McCarthy, Hayes, 1 969) in Intelligenza Artificiale, in quanto non pensiamo che le abilità cognitive umane possano essere modellate con una logica classica, sia contro le assunzioni di base dell'epistemologia genetica di Jean Piaget, in quanto as­ sumiamo che il pensiero formale non sia uno stadio evoluti324

vo superiore, né che possa servire utilmente da schema di ri­ ferimento per gli altri tipi di pensiero. Esperimenti diversi e nuove simulazioni sono ovviamente necessari per confortare l'ipotesi dei modelli mentali e per affrontare con successo i suoi punti deboli, come il rischio di frammentare eccessivamente i processi di pensiero, renden­ doli troppo dipendenti dalla specifica area di applicazione. I suoi punti di forza, la coerenza interna e la capacità di affrontare con l'identica struttura la complessità del pensie­ ro, sono comunque sufficienti per continuare sulla linea dei modelli mentali che stiamo seguendo.

RIFERIMENTI BIBLIOGRAFICI Airenti, G., Bara, B.G. e M. Colombetti

(1982), Semantic network re­ presentation of conceptual and episodic knowledge, in R. Trappl, N.V. Findler e W. Horn (a cura di), Progress in Cyberne­ tics and System Research, IX, Hemisphere, Washington, pp. 327335. Bara, B.G., Carassa, A. e G. Geminiani (1984), Inference processes in everyday reasoning, in l. Plander (a cura di), Artificial intelligen­ ce and information-control systems of robots, North-Holland, Amsterdam, pp. 87-90. Bara, B.G., Carassa, A., e G. Geminiani (1987), Il ragionamento in un'ottica computazionale, in "Ricerche di psicologia", 3, pp. 93122. Boolos, G.S. e R.C. Jeffrey (1980), Computability and logic, Cam­ bridge University Press, Cambridge. Evans, J. St. B.T. (1982), The psychology of deductive reasoning, Routledge and Kegan Paul, London. Gentner, D. e A.L. Stevens (a cura di) (1953), Menta[ models, Law­ rence Erlbaum Associates, Hillsdale (N.J.). Johnson-Laird, P.N. (1983), Menta[ models, Cambridge University Press, Cambridge. Johnson-Laird, P.N. e B.G. Bara (1984), Syllogistic inference, in "Co­ gnition", 16, pp. 1-61. Kneale, W. e M. Kneale (1962), The development of logic, Clarendon Press, Oxford. McCarthy, J. e P.J. Hayes (1969), Some philosophical problems from the standpoint of artificial intelligence, in B. Meltzer, D. Michie (a cura di), Machine Intelligence, Edinburgh University Press, Edinburgh. McDermott, D. e J. Doyle (1980), Non monotonic logic, in "Artificial Intelligence", 13, pp. 41-72. Piaget, J. (1969), Logica e psicologia, La Nuova Italia, Firenze. Pylyshyn, Z. (1984), Computation and cognition, Cambridge Univer­ sity Press, Cambridge. 325

Reiter, R. (1980), A logic for default reasoning, in "Artificial Intelli­ gence", 13, pp. 81-132. Simon, H.A. (1983), Reason in human affairs, Stanford University Press, Stanford (Ca.) (trad. it. La ragione nelle vicende umane, Il Mulino, Bologna 1984). Turing, A. (1950), Computing machinery and intelli,gence, in "Mind", 59 (trad. it. in V. Somenzi [a cura di], La filosofia degli automi, Boringhieri, Torino 1965). Zadeh, L.A. (1975), Fuzzy logic and approximate reasoning, in "Syn­ these", 30.

326

Senso dell'io di Domenico Parisi

C'è qualcosa che gli esseri umani hanno e che si può chia­ mare "senso dell'io". Come dovrebbe essere fatta una mac­ china perché si possa dire che ha senso dell'io ? Quali sue prestazioni giustificherebbero l'attribuzione alla macchina di un senso dell'io? Una delle prove che gli esseri umani hanno senso dell'io è che sanno produrre frasi che contengono la parola "io". Quindi, il problema sarebbe quello di costruire macchine che producano frasi contenenti la parola "io". Naturalmente, il fatto di produrre frasi con la parola "io" può essere visto come un criterio puramente operazionale del possesso di un senso dell'io, mentre possedere tale senso dell'io andrebbe ben oltre la capacità di produrre frasi con la parola "io". Tuttavia, come si vedrà, il saper produrre frasi con la parola "io", se esteso a tutta la varietà di casi in cui l'essere umano è capace di produrre questo tipo di frasi, ci fa entrare abba­ stanza dentro a cosa significa possedere un senso dell'io. Cosa vuol dire "produrre" una frase ? Non è certamente soltanto produrre dei suoni, cioè i suoni della frase. Questo anche un registratore o un disco lo sanno fare. Significa pro­ durre questi suoni volendo comunicare delle idee o cono­ scenze mediante quei suoni. Una macchina di questo tipo è fatta di due parti. Una parte è un sistema per estrarre da un deposito di conoscenze un insieme di conoscenze esprimibili con una frase ben formata di una data lingua e per seleziona­ re le parole adatte a esprimere questo insieme di conoscen­ ze. (Un sistema del genere è GEMS. Vedi Parisi e Giorgi, 1 985.) Questo è un sistema che sa come dire le cose (cioè come dirle 327

in modo linguisticamente corretto), ma non sa cosa dire. La seconda parte della macchina che produce frasi è un sistema guidato da scopi e che sceglie cosa dire in base ai suoi scopi: la frase è prodotta in vista di uno scopo specifico che la mac­ china ha in quel momento. Poniamo che una macchina del genere sia stata costruita. Una tale macchina non si può dire che di per sé abbia senso dell'io. Mettiamo allora che tra le frasi che la macchina pro­ duce vi siano anche frasi che contengono la parola "io". Che differenza fa? Vediamo innanzitutto cosa vuol dire produrre frasi che contengono la parola "io". Noi esamineremo solo un caso particolare di produzione di frasi contenenti la parola "io", il caso in cui la macchina produce tali frasi in risposta a do­ mande di informazione sull'entità chiamata "io". Si tenga tuttavia presente che vi sono altri usi delle frasi contenenti la parola "io", o anche prive di tale parola, che andrebbero esaminati per illuminare il concetto di senso dell'io. Poniamo che alla macchina venga chiesto: "Dove è nato Franco ?", e la macchina risponda: "Franco è nato a Berga­ mo." Per rispondere a questa domanda la macchina cerca l'informazione nel suo deposito di conoscenze, che è concepi­ to come un irtsieme di "nodi" che rappresentano entità e di "archi" che si dipartono da questi nodi e che rappresentano le conoscenze che la macchina ha su ciascuna entità. La mac­ china ha un particolare nodo che rappresenta l'entità Franco e attaccata a questo nodo ha la conoscenza che tale entità è nata a Bergamo. La domanda contiene una parola (''Franco") che consente alla macchina di individuare il nodo di Franco fra i tanti nodi contenuti nel suo deposito di conoscenze. Questo è possibile perché tra le conoscenze attaccate al nodo vi è anche la conoscenza che per riferirsi a quel nodo si può usare la parola "Franco". Trovato il nodo e trovata, attaccata ad esso, la conoscenza richiesta, la macchina dà la sua ri­ sposta. Consideriamo ora la domanda "Dove sei nato ? " Poniamo che la macchina abbia un particolare nodo individuabile me­ diante un segnale linguistico quale la seconda persona singo­ lare del verbo (''sei") o, in altri casi, mediante una parola co­ me "tu". A questo nodo è attaccata la conoscenza che l'entità rappresentata dal nodo è nata a Roma. A questo punto, alla domanda "Dove sei nato? " la macchina reagisce trovando il nodo in questione mediante il segnale linguistico contenuto nel verbo "sei", e trovando attaccata a questo nodo la cono­ scenza che tale entità è nata a Roma. Quindi produce la frase "lo sono nato a Roma". Questa seconda frase contiene la pa328

rola "io". Ma la produzione di questa frase non pone proble­ mi particolari rispetto all'esempio precedente, quello di Franco. Alla domanda "Dove è nato Franco ? " la macchina ri­ sponde usando la parola "Franco ", cioè la stessa parola che era stata usata nella domanda per consentire alla macchina di individuare il nodo di Franco. Nel caso di "Io sono nato a Roma" la macchina usa la parola "io" per indicare il nodo che ha trovato mediante la parola "sei" contenuta nella do­ manda. La sola differenza è che nel caso dei normali nodi la macchina sa ·che può usare nella sua risposta la stessa paro­ la usata nella domanda: "Franco". Nel caso del particolare nodo di cui stiamo parlando la macchina sa che questo non è possibile. Nella domanda il nodo in questione è indicato con "tu" o la seconda persona singolare del verbo, mentre nella risposta della macchina questo nodo deve essere indicato con la parola "io" o la prima persona singolare del verbo. Questa differenza è interessante e può porre interessanti problemi per una macchina che debba imparare a trattare linguisticamente in modo diverso questo nodo rispetto agli altri. Tuttavia, una macchina che produca la parola "io" nel­ le circostanze che abbiamo detto non si può ancora dire in alcun modo che abbia senso dell'io. Consideriamo ora un'estensione della macchina. La mac­ china possiede una capacità inferenziale, in base alla quale, data una o più conoscenze, può generare internamente una conoscenza nuova. Poniamo che la richiesta di informazione riguardi una conoscenza che la macchina non ha già bella e pronta attaccata al nodo. Tuttavia, S(:! la macchina ha capaci­ tà inferenziale, la conoscenza può essere generata intera­ mente e la risposta può essere data ugualmente. Questo può avvenire sia per i normali nodi che per il particolare nodo che la macchina deve indicare usando la parola "io". Anche se la macchina sa produrre frasi contenenti la parola "io" ba­ sandosi su conoscenze inferite e non già possedute, nulla ci autorizza a dire che la macchina ha senso dell'io. Finora produrre frasi contenenti la parola "io" non pre• suppone nessuna capacità più complessa del semplice pro­ durre frasi, e quindi non sembra che abbia molto senso dire che basta che una macchina sappia produrre frasi con la pa­ rola "io" per dire che la macchina ha senso dell'io. Una qual­ che capacità più complessa sembra implicata se la macchina deve produrre frasi con la parola "io" nel discorso diretto: "Franco ha detto: 'lo ... "' In questo caso la parola "io" non può essere una parola che il sistema usa per riferirsi a un singolo specifico nodo nel suo deposito di conoscenze. Tutta­ via, anche se l'uso di "io" nel discorso diretto complica le co329

se e richiede capacità aggiuntive, non sembra ancora che una macchina capace di usare la parola "io" nel discorso di­ retto abbia solo per questo un senso dell'io. La strada da seguire per arrivare al senso dell'io parten­ do dal linguaggio è un'altra. Si consideri la questione dell'o­ rigine della conoscenza usata dalla macchina nel dare la sua risposta. Noi abbiamo visto finora due casi: A. La conoscenza è già attaccata al nodo B. La conoscenza non è attaccata al nodo ma la macchina la ge­ nera internamente inferendola dalle conoscenze già esi­ stenti.

Come abbiamo visto, questi due casi non differenziano tra le frasi contenenti la parola "io" e le altre frasi, almeno dal punto di vista che ci interessa, cioè stabilire se le frasi del primo tipo presuppongano un senso dell'io. Ma vi sono altre origini delle conoscenze usate nel rispondere alle do­ mande. Ad esempio, alla domanda "Che ora è ? " si risponde di regola usando una conoscenza che non rientra né nel caso A né nel caso B. Si risponde infatti guardando l'orologio. Ab­ biamo cioè una terza origine delle conoscenze: le conoscenze vengono acquisite attraverso la percezione esterna, cioè C. La conoscenza non è attaccata al nodo ma la macchina la ac­ quisisce attraverso la percezione esterna.

Il caso C si ha prevalentemente con frasi che non conten­ gono la parola "io". Tuttavia, anche frasi che contengono la parola "io" possono rientrare nel caso C. Ad esempio: "Di che colore Luisa ti ha dipinto le unghie ?" Risposta della macchi­ na che si guarda per la prima volta le unghie: "lo ho le un­ ghie dipinte di blu." Questo indica che anche il caso C non differenzia tra frasi con e senza la parola "io" e quindi non ci è di aiuto per definire il senso dell'io. Tuttavia la situazione C introduce qualcosa di nuovo che vale la pena di essere notato. Perché la macchina possa pro­ durre frasi con la parola "io" nel caso C la macchina deve avere un "corpo", uno hardware. Si consideri che questo non era vero nei casi A e B. In questi due casi la macchina, il si­ stema, poteva non avere un corpo, uno hardware, tranne nel senso che la mente del sistema, il suo software, deve essere necessariamente incorporato in uno hardware per girare. Nel caso C, invece, il sistema deve possedere un corpo e lo deve possedere per due ragioni. La prima ragione è che per poter acquisire conoscenze attraverso la percezione esterna, la macchina deve essere dotata di organi di senso, cioè di 330

qualcosa di fisico (hardware) capace di trasformare materia/ energia in informazione (percezione). Questo è vero per il ca­ so C in tutte le circostanze, cioè sia quando il caso C è la ba­ se per produrre frasi senza la parola "io" che quando è la ba­ se per produrre frasi con la parola "io". Le frasi di questo se­ condo tipo, tuttavia, comportano un'altra ragione per cui è necessario che il sistema abbia un corpo. Per produrre frasi con la parola "io" nel caso C il sistema deve avere un corpo perché è tale corpo che deve essere visto, sentito, toccato dal sistema per acquisire le conoscenze da usare nelle risposte. Ma anche se il caso C è interessante per queste implicazioni riguardanti la necessità che il sistema abbia un corpo, tutta­ via resta vero che un sistema che produca frasi con la parola "io" nel caso C non ci dice ancora molto sul senso dell'io. Ma consideriamo altre due possibili origini delle cono­ scenze usate come base per produrre frasi contenenti la pa­ rola "io". Questi due nuovi casi secondo noi hanno un signifi­ cato critico per la questione del senso dell'io. Il primo caso è quello della percezione interna. Il sistema non solo ha un corpo, uno hardware, ma ha degli organi di senso interni che acquisiscono informazioni su questo corpo. D. La conoscenza non è attaccata al nodo ma la macchina la ac­ quisisce attraverso la percezione interna.

Nel caso C abbiamo parlato di percezione esterna; ora parliamo di percezione interna. Cosa vuol dire "esterno/in­ terno ?" La risposta è semplice. Diciamo che è esterna una percezione quando è accessibile a più sistemi. Acquisire co­ noscenze su questo tavolo o sulla mia mano è qualcosa che più sistemi diversi possono fare. Invece diciamo che una per­ cezione è interna quando è accessibile solo a un singolo si­ stema. Soltanto Franco può avere accesso al suo mal di sto­ maco, o alla sua sensazione di avere il braccio sollevato in alto. È evidente che le percezioni interne sono conoscenze che riguardano il corpo dello stesso sistema che acquisisce le conoscenze. Anzi si potrebbe dire che per il sistema il suo corpo - un nodo tra gli altri nel suo deposito di conoscenze - è almeno in parte ciò su cui acquisisce conoscenze me­ diante la percezione interna, cioè la percezione riservata a lui. La nostra impressione è che per la prima volta siamo di­ sposti a dire che un sistema che produca frasi contenenti la parola "io" nel caso D, cioè frasi basate su conoscenze acqui­ site mediante la percezione interna, ha senso dell'io. Si badi che non basta avere percezione interna per avere senso del­ l'io, ma bisogna saper produrre frasi contenenti la parola 331

"io" basate sulla percezione interna. Questo è importante per spiegare perché agli animali escluso l'uomo siamo meno di­ sposti a riconoscere un senso dell'io, benché essi con tutta probabilità abbiano una percezione interna. Ma gli animali non parlano. Ma vi è un'ultima possibile origine delle conoscenze che, a nostro parere, ha un ruolo nel definire il senso dell'io del sistema. Noi abbiamo usato la distinzione comune tra soft­ ware e hardware. Le conoscenze del caso D sono conoscenze sul corpo del sistema, sul suo hardware. Noi assumiamo che un sistema possa acquisire conoscenze anche sul suo softwa­ re, e che possa produrre frasi contenenti la parola "io" anche in questa nuova situazione: E. La conoscenza non è attaccata al nodo ma la macchina la ac­ quisisce esaminando il suo proprio software.

Si badi che questa situazione non ha nulla a che fare con il caso B, quella in cui il sistema genera una nuova conoscen­ za sulla base delle conoscenze già contenute nel suo deposito di conoscenze. Questo implica una distinzione abbastanza netta all'interno del software del sistema tra il contenuto del deposito di conoscenze del sistema e il resto del suo softwa­ re. Nel caso B il sistema resta all'interno del suo deposito di conoscenze: mediante la capacità di inferenza genera una co­ noscenza nuova sulla base delle conoscenze già presenti nel deposito. Nel caso E il sistema esce dal suo deposito di cono­ scenze ed esamina il suo sofware che sta fuori di tale deposi­ to e da questo esame ricava delle conoscenze nuove su tale suo software (ad esempio sui suoi scopi, capacità, limiti, sta­ to presente, operazioni appena compiute, in via di svolgi­ mento, pianificate, ecc.). In un certo senso il caso E è simile ai casi C e D visti in precedenza, quelli della percezione (esterna e interna). In tutti questi casi, il sistema esce dal suo deposito di conoscenze e va ad acquisire conoscenze fuori di esso. La differenza tra i casi C e D, da un lato, e il nuovo ca­ so E che stiamo descrivendo, è che nei casi C e D il sistema acquisisce conoscenze mediante la percezione (trasformazio­ ne da materia/energia a informazione), e dal punto di vista che ci interessa, acquisisce conoscenze sul proprio corpo (hardware), mentre nel caso E le conoscenze sono acquisite non mediante la percezione (non ci sono organi di senso né trasformazione di materia/energia in informazione) e le co­ noscenze acquisite sono sulla mente stessa (software), non sul corpo del sistema. Se un sistema è capace di produrre frasi contenenti la pa­ rola "io" basandosi su conoscenze acquisite nella situazione 332

E, questo è un altro caso in cui si può dire che il sistema ha senso dell'io. Si osservi che mentre agli animali si può attri­ buire la percezione interna, è più difficile attribuire loro la capacità di acquisire conoscenze sul proprio stesso software. Tuttavia, anche in questo caso preferiremmo dire che un si­ stema ha senso dell'io soltanto se, oltre a essere capace di acquisire conoscenze sul proprio stesso software, è anche ca­ pace di esprimere queste conoscenze mediante frasi conte­ nenti la parola "io". Abbiamo parlato, descrivendo i casi C, D e E, di acquisi­ zione di conoscenze che vengono attaccate al nodo cui il si­ stema si riferisce linguisticamente con la parola "io". Ma co­ me fa il sistema a sapere che una conoscenza acquisita è una conoscenza da attaccare a quel nodo ? Nel caso E, quello del­ le conoscenze riguardanti il proprio software, si può dire che qualunque conoscenza acquisita direttamente su un soft­ ware è necessariamente una conoscenza acquisita sul pro­ prio software, dato che il proprio software è l'unico softwa­ re su cui un sistema può acquisire conoscenze direttamente. Ovviamente, il termine critico in questa formulazione è il termine "direttamente". Nel caso D, quello della percezione interna, abbiamo già detto che ogni conoscenza proveniente dagli organi di senso interni (cioè accessibili al solo sistema che li ha) è automati­ camente conoscenza sul proprio corpo. (Qui stiamo assumen­ do che il proprio corpo e il proprio software siano uno stes­ so nodo all'interno del deposito di conoscenze del sistema. Più probabilmente si tratta di due nodi distinti ma collegati.) Nel caso C, quello della percezione esterna del proprio corpo, probabilmente valgono le regole generali usate nella percezione esterna per attaccare a uno stesso nodo varie co­ noscenze percettive (es. continuità spaziale) e in più, per ren­ dersi conto che il proprio corpo non è solo un corpo unita­ rio, ma è anche il corpo proprio, valgono criteri del tipo "quello che riesco a muovere direttamente è il mio corpo" o "quello che se stimolato dall'esterno, produce in me certe sensazioni, è il mio corpo". Concludendo, emergono due criteri per attribuire un sen­ so dell'io a un sistema, sia esso naturale o artificiale. Prima di tutto un senso dell'io può essere attribuito non semplice­ mente a un sistema che ha conoscenze su di sé ma solo a un sistema che è capace di acquisire conoscenze su di sé - sul 333

proprio corpo o sulla propria mente. Noi potremmo costrui­ re una macchina e mettere nel suo deposito di conoscenze tra le altre conoscenze anche alcune conoscenze sulla mac­ china stessa. Ma in queste circostanze non saremmo disposti a dire che la macchina ha un senso dell'io. Se invece la mac­ china ha la capacità di esplorare spontaneamente il suo hardware e il suo software e di acquisire autonomamente nuove conoscenze su di sé - conoscenze legate alle attività della macchina e ai cambiamenti che ne risultano nella mac­ china - allora potremmo cominciare a dire che la macchina ha un senso dell'io. Un secondo criterio per parlare di senso dell'io è che la macchina deve essere capace di esprimere queste conoscen­ ze acquisite su di sé mediante frasi contenenti la parola "io". Perché riteniamo che il senso dell'io deve essere legato alla capacità di parlare ? Saper usare il linguaggio (umano) ri­ chiede che ciò che il sistema sa sia rappresentato a un livello che viene usualmente chiamato "concettuale". Il problema per il sistema è di essere capace di tradurre le conoscenze acquisite sui propri hardware e software in concetti. Natu­ ralmente, quello che bisogna fare è definire precisamente co­ sa è un concetto e quali sono le proprietà di quel particolare modo di rappresentazione delle conoscenze che chiamiamo concettuale. In ogni caso è per questa ragione che saper pro­ durre la varietà di frasi con la parola "io" che abbiamo di­ scusso in questo lavoro e di cui gli esseri umani sono capaci, non è semplicemente un criterio operazionale per attribuire un senso dell'io a un sistema ma è qualcosa di più profondo.

334

Conoscenza visiva e rnotoria di Pietro Morasso e Vincenzo Tagliasco

Introduzione La tendenza a usare tecniche e metodologie tipiche del­ l'Intelligenza Artificiale e dell'informatica per studiare il cervello umano può essere attribuita alle difficoltà incontra­ te dalla neurofisiologia nel descrivere tale complesso siste­ ma di elaborazione di informazioni, che non può essere ana­ lizzato come una semplice estrapolazione delle proprietà dei suoi componenti elementari. Attualmente si tende ad aggre­ gare il sapere, a studiare algoritmi e teorie relative al funzio­ namento del cervello umano piuttosto che cercare di descri­ verne i componenti e i meccanismi di base. Scriveva David Marr: "La natura dei processi computazionali che stanno al­ la base della percezione dipendono più dall'essenza dei pro­ blemi computazionali che devono essere risolti che dal parti­ colare hardware con cui le relative funzioni vengono imple­ mentate" (Marr, 1 982). Esiste un'interazione bidirezionale tra neuroscienza e In­ telligenza Artificiale: la neuroscienza richiede metodi com­ putazionali per rappresentare e aggregare l'enorme quantità di dati coinvolti anche nel più semplice atto di coordinazione visuo-motoria e, d'altra parte, l'Intelligenza Artificiale richie­ de un continuo test di affidabilità, ossia un paragone siste­ matico con il funzionamento e le competenze dell'organismo umano. In termini filosofici, dal momento che è probabile che l'interazione bi-direzionale tra neuroscienza e Intelligen­ za Artificiale si sviluppi con una lunga costante di tempo, sembra ragionevole ipotizzare che il classico principio inge­ gneristico - secondo il quale il "miglior" modo di capire un sistema intelligente consiste nel costruire una struttura atta 335

a funzionare come il sistema originale - potrebbe costituire un'efficace tecnica di simulazione del complesso meccani­ smo che sta alla base del funzionamento del cervello. Secon­ do questo approccio, uno dei modi per formulare precise teorie potrebbe essere quello di mettere a punto modelli computazionali. Per esempio, il numero delle operazioni ri­ chieste per eseguire compiti come il riconoscimento visivo di oggetti tridimensionali è così grande che, forse, il solo modo per accertarsi della validità di un modello è quello di "imple­ mentarlo" attraverso la stesura di un programma da far "gi­ rare" su un calcolatore per verificare che il programma ese­ gua veramente il compito richiesto: un efficiente modello computazionale relativo al funzionamento di un certo compi­ to si identifica con una possibile teoria di come il cervello stesso esegue quel compito. Per questi motivi uno dei capitoli più affascinanti dell'In­ telligenza Artificiale concerne la Rappresentazione della Co­ noscenza. Questa si riferisce prevalentemente agli obiettivi e al funzionamento "globale" di un sistema piuttosto che agli specifici meccanismi che lo compongono: nel fare questo la conoscenza del sistema subisce un processo di generalizza­ zione e astrazione poiché è evidente che spesso la stessa fun­ zione e lo stesso obiettivo possono essere realizzati con mec­ canismi e strutture molto diversi l'uno dall'altro. Tale pro­ cesso di astrazione e di generalizzazione può risultare - re­ lativamente - poco interessante per il neuroscienziato (che può trovare in un modello di rappresentazione della cono­ scenza solo suggestive razionalizzazioni) ma a volte può esse­ re determinante per un costruttore di macchine in quanto egli può basarsi su tali modelli per progettare un robot con "abilità" antropomorfe senza essere limitato nel doversi ispi­ rare rigorosamente allo hardware umano che, peraltro, si co­ nosce pochissimo. Inoltre l'estrema articolazione e ricchezza delle prestazio­ ni umane non può essere completamente capita se non pren­ diamo in considerazione la stretta interazione tra l'operatore umano e l'ambiente che lo circonda. La relazione operatore/ ambiente può essere rappresentata da un tetraedro, i cui vertici sono: azione, percezione, cognizione e ambiente; ogni vertice del tetraedro è collegato a tutti gli altri mediante op­ portuni flussi di informazione e/o energia. Importanti contri­ buti teorici sono già stati forniti da parecchi autori su alcu­ ne delle interazioni precedentemente citate; tuttavia questo tipo di conoscenza rimane sostanzialmente a livello concet­ tuale e non fornisce gli strumenti computazionali per esegui­ re, coerentemente con le premesse, esperimenti "globali", sia 336

nel mondo reale che in quello simulato. Solo in questi ulti­ mi anni si sta rendendo disponibile tutta una serie di stru­ menti metodologici che trattano delle relazioni logiche-spa­ ziali-temporali che sono alla base della complessità della in­ tegrazione visuo-motoria. Pertanto, attualmente, nello studio dei sistemi neuromo­ tori e neurosensoriali uno degli approcci possibili è quello ispirato all'ingegneria della conoscenza, intesa come Intelli­ genza Artificiale applicata. In tale contesto si privilegia la natura dei processi computazionali che sottostanno alle 'prestazioni' percettive e motorie, ossia si mette in evidenza - come per qualunque altro sistema complesso di elabora­ zione di informazioni - che cosa deve essere calcolato e perché. Da questo punto di vista, la prima ipotesi che si può formulare è l'intrinseca unitarietà del sistema percetti­ vo e di quello motorio, al di là delle rispettive specificità, su cui invece si è concentrata la massima parte dei lavori sperimentali e teorici. In altri termini, deve esistere uno "spazio computazionale" comune, su cui possano essere proiettate sia le acquisizioni percettive che gli schemi moto­ ri. E questo è proprio il campo in cui l'ingegneria della co­ noscenza potrà dare un contributo decisivo, con lo scopo di pervenire a una teoria della "competenza visuo-motoria". Esistono vari livelli nell'analisi della comprensione del­ l'immagine e del movimento, corrispondenti ad approcci metodologici di tipo top-down oppure bottom-up. Tuttavia è al livello più alto, ossia a livello del "modellamento cogniti­ vo", che si possono mettere in particolare evidenza gli aspetti comuni alla visione e al movimento; per esempio, metodologie tipiche dell'Intelligenza Artificiale (che rivolgo­ no particolare attenzione alla conoscenza a priori) possono condurre, nel caso della visione, a ottenere modelli dell'am­ biente e dei fenomeni fisici di base a esso correlati per co­ struire descrizioni di oggetti basate sulla funzione e sulla geometria di tali oggetti. Nel caso dell'analisi del movimen­ to, lo stesso approccio può suggerire la costruzione di de­ scrizioni di sequenze motorie in grado di gestire gli effetti del contesto. Inoltre bisogna sottolineare che un programma di com­ prensione dell'immagine costruisce una descrizione non so­ lo dell'immagine ma anche della scena cui si riferisce. Nelle prime applicazioni dell'Intelligenza Artificiale alla visione il termine "analisi di scene" è stato sovente impiegato per sot­ tolineare la differenza tra lo studio di immagini bi-dimen­ sionali (denominato pattern recognition) e l'analisi di scene tri-dimensionali. La comprensione delle immagini, oltre a 337

sofisticate tecniche di elaborazione di immagini, richiede una conoscenza a priori del "mondo dei compiti".

Movimento umano, cibernetica e Intelligenza Artificiale I movimenti umani sono strutture complesse che non possono essere interpretate esclusivamente attraverso le leg­ gi della fisica anche se esse sono determinate e condizionate dalla fisica in ogni loro dettaglio. Le traiettorie di una pietra, lanciata mediante un movi­ mento coordinato del braccio, possono essere spiegate usan­ do le leggi fondamentali della fisica applicate al particolare esperimento. La complessità della descrizione è una funzio­ ne del livello di dettaglio/precisione che, come osservatori del fenomeno, vogliamo ottenere: potremmo accontentarci delle spiegazioni offerte dalla meccanica elementare, che considera la pietra lanciata come una massa puntiforme, o potremmo migliorare (e complicare) ulteriormente la nostra conoscenza del fenomeno prendendo in considerazione la termodinamica, i fenomeni a livello molecolare e atomico, e così via. Tuttavia, se il livello di precisione/dettaglio che de­ sideriamo è quello che caratterizza l'esperienza di tutti i giorni, allora il modello più efficace relativo al sasso lancia­ to è quello di una massa puntiforme, mentre il moto del sas­ so può essere perfettamente compreso nell'ambito della mec­ canica elementare newtoniana. Al contrario, il corpo umano è un oggetto molto più com­ plesso, anche allo stesso livello empirico di dettaglio: a tale livello un modello plausibile si identifica con una "marionet­ ta articolata". Il grado di complessità di tale modello può es­ sere misurato dal numero di gradi di libertà, che è vicino al centinaio. Anche la "banale" applicazione della meccanica élementare newtoniana a tale oggetto meccanico dà luogo a una formulazione sorprendentemente complessa che, in ogni caso, ci aiuta a capire assai poco i movimenti umani. Infat­ ti, esiste una significativa differenza tra il capire il movimen­ to di un sasso (o quella di un oggetto più complicato, come può essere una marionetta ballonzolante) e il movimento del corpo umano (o di una marionetta animata da un bravo arti­ sta). In ciò consiste proprio la differenza tra il punto di vista della fisica e il punto di vista della cibernetica. Nel primo caso si parte dall'insieme delle forze che agi­ scono su un corpo, che sono considerate note (gravità, attri­ to, ecc.) e si cerca di spiegare il movimento risultante: qual è la traiettoria del sasso dopo che l'ho lanciato ? Secondo l'ap338

proccio "fisico" l'enfasi maggiore è messa sull 'energia e sulla dinamica. L'approccio cibernetico è l'opposto: esso parte dalla defi­ nizione dell'obiettivo (la traiettoria desiderata) e quindi cer­ ca di " indurre" il sistema a realizzare tale obiettivo, utiliz­ zando possibilmente varie tecniche di controllo, sia di tipo feedback che di tipo feedforward. In questo caso viene sotto­ lineata l'importanza dell'informazione piuttosto che dell'e­ nergia: informazione sensoriale, informazione motoria, ela­ borazione dell'informazione, rappresentazione astratta delle strutture che effettuano tale elaborazione. L'approccio ciber­ netico conduce logicamente, come d'altra parte è avvenuto storicamente, ad affrontare due classi principali di temati­ che: a) tematiche legate alla teoria dei Controlli Automatici, come la stabilità, l'osservabilità, la controllabilità - che si riferiscono principalmente alla "realizzazione" di un partico­ lare comportamento - e b) tematiche legate all'Intelligenza Artificiale che sono centrate attorno al problema della Rap­ presentazione della Conoscenza (eterno dualismo tra legge e libertà). Anche se quest'ultimo argomento sta coinvolgendo un nu­ mero elevato di ricercatori, specie in questi ultimi anni, poco è stato fatto per comprendere i movimenti umani, al fine di pervenire a una teoria della "Conoscenza Motoria". Noi rite­ niamo che per operare in questa direzione occorra basarsi su due ipotesi di lavoro: a) potrebbe essere opportuno separare gli aspetti fisici, controllistici da quelli relativi alla "conoscenza" dei movi­ menti umani; b) il livello della "conoscenza" potrebbe risultare quello più appropriato per capire il movimento e padroneggiarne la complessità. Si deve, d'altronde, ricordare che la nozione di conoscen­ za motoria è ben lungi dall'essere astratta; è "computaziona­ le" nell'accezione adottata da Marr. Inoltre, i possibili utenti di tale approccio sono distribuiti tra le aree culturali, scien­ tifiche e tecniche più disparate: neuroscienza, sport, danza, scienza della riabilitazione, studio del sistema motorio nel­ l'età evolutiva, animazione col calcolatore, robotica. Ad esempio, il problema della rappresentazione e notazione del movimento è, fondamentalmente, lo stesso sia che si tratti di scrivere la coreografia di un balletto, il programma di un umanoide animato per mezzo di un calcolatore, il program­ ma relativo al controllo di un manipolatore meccanico oppu­ re di descrivere - in modo simbolico - il movimento di un bambino o di un disabile motorio. Come corollario di questo 339

punto di vista non si può fare a meno di privilegiare gli aspetti geometrici e cinematici dei movimenti dell'uomo, trascurando ciò che accade a livello delle articolazioni e dei muscoli. Secondo questa linea di pensiero, la conoscenza motoria si riferisce prevalentemente alla "forma" cioè alla struttura nello spazio e nel tempo. Ciò suggerisce un paral­ lelo, o meglio una possibile associazione, della conoscenza motoria con la visione e con le tecniche di modellamento geometrico, che sono considerati usualmente degli argomen­ ti non correlati tra loro. Per esempio, l'associazione tra for­ ma e movimento è ovvia nella scrittura poiché il risultato del movimento, ossia il "manoscritto", è una entità geome­ trica visibile; tuttavia, tale associazione è più generale, è al­ la base di ogni tipo di comportamento motorio volontario, come afferrare oggetti, farli interagire tra loro, muoversi tra di essi, ecc. L'aspetto "computazionale" caratterizza il nostro tentati­ vo di delineare una plausibile teoria della "conoscenza mo­ toria": l) in un senso (quello relativo al problema di pervenire a dei modelli che "girino" su calcolatore) ci riferiamo al siste­ ma motorio come a un sistema di elaborazione dell'informa­ zione caratterizzato da diversi livelli di rappresentazione e dalle loro reciproche trasformazioni; 2) in un altro senso (quello metodologico) ci riferiamo al fatto che le metodiche generali proprie della conoscenza motoria, lungi dall'essere unicamente teoriche, possono es­ sere usate in diversi settori applicativi (danza, animazione, riabilitazione, ecc.) evitando l'impiego di metodi ad hoc che possono essere consolidati dall'uso ma spesso non soddisfa­ no i particolari requisiti delle discipline relative al movi­ mento.

Conoscenza motoria La semplicità globale del movimento (come appare "su­ perficialmente" a un osservatore) può venire correlata agli aspetti cognitivi del movimento stesso, che sottolineano il ruolo del corpo intero come uno strumento per realizzare un certo "compito". Per esempio, un compito del tipo "solle­ vare qualcosa", implica, per colui che deve pianificarlo, un interesse nel solo moto finale della mano e non nella coordi­ nazione tra tutte le articolazioni del braccio, del tronco e delle gambe (una coordinazione che può cambiare drastica­ mente la sua struttura per piccole variazioni delle condizio340

ni iniziali: ad esempio, la distanza dell'oggetto che deve ve­ nire sollevato). Da questo punto di vista, l'estrema complessità che sta al­ la base di ogni atto motorio si identifica col prerequisito di eseguire il compito senza obbligarlo a scegliere tra un nume­ ro troppo limitato di stereotipi motori. In altre parole, se si vuole affrontare, non solo qualitativamente, il problema del­ la complessità motoria, si può affermare che dominare tale complessità non consiste nel ridurre la dimensionalità (il nu­ mero elevato di variabili coinvolte) per mezzo di opportune sinergie - al fine di renderla gestibile da parte del sistema nervoso centrale (sNc)- quanto nel fornire al SNC una "mac­ china" cognitiva sufficientemente potente da portare a ter­ mine un generico compito motorio. La danza costituisce un esempio di un'attività motoria complessa che mette in particolare evidenza la natura "oli­ stica" del movimento, cioè, il fatto che l'interazione tra i vari processi motori è di gran lunga più importante e cruciale delle particolari operazioni effettuate da ciascuno di essi. La "notazione della danza" (Hutchinson, 1 984) costituisce un tentativo di esprimere attraverso simboli la natura olistica del movimento. Tuttavia questo approccio è ben lungi dal­ l'essere immediato, efficace e accettato universalmente. Ciò è dovuto non solo a ragioni oggettive (complessità del movi­ mento) ma anche a motivazioni "soggettive", poiché l'effica­ cia della notazione dipende soprattutto dall'utente o dalla comunità degli utenti della notazione stessa. È importante sottolineare che quanto si sta dicendo per la danza può risultare vero per qualsiasi tipo di attività mo­ toria eseguita nella vita di ogni giorno o nello sport. L'unica differenza consiste nel fatto che le motivazioni alla notazione - nel settore della danza - sono state più numerose, anche storicamente. Ovviamente, tra i differenti utenti della danza esistono vari collegamenti; nondimeno è evidente che un bal­ letto può rappresentare - nello stesso istante - aspetti di­ versi e perciò un sistema di notazione della danza dovrebbe essere in grado di trasferire il centro dell'attenzione da un ti­ po di rappresentazione all'altra con sufficiente facilità. Que­ sta abilità di gestire diversi schemi di rappresentazione dello stesso fenomeno è probabilmente interiorizzata nel "talento" e nell' "esperienza" di grandi coreografi e ballerini. L'elemento comune a tutti i sistemi storicamente certifi­ cati, è costituito dall'impiego del foglio di carta come sup­ porto su cui viene memorizzata la notazione. Il collo di botti­ glia è costituito proprio dalle limitazioni di tale mezzo che non è adeguato a ospitare la struttura multidimensionale 341

che caratterizza la performance motoria, a differenza di quan­ to avviene per la musica, che può venire memorizzata sulla carta abbastanza efficientemente. L'avvento del computer potrebbe cambiare completamen­ te il quadro di riferimento: il calcolatore è in grado di forni­ re un mezzo di rappresentazione multidimensionale, cioè un mezzo nel quale è possibile trasformare una rappresentazio­ ne in un'altra e nel quale è possibile variare a piacere la "grana" della rappresentazione stessa. Il porre l'enfasi sulle tecniche di trasformazione delle rappresentazioni multidi­ mensionali vuole costituire il nucleo di quello che potrebbe essere definito come l' "approccio computazionale" alla nota­ zione del movimento, cioè un approccio basato sulla molte­ plicità delle rappresentazioni e sulle trasformazioni tra esse; infatti esso dovrebbe essere qualcosa di profondamente di­ verso da una acritica "implementazione" su un calcolatore dei sistemi di notazione esistenti nell' "era preinformatica". La sfida per realizzare un progetto di notazione del movi­ mento di tipo computazionale è la stessa che bisogna racco­ gliere nel settore della "rappresentazione della conoscenza", che è una delle aree caratterizzanti l'Intelligenza Artificiale. Il tipo di conoscenza di cui stiamo parlando è quella relativa all'azione e al movimento (da noi denominato "conoscenza motoria"), e un sistema computazionale di notazione dovreb­ be risultare abbastanza potente per gestirla. I metodi di notazione della danza sono proliferati senza avere lo stesso successo della notazione musicale e le tecni­ che informatiche applicate direttamente a essa non hanno superato la prova fondamentale: la possibilità di generare dalla notazione una fluente performance motoria ottenuta "sinteticamente". È necessario mettere in particolare eviden­ za questo concetto perché caratterizza il nostro punto di vi­ sta in merito all'Intelligenza Artificiale: "Noi siamo in grado di affermare di avere capito alcuni aspetti dell'intelligenza umana quando il nostro modello di Intelligenza Artificiale è capace di emularla. " Per questo motivo riteniamo che l'abili­ tà di "passare" dalla notazione all'animazione non è sempli­ cemente un trucco per fanatici del calcolatore ma un obietti­ vo estremamente importante sia dal punto di vista epistemo­ logico che metodologico. Quali aspetti del movimento sono in grado di "giocare" lo stesso ruolo fondamentale che ha la "nota" in campo musica­ le ? Le risposte possono essere molto differenti. In generale, si può delineare un vasto spettro di risposte correlate al gra­ do di dettaglio della notazione: a un estremo dello spettro abbiamo delle notazioni molto "grossolane", caratterizzate 342

da rappresentazioni di tipo macroscopico, e, all'altro estre­ mo, abbiamo delle notazioni molto dettagliate che specifica­ no fenomeni molto "fini" come le singole rotazioni delle ar­ ticolazioni e/o le singole contrazioni muscolari. Il primo sistema di notazione rinascimentale elaborato da Domenico da Piacenza e dai suoi studenti è un esempio di una notazione di tipo conciso/macroscopico. Successiva­ mente la storia dei sistemi di notazione di danza si può in­ terpretare come un'evoluzione dal minore al maggiore det­ taglio (Hutchinson, 1 984). Un esempio di questo "trend" è offerto dal sistema mes­ so a punto da Eshkol e Wachman, in cui tutte le articolazio­ ni sono esplicitamente rappresentate da linee singole appar­ tenenti a una grande tabella (una specie di pentagramma). Il corpo umano viene interpretato come una figura a "baston­ cini" (stick figure), formata da arti e articolazioni, e la nota­ zione fornisce i simboli per specificare le rotazioni di cia­ scun segmento corporeo per ogni intervallo temporale. Tut­ tavia, anche questo non è il livello più elevato di dettaglio. Possiamo andare oltre nel descrivere la struttura microsco­ pica del movimento: per esempio, potremmo rappresentare le singole contrazioni dei vari muscoli o i pattern di attività delle unità motorie di ciascun muscolo, e éosì via. Nel tenta­ tivo di rappresentare sempre più in dettaglio il movimento forse ci potremmo considerare soddisfatti se riuscissimo a ottenere una fedele e completa replica di tutti gli eventi neuromuscolari che compongono un'azione. Tuttavia, la ten­ denza a ottenere ultrastrutture sempre più dettagliate, così ricca di prospettive nel settore della fisica nucleare, sembra costituire un "vicolo cieco" epistemologico nello studio del­ l'intelligenza e del comportamento "intenzionale". Marr, alla fine degli anni settanta, mise in evidenza sia nel settore della visione naturale che artificiale - l'im­ portanza cruciale di trattare simultaneamente rappresenta­ zioni "fini" e "grossolane", poiché ognuna di esse è carente in alcuni aspetti fondamentali (Marr, 1 982). Per rappresenta­ re un certo pattern di movimento può essere conveniente sottolineare alcune tipologie di eventi a livelli molto diffe­ renti: l) livello dei muscoli; 2) livello delle articolazioni; 3) livello spaziale (traiettorie degli arti nello spazio, ecc.); 4) livello dell'ambiente (correlazione della forma del mo­ vimento con la forma degli oggetti); 5) livello fisico (gravità, vincoli geometrici, ecc.); 343

6) livello dell'azione o del gesto (camminata, salto, ecc.). In altre parole, non solo abbiamo bisogno sia di una nota­ zione macroscopica (come quella di Domenico da Piacenza) sia di una notazione microscopica (come quella di Eshkol­ Wachman), ma dobbiamo anche poterle combinare insieme, dinamicamente. Il tipo di rappresentazione distribuita, a livelli multipli, che stiamo cercando di delineare ha altri aspetti abbastanza "curiosi". Se infatti riteniamo che la "figura a bastoncini" sia il nostro modello di riferimento e se il nostro fine è di "ani­ marla in modo naturale", il paradigma distribuito di control­ lo implica che le rotazioni delle singole articolazioni siano gli effetti della sovrapposizione di processi multipli e coope­ ranti a livelli differenti. Questo tipo di topologia funzionale è ben nota nel settore della neurofisiologia del sistema moto­ rio dove i motoneuroni alfa rappresentano il "percorso finale comune" per una grande famiglia di centri motori spinali e sovraspinali, che gestiscono i risultati di numerose e diffe­ renti tipologie di "computazione" . Perciò, l'uscita del sistema motorio, cioè l'insieme osservabile delle rotazioni dei seg­ menti corporei e/o delle contrazioni muscolari è il supporto meno indicato per creare un sistema di notazione motoria a causa del fatto che pattern d'uscita estremamente complessi possono costituire il risultato delle interazioni di processi motori anche semplici e regolari che agiscono a livelli diffe­ renti nella struttura gerarchica del sistema motorio. L'atto del camminare costituisce un esempio significativo, in cui una struttura superficiale molto complessa è soggetta a va­ riazioni dovute allo stile, al cambiamento del ritmo, alle con­ dizioni al contorno, ecc. In generale, come in altri settori della matematica, si do­ vrebbe tendere a delle "rappresentazioni ortogonali", in cui aspetti significativi di un fenomeno sono "catturati" indipen­ dentemente da diversi parametri rappresentati sui vari assi di uno "spazio" opportuno. La rappresentazione di un movimento come una succes­ sione di processi motori che interagiscono tra loro non è ov­ viamente unica. Differenti aggregazioni conducono allo stes­ so risultato, nello stesso modo per cui differenti programmi per calcolatore possono implementare la stessa procedura di calcolo. Tuttavia questo costituisce il grande vantaggio del­ l'approccio computazionale: esso dà l 'opportunità di usare rappresentazioni più o meno macroscopiche, o più o meno aggregate a seconda del particolare contesto in cui verranno utilizzate. Ad esempio, può essere utile procedere da tipolo­ gie di rappresentazione molto grossolane ad altre più fini 344

durante l'apprendimento o l'insegnamento; in generale, ave­ re la possibilità di trasformare una rappresentazione in un'altra, più o meno dettagliata, potrebbe rivelarsi una ca­ ratteristica estremamente utile. In ogni caso, per un certo contesto, un pattern motorio può venire rappresentato come un insieme ordinato di azio­ ni. Come si possono sincronizzare tali azioni tra di loro o ri­ spetto ad altri eventi esterni, quali gli eventi musicali ? Si possono esaminare tre tipi di sincronizzazione, tra le varie azioni, che possono essere correlati a concetti simili ben noti in robotica: l) sequenziale (perform action l, then action 2, ..., then ac­ tion n, una dopo il completamento dell'altra); 2) parallela (perform action l, and action 2, . .. and action n, tutto nello stesso tempo); 3) controllata (while condition perform action; wait unti[ condition, then perform action; ...). I primi due tipi presentano caratteristiche sincrone, men­ tre il terzo riflette differenti tipi di paradigmi asincroni. Un pattern d'azione complesso può venire scomposto in azioni più semplici collegate con operatori sincroni o asincroni; ta­ le azione può essere scomposta - a sua volta - in altri pat­ tern d'azione, finché non siano raggiunte primitive motorie (come quelle usate nella notazione Eshkol-Wachman). Sinteticamente si possono riassumere le argomentazioni precedenti dicendo che un pattern d'azione è, dal punto di vi­ sta logico, un albero, in cui l'azione principale è scomposta in sottoazioni, le sottoazioni sono scomposte in sotto-sottoa­ zioni e così via: in ciascun nodo sono presenti gli operatori di sincronizzazione precedentemente descritti e ciascun ra­ mo incorpora gli specifici attributi delle azioni. La performance reale è un processo in cui i nodi dell'al­ bero sono attivati/disattivati e i sottoalberi sono creati/di­ strutti secondo pattern temporali molto complessi. Come si può rappresentare tale processo ? Anche tale fase eidetica è lontana dall'essere unica. Con­ sideriamo i seguenti esempi: l) possiamo usare una presentazione legata al tempo, si­ mile alla notazione musicale, caratterizzando in qualche mo­ do alcune categorie selezionate di eventi; 2) possiamo visualizzare l'uscita globale dell'azione, usando tecniche di grafica computerizzata e/o di animazione per mezzo del calcolatore oppure riprendendo con la macchi­ na da presa la performance reale di un danzatore e possiamo scegliere il punto di vista reale o virtuale a seconda dell'ele­ mento visivo che vogliamo sottolineare; 345

3) si può mettere in risalto la particolare correlazione che esiste tra due o più variabili, visualizzando le traiettorie da esse descritte nei rispettivi "spazi" (per esempio, potrebbe risultare interessante osservare le traiettorie a forma di far­ falla descritta, sul piano coronale, dal centro di gravità del corpo durante la camminata). Questi tre paradigmi corrispondono alle seguenti tipolo­ gie di presentazione eidetica della "performance" di un pro­ cesso motorio: l) l'evoluzione temporale delle variabili di stato; 2) la simulazione visiva; 3) le traiettorie delle variabili di stato nel piano delle fasi. Pertanto, abbiamo a disposizione parecchie alternative al fine della presentazione visiva di una performance motoria: non resta altro che decidere quale aspetto dobbiamo prende­ re in considerazione e come dobbiamo guardarlo. L'approccio computazionale alla notazione del movimen­ to che è stato discusso precedentemente conduce natural­ mente al progetto di un ambiente computerizzato per la rap­ presentazione interattiva dei pattern motori. Il linguaggio NEM che viene descritto nel paragrafo se­ guente, costituisce un primo passo in questa direzione. Infat­ ti, ove fosse possibile utilizzare un adeguato ambiente di programmazione, si potrebbe disporre finalmente di una banca di dati costituita da l) posture, 2) azioni, 3) oggetti, 4) musiche e da opportuni strumenti di programmazione in grado di "formattare" la costruzione e l'elaborazione di nuo­ vi e/o vecchi pattern. A partire da tali banche di dati dovreb­ be essere possibile costruire azioni complesse e sincronizzar­ le con eventi musicali per mezzo di comandi del tipo "al veri­ ficarsi dell'evento musicale X, esegui l'azione Y". Infine, dovrebbe essere possibile usare una efficace inter­ faccia eidetica in grado di permettere di visualizzare esplici­ tamente alcuni aspetti spazio-temporali di un'azione motoria durante il suo svolgimento.

Il linguaggio NEM Rappresentare significa, in senso lato, utilizzare un mo­ dello formale per "descrivere", "memorizzare", "trasmette­ re", e, naturalmente, per "utilizzare" una qualche cono­ scenza. Nella robotica industriale Ùadizionale il livello di rappre­ sentazione delle attività motorie ottenibile con i linguaggi fi346

no a oggi progettati è inadeguato poiché si limitano sostan­ zialmente a generare delle traiettorie di un unico braccio. A un livello superiore, le azioni rappresentate devono es­ sere generiche, e applicarsi a classi di contesti differenti (" avvitare", "prendere", "camminare"... ); le azioni devono po­ ter essere espresse come "combinazione" di azioni elementa­ ri e/o altre azioni, in modo incrementale, con la possibilità di perfezionare (virtualmente) all'infinito un'azione; infine, un'azione (che è un insieme coordinato di abilità senso-moto­ rie, uno "skill") deve poter essere espressa come interagente con altri skill e con input sensoriali (elaborati da una "mac­ china sensoriale" dotata di un suo linguaggio in qualche mo­ do "duale" a quell'altro): interazione può essere un evento (''tocco", "segnale", "posizione anomala" . . . ) o una quantità sensoriale elaborata ("posizione dell'oggetto", "forza eserci­ tata", "orientazione della superficie toccata", "distanza fra piede destro e terreno" ... ). Nella letteratura robotica questo livello di descrizione è generalmente chiamato "task". Spesso tuttavia non è presen­ tato in modo chiaro quanta "competenza motoria" deve esse­ re affidata al linguaggio motorio e quanta a un eventuale li· vello di elaborazione simbolica (tipicamente il planner). Il linguaggio formale NEM è stato messo a punto presso il Dist Università di Genova (Morasso e Tagliasco, 1 986) per la rap­ presentazione del movimento e ha lo scopo di descrivere azioni motorie complesse e generali, onde investigare quale sia il massimo livello di competenza motoria che può essere affidata a uno skill (pura descrizione astratta di azioni), e la sua capacità di risolvere problemi motori (ad esempio muo­ vere il manipolatore in presenza di ostacoli). NEM permette la descrizione di catene cinematiche, o più precisamente alberi cinematici. In NEM l'universo delle azio­ ni è un insieme di "attori", agenti in totale concorrenza, ognuno dei quali si occupa di incapsulare una particolare competenza: un movimento, una "guardia" a un'azione, il processo "gravità", un coordinatore di altri attori e così via. Uno skill è, in generale, il risultato della cooperazione (ed eventualmente l'antagonismo) di diversi attori. Così, ad esempio, lo schema "raccogliere un oggetto" può ritenersi come la composizione di tre attori principali: un attore "prendi", che produce l'azione vera e propria verso un obiet­ tivo; un attore "gravità", che tende a sbilanciare il robot se il suo baricentro cade fuori della base di appoggio; un attore "equilibrio", che produce movimenti di pura compensazione per opporsi all'azione dell'attore precedente, scatenati dai movimenti del primo attore. Naturalmente, altri attori pos347

sono essere introdotti per raffinare sempre più lo schema o particolarizzarlo.

Forma e movimento Il movimento genera forma e la forma genera il movimen­ to. Il significato di questa affermazione, cioè la fondamentale complementarità tra forma e movimento, si estrinseca in vari settori che vanno dalla robotica alle arti visive. In quest'ultima area, per esempio, la moderna critica d'ar­ te ha sviluppato il concetto dell'opera d'arte intesa come complessa struttura semantica o espressione dell'attività e del processo di costruzione di forme spazio-temporali. In al­ tri termini, l'analisi "artistica" di un oggetto implica la stessa enfasi su un linguaggio di pura forma, indipendente dal parti­ colare "sapore" utilitaristico del linguaggio verbale, che è ti­ pico delle moderne tecniche di geometria computazionale nel CAD (Computer Aided Design), nella robotica e nella computer graphics. La forma può essere prodotta dal movimento in va­ ri modi: scolpendo, modellando, dipingendo, assemblando, esprimendo a gesti, ecc. Quando scolpisce o intaglia, per esempio, lo scultore comincia con un blocco di un certo mate­ riale e toglie via, col suo scalpello, pezzi e frammenti: prima i più grossi e poi quelli sempre più piccoli. Il processo può ve­ nire espresso, semplicemente, per mezzo di una serie di ope­ ratori applicabili a un insieme tri-dimensionale di punti. Ossia, partendo da un "blocco _ iniziale": forma = blocco

iniziale

il processo, procede iterativamente nel seguente modo forma = forma - (frammento)k

che può essere riassunto nella seguente struttura forma = blocco _ iniziale -

Unione

k = l, n

(frammento)k

dove e 'Unione' sono i tipici operatori dell'algebra degli insiemi. I "frammenti" sono particolari insiemi di punti che sono caratterizzati dalla loro forma e dalla loro locazione (po­ sizione e orientamento rispetto al blocco_iniziale). Essi sono la materializzazione dei movimenti "costruttivi": i colpi di scalpello. La metafora del "processo - scultura" è computazional­ mente utile soltanto se è possibile dare una caratterizzazione '_'

348

geometrica dei movimenti costruttivi di uno scalpello reale o virtuale. Un esempio particolare è costituito da una for­ mulazione del concetto di visione attiva tridimensionale, cioè il processo di integrazione dell'informazione visiva re­ lativa alla forma di un oggetto mentre qualcuno vi gira at­ torno oppure mentre lo fa ruotare tra le sue mani: lo scal­ pello metaforico, in questo caso, è un fascio di luce. La metafora del processo di scultura non è la più appro­ priata per ottenere modelli significativi dei processi di ge­ nerazione di forme dovute a "erosione naturale". In questo caso lo "scalpello naturale" lavora con un numero elevatis­ simo di colpi di scalpello e di tipi di scalpelli diversi; que­ sto fenomeno determina la natura ricorsiva delle forme na­ turali che è ben rappresentata dalla formalizzazione della geometria frattale (Mandelbrot, 1 983). La differenza tra scultura ed erosione ha anche un significato più generale: è la differenza tra il punto di vista della cibernetica (o del­ l'Intelligenza Artificiale) e quello della fisica. Il processo del "plasmare" costituisce un altro paradig­ ma di generazione di forme in cui il movimento ha un ruo­ lo fondamentale. Qualunque sia il materiale impiegato (dal­ l'argilla alla plastilina) il volume racchiuso dalla forma ri­ mane approssimativamente costante quando si esplica il processo di modellamento e l'effetto della generazione dei movimenti consiste nel creare rami, rigonfiamenti, anfratti e nel deformarli; un processo, quindi, che approssima una formulazione di tipo computazionale, basata sulla nozione di Scheletro o di Trasformata dell'Asse Mediano (Blum, 1 973). L' "assemblaggio di forme" è un metodo di generazione di una forma attraverso l'impiego di forme più semplici per mezzo di procedure di "assemblaggio di movimenti". Que­ sto è il dominio della geometria solida costruttiva (Gsc) (Re­ quicha 1980). I blocchi elementari necessari per la costru­ zione hanno una struttura standardizzata e il processo co­ struttivo è caratterizzato da movimenti e da operatori tipici dell'algebra degli insiemi, in modo analogo a ciò che awie­ ne nella metafora dello scultore. Tuttavia esiste una sostan­ ziale differenza: il "frammento" nella scultura scompare do­ po ogni "colpo" dello scalpello e ciò che rimane è la forma scolpita, la quale consiste in una rappresentazione "analogi­ ca": le caratteristiche della forma possono essere "misura­ te" attraverso la sua rappresentazione. Al contrario, la rap­ presentazione attraverso tecniche di geometria solida co­ struttiva è una rappresentazione simbolica, strutturalmente assimilabile a un albero in cui tutti gli elementi che lo 349

compongono conservano la loro completa individualità: le caratteristiche della forma, in questo caso, sono "inferite" dalle caratteristiche degli elementi componenti, che devono essere esplicitamente note oppure facilmente calcolabili. Il "dipingere" o il "gesticolare" sono due altre modalità che si usano per generare forme attraverso il movimento. Nel primo caso, l'aspetto cinematico della formazione della traiettoria è condizionato dalle strutture elementari neuro­ motorie attraverso le quali sistemi di traiettorie molto ar­ ticolate possono venire ricostruite: per esempio, il reperto­ rio di espressioni mimiche codificate nella rappresentazio­ ne teatrale o il linguaggio "a segni" usato dai sordi. Il dipingere e l'impiego del pennello per realizzare ope­ re grafico-pittoriche, particolarmente nel caso della calli­ grafia cinese che usa pennelli molto sottili, sono paradigmi di generazione di forme che materializzano la rappresenta­ zione a "scheletro": la traiettoria descritta dalla punta del pennello costituisce l'insieme delle "nervature" dello sche­ letro mentre la pressione esercitata sul pennello viene tra­ sformata nella larghezza della punta del pennello stesso (la modulazione della pressione lungo le "nervature" dello scheletro costituisce il meccanismo di generazione della forma). La forma genera movimento in modo reciproco: il pun­ tamento, la mira, il collocare, l'inserire, l'afferrare, il toc­ care ecc. sono tutti paradigmi di movimento che sono ge­ stiti dalla forma degli oggetti. Per esempio, il processo di "puntamento verso una mira" è un elementare paradigma di movimento il cui argomento, ossia la posizione della mi­ u­ ra, viene solitamente espresso come un punto _ di na _forma piuttosto che di un assoluto punto _ nel­ lo _ spazio. Il processo del collocare richiede un passo ul­ teriore rispetto al puntamento, cioè un "soffice" impatto e un aggiustamento (della mano, o di altri punti del corpo) per stabilire un solido e stabile contatto con la superficie dell'oggetto. Dopo il posizionamento potrebbe essere neces­ sario scivolare lungo la superficie mantenendo, nel contem­ po, il contatto e un certo livello di pressione. In generale, la forma degli oggetti controlla la genera­ zione dei movimenti attraverso informazioni intermedie di tipo visivo e tattile che sono correlate maggiormente alla superficie degli oggetti piuttosto che alla loro struttura vo­ lumetrica. Nel caso tattile, in particolare, la "cedevolezza" (di tipo meccanico) costituisce un aspetto importante e complementare poiché specifica alcuni degli attributi del­ l'interfaccia tra l'operatore e l'ambiente su cui agisce. _

350

Visione attiva tri-dimensionale Nonostante la forte enfasi messa da Gibson (Gibson, 1 979) e da altri sulla natura "ecologica" della percezione, il punto di vista assunto implicitamente dalla maggior parte di coloro che lavorano nel settore della visione naturale e artificiale è ancora sostanzialmente "centrato" sul ruolo delle immagini. Ne deriva che la visione è considerata come un processo che "fotografa" il mondo, acqui sisce un'imma­ gine e cerca di interpretarla mediante algoritmi di forma­ zione di superfici, in cui porzioni di immagine vengono pri­ ma isolate, e poi "perfezionate" e "adattate" tenendo in de­ bito conto le ombre, i fenomeni stereoscopici, la disparità stereoscopica, il flusso ottico, ecc. Il risultato è ciò che Marr chiamò uno "sketch in due dimensioni e mezzo" della scena, ottenuto dall'immagine originale. Un approccio alternativo consiste nel considerare un punto di vista centrato-su-oggetto. In questo caso, il ruolo principale è offerto da una immagine "solida" del mondo esterno e non dalle immagini retiniche: essendo queste ulti­ me solo strutture "effimere" il cui scopo primario è quello di aiutare a costruire l'immagine solida. Da questo punto di vista, la visione "è" tale procedimento costruttivistico. Il ruolo fondamentale di tali rappresentazioni 3D è aval­ lato dagli esperimenti di Shepard, che si riferiscono alle ro­ tazioni spaziali mentali (Shepard e Cooper, 1 982), e tale ap­ proccio può venire apprezzato nella sua giusta luce quando "pensiamo" alla visione come a quel processo attivo che ri­ chiede l 'integrazione di differenti punti di vista. Lo sviluppo scientifico delle 'neuroscienze' ha creato le premesse per cui si è rinunciato a cercare di spiegare il settore dell'attività umana, chiamata visione, a livello di pura percettologia, o di sola psicologia o di linguistica ap­ plicata; le certezze dei percetti sulle immagini mentali, op­ pure il fascino dovuto alla severa evidenza neurofisiologica, scevra da ambiguità, rispetto a vaghi discorsi su simboli e concetti appartengono ormai a un ben preciso periodo del­ l'evoluzione del pensiero scientifico che aveva raggiunto il suo punto più alto col conferimento del Nobel a Hubel e Wiesel per i loro studi sulla fisiologia della visione. In que­ gli anni scienziati, filosofi e cibernetici erano soddisfatti del rigore dell'approccio esclusivamente neurofisiologico, l'unico in grado di interpretare correttamente il metodo scientifico nel variegato settore degli studi sulla visione. Gestaltisti, cognitivisti e soprattutto duemila anni di medi­ tazioni su come ciascuno di noi vede (e/o crede di vedere) il 351

mondo esterno passarono in secondo piano rispetto alle spe­ ranze suscitate dall'avere scoperto zone del cervello attivate da particolari e specifici stimoli visivi. In altri termini Hubel e Wiesel diedero, implicitamente, l'avallo a una interpreta­ zione retinocentrica della visione mettendo in secondo piano tutti gli altri approcci. Effettivamente mettere l'enfasi su una retina in cui vediamo con grande risoluzione i particola­ ri che "cadono" nella fovea ma non riusciamo nemmeno a contare il numero delle dita che ci vengono presentate in pe­ riferia - una retina il cui campo visivo ha contorni irregola­ ri e un grosso buco quasi nel mezzo, in corrispondenza del­ l'inserzione del nervo ottico - significa dare troppo credito alle capacità dell'esperimento di laboratorio nel fornire ri­ sposte a problemi forse risolubili con tale approccio tra cen­ tinaia di anni. Nel contesto di un approccio computazionale, costruttivi­ stico si potrebbe ipotizzare l'esistenza nella macchina cere­ brale di un laboratorio "eidomatico" in grado di creare im­ magini solide del mondo esterno, o meglio immagini sinteti­ che solide del mondo esterno. Ciò viene effettuato utilizzan­ do algoritmi opportuni (innati e/o messi a punto con l'espe­ rienza?) e adeguate banche di immagini acquisite durante l'arco di vita di ciascuno di noi. Tale laboratorio presenta un grado di automazione così elevato per cui esso può funziona­ re ininterrottamente senza la presenza di un "controllo vo­ lontario" a livello gerarchico superiore. Bastano solo alcuni stimoli visivi provenienti dal mondo esterno - la retina ov­ viamente - per alimentare continuamente il processo men­ tale chiamato visione. In realtà il ruolo degli occhi è quello di dare alla macchina cerebrale elementi necessari per rico­ struire al suo interno una rappresentazione "solida" del mondo. È su questa rappresentazione interna, ma fittiziamente proiettata nel mondo esterno, che vengono effettuate molte­ plici e variegate operazioni percettive e di guida al movi­ mento. In questo senso la costruzione di immagini solide del mondo esterno provenienti da molteplici punti di vista ripro­ duce il processo che forse viene adottato dall'essere umano nell'imparare a vedere: il bambino si muove all'interno del mondo, muove gli oggetti, li rigira tra le sue mani. Poi, quan­ do diventerà adulto potrà riconoscere l'oggetto "pera" co­ munque gli venga presentata, non perché ha acqui sito tutte le immagini possibili e immaginabili dell'oggetto in questio­ ne, ma piuttosto perché è in grado di averlo ricostruito al suo interno, nel suo personale laboratorio di eidomatica. Di352

ce N.S. Sutherland: "Un modello computazionale funzionan­ te del funzionamento di una certa prestazione visiva diviene un candidato per una teoria di come il cervello stesso esegue tale compito o prestazione. "

RIFERIMENTI BIBLIOGRAFICI Blum, H. (1973), Biologica! shapes and visual science, in "Journal Biology" , 38, pp. 205-287. Hutchinson Guest, A. (1984), Dance notation, Dance Books, London. Gibson, J.J. (1979), The ecologica! approach to visual perception, Houghton Mifflin, Boston. Mandelbrot, B.B. (1983), The fractal geometry of nature, W.H. Free­ man, San Francisco. Marr, D. (1982), Vision, W.H. Freeman, San Francisco. Morasso, P. e V. Tagliasco (1986), Human movement understanding, North Holland, Amsterdam. Requicha, A. G. (1980), Representation of rigid solids, in "ACM Com­ puting Surveys", 12, pp. 437-475. Shepard, R.N. e L.A. Cooper (1982), Mental images and their tran· sformations, The MIT Press, Cambridge (Mass.) .

353

Gli autori

è professore ordinario di psicologia cognitiva all'U­ niversità di Firenze e direttore del Centro di Intelligenza Artifi­ ciale del CNR di Milano.

Bruno G. Bara

è dal 1 979 Waynflete Professar di fisiologia all'U­ niversità di Oxford e Fellow del Magdalen College.

Colin Blakemore

è professore di filosofia e psicologia all'Università del Sussex e Fellow della British Academy.

Margaret Boden

è direttore dell'Istituto Max Planck di biolo­ gia cibernetica a Tiibingen e professore onorario di scienza del­ l'informazione all'Università di Tiibingen e Friburgo.

Valentino Braitenberg

Antonella Carassa lavora presso l'Istituto di Psicologia della Facol­ tà di Medicina dell'Università di Milano. è professore associato di filosofia della scienza presso l'Istituto di Filosofia dell'Università di Salerno.

Roberto Cordeschi

è dal 198 1 professore all'Università della Cali­ fornia a Berkeley. Presidente nel 1973- 1 974 dell'American Philo­ sophical Society, è membro dell'American Academy of Arts and Sciences, Corresponding Fellow della British Academy e Editor di "Synthese Library".

Donald D. Davidson

Daniel Dennett è dal 1 975 professore alla Tufts University. È inoltre Associate Editor di "Behavioural and Brain Science". è ricercatore presso il Dipartimento di Studi storici dal Medioevo all'età contemporanea dell'Università di Ro­ ma "La Sapienza".

Federico Di Trocchia

355

è professore ordinario l'Università di Torino.

Aldo Fasolo

di embriologia sperimentale al­

è professore associato presso la Facoltà di Magiste­ ro dell'Università degli Studi di Padova.

Giacomo Gava

Giuliano Geminiani lavora presso l'Istituto di Psicologia della Fa­ coltà di Medicina dell'Università di Milano.

Philip Johnson-Laird è professore di psicologia sperimentale dell'U­ niversità del Sussex e Assistant Director alla Medicai Research Council Applied Psychology linit di Cambridge. è professore di logica al Corso di Informatica della Facoltà di Scienze dell'Università degli Studi di Torino.

Gabriele Lolli

è professore associato di filosofia del linguaggio presso la Facoltà di Lettere dell'Università degli Studi di Torino.

Diego Marconi

è dal 1 974 Donner Professor di scienze al Diparti­ mento di Ingegneria elettronica e scienza dell'informazione e di­ rettore, con S. Papert, dell'Artificial Intelligence Laboratory del MIT.

Marvin Minsky

Pietro Morasso

è professore di robotica all'Università di Genova.

Gunther Palm

è ricercatore presso l'Istituto Max Planck di Tii­

bingen.

Domenico Parisi

è direttore dell'Istituto di Psicologia del CNR di

Roma. è professore all'Artificial Intelligence Laboratory e direttore del Center for Biologica} Information Processing del MIT. È inoltre Coeditor di varie riviste scientifiche e membro del­ l'American Mathematical Society e dell'Optical Society. Nel 1 979 è stato eletto Associate del Neuroscience Research Program.

Tomaso Poggio

è NIH Professor di neuroscienza presso i Diparti­ menti di Psicologia, Psichiatria e Scienze del comportamento e capo dei Laboratori di Neuropsicologia all'Università di Stan­ ford. È stato inoltre il primo presidente di due divisioni dell'Ame­ rican Psychological Association (per la Physiological and Compa­ rative Psychology nel 1967-1 969, e per la Theoretical and Philoso­ phical Psychology nel 1 979-1 980).

Karl H. Pribram

è professore ordinario fuori ruolo di filosofia del­ la scienza presso la Facoltà di Lettere e filosofia dell'Università di Roma "La Sapienzan.

Vittorio Somenzi

356

Vincenzo Tagliasco

è professore di bioingegneria all'Università di

Genova.

Riccardo Viale dopo un periodo di ricerca presso il Balliol College dell'Università di Oxford dal 1984 al 1 986, a seguito di una CNR NATO Fellowship, è attualmente professore di epistemologia al­ l'Università "L. Bocconin di Milano e ricercatore presso l'USRT del CNR di Milano. È autore di numerose pubblicazioni di meto­ dologia della scienza ed è co-curatore del volume Modelling the Mind (Oxford University Press, 1 989). è lettore di filosofia all'Università di Oxford e Fellow del St. Hilda's College.

Kathy Wilkes

357

Indice

Pag.

VII

Prefazione di Riccardo Viale

Parte prima EPISTEMOLOGIA DELLA MENTE E SIMULAZIONE 3

La simulazione della mente al calcolatore è so­ cialmente dannosa? di Margaret A. Boden

18

Il mito dell'intenzionalità originaria di Daniel C. Dennett

40

Rappresentazione e interpretazione di Donald Davidson

55

Simulare la mente di Kathy Wilkes

76

Rappresentare il significato lessicale di Diego Marconi

84

Mente e matematica di Gabriele Lolli

93

Linguaggio mentalistico e modelli computaziona­ li della mente di Roberto Cordeschi

105

Epistemologia, cognizione e razionalità dedutti­ va di Riccardo Viale 359

Parte seconda CERVELLO, MENTE E CALCOLATORE

1 35

Per una teoria meccanicista della mente e della percezione di Colin Blakemore

1 60

L 'intelligenza naturale nella scienza della mente e del cervello di Karl H. Pribram

195

Leggere la struttura del cervello di Valentino Braitenberg

205

Quali sono le unità della rappresentazione neura­ le ? di Giinther Palm

210

L 'epistemologia evoluzionistica tra creatività na­ turale e creatività artificiale di Vittorio Somenzi

220

Creatività scientifica tra psicologia e neurofisio­ logia di Giacomo Gava

233

Casualità e programma nell 'Intelligenza Artifi­ ciale di Federico Di Trocchio

240

Neurobiologia e storia naturale dell'intelligenza di Aldo Fasolo Parte terza COGNIZIONE, COMPUTAZIONE E INTELLIGENZA ARTIFICIALE

253 260 278

360

Significato e definizione di Marvin Minsky Pensiero e modelli mentali di Philip N. Johnson­

Laird

Visione: l 'altra faccia dell 'Intelligenza Artificiale di Tomaso Poggio

298

Il ragionamento: dal formale al quotidiano di Bruno G. Bara, Antonella Carassa e Giuliano Ge­ miniani

327

Senso dell 'io di Domenico Parisi

335

355

Conoscenza visiva e motoria di Pietro Morasso e

Vincenzo Tagliasco

Gli autori

361

Stampa Grafica Sipiel Milano, novembre 1 989