193 102 18MB
Italian Pages 372 Year 2005
x
x
5) ”
Po
CC UMANISTI /
3
di
i:
y
|.
b
mR;
lai
°.° Perchélecomef l'arte, la politica,
.
=
la storia e la filosofia devono tener tonto
. delle moderne scoperte scientifiche. i
ni
!
"
oa ARE
v
/
n
I»
A È
pe
\
* x John Brockman da
»
;
E
Il difficile dialogo tra le cosiddette scienze umane e le moderne discipline scientifiche è uno dei nodi chiave dell’attuale dibattito culturale. Negli ultimi decenni, con una velocità sempre più vertiginosa, le scoperte e le nuove tecniche in campi molto diversi, dalla fisica all'astronomia, dalla biologia alla geologia, dalla paleoantropologia alla genetica, dalle
scienze
cognitive
alla
psicologia,
hanno rivoluzionato il nostro sapere, la nostra immagine dell’universo e della sua origine, e l’idea che l’uomo ha di sé stesso. Da un lato le scienze umane paiono sempre più rivolte verso il passato, e improntate a una visione genericamente pessimistica della civiltà. Dall'altro assistiamo a un accumulo di saperi alla conquista di frontiere sempre nuove e a una diffusione delle conoscenze sempre più ampia e capillare, e nell’insieme a una visione piena di speranza in un futuro più ricco e migliore. In questo saggio John Brockman ha raccolto le voci di alcuni dei maggiori scienziati contemporanei, impegnati nei settori di punta della ricerca, e ha chiesto loro di illustrare le conseguenze
delle
moderne
acquisizioni
scientifiche sulle nostre concezioni dell’uomo, della vita, dell'origine e della fine dell’universo. Quella di cui siamo artefici e protagonisti grazie allo straordinario sviluppo delle nostre conoscenze è una grande rivoluzione, che interessa tanto i nostri stili di vita quanto la nostra visione del mondo e di noi stessi, e nell'insieme sul passato e sul futuro della nostra specie. | nuovi umanisti ci aiuta a comprendere queste prospettive inedite e a misuraci con le loro conseguenze. Non nasconde questioni ancora aperte ma ci aiuta a guardare con fiducia al nostro futuro. E proprio questa fiducia è forse il senso più profondo di quello che chiamiamo «umanesimo».
JOHN BROCKMAN
I nuovi umanisti Perché (e come) l’arte, la politica, la storia e la filosofia devono tener conto
delle moderne scoperte scientifiche
GARZANTI
Prima edizione: gennaio 2005
Traduzione dall’inglese di Fabio Paracchini
Titolo originale dell’opera: The New Humanists. Science at the Edge 2003 by John Brockman ISBN 88-11-60021-9 © 2005, Garzanti Libri s.p.a., Milano
Printed in Italy www.garzantilibri.it
i
MT
"#
T%
ASTRO. SERA
4
VIS
sragirane: Tauri son i
)
RINGRAZIAMENTI
Sin dagli inizi di EDGE ho ricevuto grande incoraggiamento e sostegno da figure di spicco della Barnes & Noble, tra cui Steve Riggio, Mike Ferrari e Michael Friedman. Sono stati loro
a propormi l’idea che sarebbe stato interessante pubblicare un
libro basato su EDGE (www.edge.org) e io desidero ringraziarli per il consiglio e per l’incoraggiamento. Vorrei ringraziare anche Michael Fragnito e Laura Nolan della Barnes & Noble Publishing per aver sostenuto questo progetto. Russell Weinberger, editore associato di EDGE, è stato coinvolto in tutti gli aspetti della pubblicazione e Christopher Williams ha lavorato al mio fianco trasformando numerose trascrizioni di interviste in forma di saggio e traducendo in inglese i testi tedeschi. Voglio ringraziarli entrambi per i loro preziosi contributi. Desidero ringraziare Judy Herrick della Typro per il lavoro di trascrizione di tutte le interviste. E infine sono debitore a Sara Lippincott per la sua revisione attenta e meticolosa.
JOHN BROCKMAN Introduzione: I nuovi umanisti
Nel 1991, in un saggio intitolato The Emerging Third Culture,
scrissi quanto segue: Negli ultimi anni il campo di gioco della vita intellettuale americana si è spostato e l’intellettuale tradizionale ha assunto un ruolo sempre più marginale. Un’istruzione in stile anni Cinquanta, basata su Freud, Marx e il modernismo, non è una
qualifica sufficiente per una testa pensante del giorno d’oggi. Di fatto gli intellettuali tradizionali americani sono in un certo senso sempre più reazionari e spesso fieramente (e perver-
samente) ignoranti di molti significativi conseguimenti intellettuali della nostra epoca. La loro cultura, che disdegna la scienza, è spesso non-empirica. Utilizza un proprio gergo e la-
va in casa i propri panni (più o meno sporchi). È perlopiù caratterizzata da commenti
di commenti,
e la spirale di com-
menti si dilata fino a raggiungere il punto in cui si smarrisce il mondo reale.
Dodici anni dopo quella cultura fossile è stata sostanzialmente sostituita dalla «terza cultura» a cui era intitolato quel
saggio, una citazione della famosa suddivisione del mondo del pensiero in due culture operata da C.P. Snow, quella dell’intellettuale letterario e quella dello scienziato. Questa nuova cultura è costituita da quegli scienziati e da quei pensatori che, ben saldi nel mondo empirico con il loro lavoro e i loro testi, hanno preso il posto dell’intellettuale tradizionale nel rendere visibili i significati più profondi delle nostre vite, ridefinendo chi e che cosa noi siamo. Gli scienziati della terza cultura condividono il proprio lavoro e le proprie idee non solo tra di loro ma, tramite i propri
libri, anche con un pubblico dotato di una nuova istruzione. Concentrandosi
sul mondo
reale, ci hanno
condotti in uno
dei più radiosi periodi di attività intellettuale nella storia uma-
v
na. I conseguimenti della terza cultura non sono le dispute
marginali di una rissosa classe di burocrati: riguardano la vita
di chiunque viva sul nostro pianeta. L'emergere di questa nuova cultura è la prova della grande fame intellettuale, del desiderio di nuove e importanti idee, che muove la nostra epoca: biologia molecolare, ingegneria genetica, nanotecnologie, intelligenza artificiale, vita artificiale, teoria del caos, computer paralleli su grande scala, reti neurali, universo inflazionario, frattali, sistemi adattivi complessi, linguistica, superstringhe, biodiversità, genoma umano, sistemi esperti, equilibri punteggiati, automi cellulari, logica fuzzy, realtà virtuale, ciberspazio,
macchine teraflop. E altro ancora.
Umanesimo e summa intellettuale
Intorno al xv secolo la parola «umanesimo» era legata all’idea di summa intellettuale. Un nobile fiorentino riteneva ridicolo leggere Dante ma ignorare la scienza. Leonardo fu un grande artista, un grande scienziato e un grande tecnologo. Michelangelo fu un artista e un ingegnere ancora più grande.
Questi uomini erano dei giganti olistici. Per loro l’idea di abbracciare l’umanesimo ma ignorare gli ultimi conseguimenti scientifici e tecnologici sarebbe risultata incomprensibile. È giunto il momento di ristabilire quella definizione olistica. Nel xx secolo, un periodo di grande progresso scientifico, anziché porre la scienza e la tecnologia al centro del mondo intellettuale (o creare un’unità culturale in cui scienza e tecnologia fossero apprese al fianco di letteratura e arti), la cultura uf-
ficiale le estromise. Gli studiosi tradizionali di materie umani- . stiche guardavano alla scienza e alla tecnologia come a una sor-
ta di prodotto tecnico speciale. Le università più prestigiose cancellarono le scienze dai programmi delle facoltà umanistiche, nonché dalle menti di molti giovani che, come aveva fatto
il nuovo establishment accademico, si allontanarono a tal punto dal mondo reale da perderlo totalmente di vista.
In gran parte del pensiero accademico, il dibattito intellettuale tende a incentrarsi su questioni come chi era e chi non
8
era stalinista nel 1937 o sul modo in cui venivano sistemati per
la notte gli ospiti nel corso di un fine settimana a Bloomsbury agli inizi del Novecento. Con ciò non intendiamo dire che lo studio della storia sia una perdita di tempo: la storia illumina le nostre origini e ci evita di reinventare la ruota. Ma sorge una domanda: storia di che cosa? Vogliamo incentrare la nostra cultura su un sistema chiuso, un processo autoreferenziale privo di un qualsiasi rapporto empirico con il mondo reale? Si può solo restare sbalorditi, per esempio, davanti a critici d’arte che non sanno nulla di percezione visiva, a critici letterari che si definiscono «costruzionisti sociali» e non manifestano alcun interesse per gli universali umani documentati dagli antropologi, a oppositori dei cibi geneticamente modificati, degli additivi e dei residui di pesticidi che ignorano totalmente la genetica e la biologia evolutiva.
Pessimismo culturale contro ottimismo scientifico Esiste una distinzione fondamentale tra la letteratura della scienza e quella delle discipline i cui campi di studio sono autoreferenziali e riguardano perlopiù l’esegesi di pensatori precedenti. A differenza delle discipline in cui non ci si aspetta un progresso sistematico e in cui si riflette sulle (e si riciclano le) idee di altri, la scienza - nelle sue espressioni più avanzate - pone più domande, domande migliori e domande meglio impostate. Sono domande costruite per sollecitare risposte: la scienza trova le risposte e passa oltre. Nel frattempo gli studi umanistici tradizionali continuano la propria approfondita ermeneutica in-
sulare e indulgono a un pessimismo culturale, ormai affezionate alla loro visione del mondo affettatamente tetra. «Viviamo in un’epoca in cui il pessimismo è diventato la norma», scrive Arthur Herman in The Idea of Decline in Western History. Herman, che coordina il Programma di Cultura occidentale allo Smithsonian, sostiene che il declino dell’Occidente, con la sua visione della nostra «società malata», è diventato il tema dominante del discorso intellettuale, al punto
da trasformare l’idea stessa di civiltà. E poi prosegue: 9
Questo nuovo ordine potrebbe assumere la forma dell'utopia
ambientalista radicale di Unabomber. Potrebbe essere anche il Superuomo di Nietzsche o il Nazionalsocialismo ariano di Hitler, o l’unione utopica di tecnologia ed Eros di Marcuse, o i
fellahin rivoluzionari di Frantz Fanon. I suoi portatori potrebbero essere gli «amici della terra» dell’ecologista o le «persone di colore» del multiculturalista,
o le Nuove Amazzoni
della
femminista radicale, o l'Uomo Nuovo di Robert Bly. La forma particolare di questo nuovo ordine varierà a seconda dei gusti, ma il suo attributo principale sarà un carattere totalmente non (o addirittura anti-) occidentale. Ciò che conta alla fine per il pessimista culturale non è tanto quanto verrà creato ma quanto verrà distrutto, ovvero la nostra società moderna «malata». [...] La semina della disperazione e della sfiducia in sé stessi è diventata onnipresente al punto che le accettiamo come normali prese di posizione intellettuali, anche quando sono direttamente contraddette dalla nostra stessa realtà.
La chiave di questo pessimismo culturale è la fede nel mito del buon selvaggio, nel fatto che prima di avere la scienza e la
tecnologia la gente vivesse in una sorta di armonia e beatitu-
dine ecologica. Di fatto è vero più o meno il contrario. Il fatto che il maggiore cambiamento in atto riguardi proprio la velocità del cambiamento deve essere difficile da affrontare se si guarda ancora il mondo attraverso gli occhi di Spengler e Nietzsche. Nella loro devozione quasi religiosa a una visione del mondo pessimistica, gli umanisti accademici hanno creato una cultura di «ismi» precedenti che girano intorno a sé stessi in un ciclo senza fine. Quante volte abbiamo visto il nome di un'icona dell’umanesimo accademico in un articolo di giornale o di rivista e abbiamo smesso immediatamente di leggere? Sai già cosa ti aspetta, e allora perché perdere tempo? Come controparte di questo pessimismo culturale, si prenda ora in considerazione il duplice ottimismo della scienza. In primo luogo, più scienza si fa, più scienza resta da fare. Gli scienziati acquisiscono ed elaborano costantemente nuove
informazioni. La legge di Moore si applica anche alla realtà: come negli ultimi vent'anni la potenza di elaborazione dei computer è raddoppiata ogni diciotto mesi, così anche gli
10
scienziati acquisiscono informazioni in modo esponenziale. Non possono fare a meno di essere ottimisti. In secondo luogo, buona parte delle nuove informazioni è costituita da buone notizie o da notizie che possono essere rese buone grazie a conoscenze sempre più approfondite e a strumenti e tecniche sempre più efficienti e potenti. Gli scienziati dibattono incessantemente e l’elemento di verifica è la realtà. Possono anche avere degli ego grandi quanto quelli delle icone dell’umanesimo accademico, ma gestiscono la propria Aybris in modo assai diverso. Le loro opinioni possono essere modificate dalle argomentazioni altrui, perché lavorano in un mondo empirico di fatti, un mondo basato sulla realtà. Non vi sono posizioni fisse e inalterabili. Sono al tempo stesso i creatori e i critici della loro impresa condivisa. Producono idee e criticano quelle degli altri. Attraverso il processo di creatività, critica e dibattito essi decidono quali idee ven-
gono scartate e quali entrano a far parte del parco intellettuale che porta al livello di scoperta successivo. A differenza degli umanisti accademici, che parlano l’uno dell’altro, gli scienzia-
ti parlano dell’universo. E inoltre non vi è una grande differenza tra il modo di pensare di un cosmologo che cerca di comprendere il mondo fisico studiando le origini di atomi, stelle e galassie e quello di un biologo evolutivo che cerca di capire la nascita di sistemi complessi da inizi semplici o di identificare degli schemi ripetuti nella natura. Queste attività implicano la stessa mescolanza di osservazione, modellizzazione teoretica, simulazione informatica e così via, come la mag-
gior parte degli altri settori delle scienze. I mondi della scienza sono convergenti. Il quadro di riferimento è condiviso da tutte le discipline. La scienza è ancora prossima agli inizi. Con l’avanzare della frontiera, l’orizzonte si allarga e viene messo maggiormente a fuoco. Questi progressi hanno cambiato il modo in cui noi ve-
diamo il nostro posto nella natura. L'idea che noi siamo parte integrante di questo universo - un universo governato da leggi fisiche e matematiche che i nostri cervelli sono portati a comprendere - fa sì che vediamo in modo differente il nostro
posto nel dipanarsi della storia naturale. Siamo giunti a com1l
prendere attraverso gli sviluppi dell'astronomia e della cosmologia di essere ancora abbastanza prossimi al nostro inizio. La storia della creazione è stata enormemente
allargata, da
6000 anni fino ai 13,7 milioni di anni della cosmologia del Big Bang. Ma il futuro si è espanso ancora di più, forse fino all’infinito. Nel xVII secolo non solo si credeva in un passato tanto limitato, ma anche nel fatto che la storia stesse per avere fine: l'apocalisse era alle porte. L'aver compreso che il tempo potrebbe benissimo essere infinito ci porta a una nuova visione della specie umana, che non è più così il culmine del processo evolutivo, ma una sua fase ancora decisamente iniziale. Giun-
giamo a questa idea attraverso osservazioni e analisi dettagliate, attraverso un pensiero con basi scientifiche che ci consente di vedere come la vita potrà svolgere un ruolo ancora più grande nel futuro dell’universo. Vi sono segni incoraggianti che indicano come la terza cul tura oggi comprenda studiosi di materie umanistiche che pensano come scienziati. Come i loro colleghi che si occupano di scienze, essi credono che vi sia un mondo reale e che il loro la-
voro consista nel comprenderlo e spiegarlo. Mettono alla prova le loro idee in termini di coerenza logica, capacità esplicativa, conformità ai fatti empirici. Non si sottomettono ad alcuna autorità intellettuale: tutte le idee possono essere sfidate e la comprensione e la conoscenza si accumulano attraverso tali sfide. Non riducono le materie umanistiche a principi biologici e fisici, ma credono che l’arte, la letteratura, la storia, la
politica - un’intera panoplia di tematiche umanistiche - deb-
bano tenere conto delle scienze. Le connessioni, di fatto, esistono: le nostre arti, le nostre fi-
losofie, la nostra letteratura sono il prodotto di menti umane che interagiscono tra di loro, e la mente umana è il prodotto del cervello umano,
che è organizzato in parte dal genoma
umano e si evolve attraverso i processi fisici dell'evoluzione. Come gli scienziati, gli studiosi di materie umanistiche su base scientifica sono intellettualmente eclettici, attingono idee da
una varietà di fonti e adottano quelle che dimostrano il proprio valore, anziché lavorare all’interno di «sistemi» o «scuole». E così non sono definibili come studiosi marxisti, freudia-
12
ni o cattolici. Pensano come scienziati, conoscono le scienze e
non hanno difficoltà a comunicare con gli scienziati. La differenza principale rispetto agli scienziati risiede nella materia di cui scrivono, non nel loro stile intellettuale. Il pensiero su base scientifica fa ormai parte di una cultura diffusa tra gli studiosi di materie umanistiche più illuminati. In breve, vi è nell’aria qualcosa di radicalmente nuovo: nuovi modi di intendere i sistemi fisici, nuovi modi di pensare al pensiero che mettono in discussione molte nostre presupposizioni fondamentali. Una biologia realistica della mente, i progressi della fisica, dell'informatica, della genetica, della neu-
robiologia, dell'ingegneria, della chimica dei materiali: tutto
ciò mette alla prova le nostre idee consolidate su chi e che cosa siamo, su che cosa significhi essere umani. Le arti e le scienze stanno tornando a unirsi in un’unica cultura, la terza cultu-
ra. Le persone coinvolte in questo tentativo - su ciascuno dei due lati individuati da C.P. Snow - si trovano oggi al centro dell’azione intellettuale. Sono i nuovi umanisti. I nuovi umanisti è un’esplorazione di questo nuovo panorama intellettuale, nel quale seguo le piste del lavoro e delle idee rivoluzionarie di pensatori chiave in campi diversi quali l'informatica, la cosmologia, le scienze cognitive e la biologia
evolutiva. Costoro discutono gli uni con gli altri, imparano gli uni dagli altri e applicano ciò che imparano in modo innova-
tivo. Sono: la biologa evolutiva Helena Cronin, il filosofo Daniel C. Dennett, il biogeografo Jared Diamond,
il tecnologo
Ray Kurzweil, l’antropologo biologico Richard Wrangham, gli informatici
Rodney
Brooks,
David Gelernter, Jaron Lanier,
Marvin Minsky, Hans Moravec e Jordan B. Pollack, gli scienziati cognitivi Andy Clark e Marc D. Hauser, gli psicologi Stephen M. Kosslyn e Steven Pinker e i fisici David Deutsch, Alan Guth, Seth Lloyd, Lisa Randall, Martin Rees, Lee Smolin
e Paul Steinhardt. I nuovî umanisti tenta di rendere visibile una rivoluzione dall’interno, poiché i dibattiti che qui vengono alla superficie definiranno il pensiero scientifico nei decenni a venire. La scelta degli scienziati inclusi in questo libro è ovviamen-
13
te ben lontana dall’essere onnicomprensiva. Con alcuni di loro collaboro professionalmente: sono clienti della mia agenzia letteraria. Con altri no. (In effetti la grande maggioranza degli scienziati che rappresento non compare in questo libro.) La se| lezione deve molto alla serendipità e ha parecchio a che fare con i miei interessi scientifici personali. La maggior parte dei capitoli è basata su interviste che ho condotto personalmente. Il resto — i saggi di David Gelernter, Hans Moravec, Jaron Lanier,
Andy Clark e Jared Diamond - è stato pubblicato su EDGE (www.edge.org), un sito Internet che lanciai nel 1997 per creare un luogo di discussione tra scienziati alle frontiere delle rispettive discipline. L'origine della comunità di EDGE è un gruppo informale di scienziati e altri pensatori empirici noto come
Reality Club,
che misi insieme all’inizio degli anni Ottanta. I membri del club erano persone abituate a creare la propria realtà e a rifiutarne una surrogata e di seconda mano; erano (e sono) persone che preferivano fare le cose che limitarsi a parlarne. All’inizio le riunioni del Reality Club si tenevano in ristoranti cinesi, loft di artisti, musei, salotti e sale riunioni di luoghi come
la Rockefeller University, la New York Academy of Sciences e diverse banche d’investimento. EDGE è nato dal Reality Club ed è una fondazione senza fini di lucro creata nel 1988. Ora si è spostata su Internet. Vi troverete molte delle menti più acute di oggi che portano le proprie idee al centro del dibattito, ben sapendo che esse verranno sfidate. The New Scientist ha definito il sito «mozzafiato» e lo ha lodato per il fatto di porre «domande
importanti, profonde e ambiziose,
domande
che
suggeriscono come la scienza stia finalmente sconfinando nei territori della filosofia e della religione».
Alcuni collaboratori di EDGE sono autori di best-seller o comunque personaggi noti nell’ambito della cultura di massa. La maggior parte non lo è. EDGE incoraggia il lavoro sui perimetri della nostra cultura e l'indagine di idee che non sono state esposte in modo approfondito. Il motto della comunità è «arrivare al confine della conoscenza del mondo,
cercare le
menti più complesse e sofisticate, metterle tutte insieme in una stanza e lasciare che si pongano l’una con l’altra le do-
14
mande che pongono a sé stesse». EDGE è un punto di vista, non solo un gruppo di persone. I suoi collaboratori condividono i confini della propria conoscenza e reagiscono vivacemente ai commenti, alle critiche e alle intuizioni dei loro col-
leghi. La rivista Wired ha definito EDGE come «una squadra di serie A: [...] ricrea il Circolo Vizioso di Dorothy Parker senza il
cibo e l’alcol. [...] Un'idea brillante, in parte grazie ai nomi che vi partecipano: Richard Dawkins, Freeman Dyson, David Gelernter, Nathan Myhrvold e Naomi Wolf, per citarne solo al-
cuni». Ma EDGE è un gruppo del tutto differente da quelli come la Tavola rotonda di Algonquin, gli Apostoli o il gruppo di Bloomsbury. La qualità dell’avventura intellettuale è la stessa. Forse l'esempio più simile per il passato è l’ottocentesca Società Lunare di Birmingham, un club informale di figure culturali di
spicco
della
prima
età industriale: James
Watt,
Erasmus
Darwin, Josiah Wedgwood, Joseph Priestley, Matthew Boulton,
William Withering. La comunità di EDGE riunisce in modo simile coloro che stanno esplorando i reami dell’era postindustriale. EDGE ha ospitato un ampio ventaglio di contributi da esponenti delle arti e delle scienze: l’antropologa culturale Mary Catherine Bateson su come colmare i gap culturali, il biologo evolutivo Richard Dawkins sulla visione della scienza da parte dell’opinione pubblica, il fisico Freeman Dyson sul futuro ultimo della vita nell’universo, il musicista Brian Eno
sulla creazione di valori culturali, lo psicologo Howard Gard-
ner sulla riforma scolastica, il biologo Stuart Kauffman sul tempo nella cosmologia quantistica, la psicologa Judith Rich Harris su come si forma la personalità. Nelle interviste e nelle conversazioni presentate in questo li-
bro mi sono preso la licenza redazionale di riprodurre i nastri sotto forma di saggio. Immaginando che le idee di chi partecipa a EDGE saranno ben più interessanti per il lettore rispetto alle mie idee sulle loro aree di studio, ho eliminato dal testo le
mie domande. Ma benché gli intervistati abbiano letto e in alcuni casi modificato le trascrizioni, in nessun modo questi ca-
pitoli sono intesi a rappresentare la loro scrittura. Per questo
potrete leggere i loro libri, elencati nell’appendice «Letture consigliate». 15
Quando il mio saggio / nuovi umanisti comparve su EDGE nell’aprile 2002, ricevette un numero di risposte da record compresa qualche veemente confutazione - da parte dei membri della mailing list di EDGE. L'Epilogo contiene una selezione di questi pungenti commenti da parte di alcuni dei nuovi umanisti. John Brockman,
New York, giugno 2003
16
Prima parte HOMO
SAPIENS
Z
gh
PAU
nego
a sister
Sag arsioirt pi di postu, raned
- “oteitagialfalacririrae ae;
CLEz
pci; pied ct adige i:
4
L
È
silola raicaiiàg
id
41) fatante alianti degno |
Fi lt IE SIOCITEA RAVE Intraxigolt polpo da Lise dassE ianamprio serie ba
olezz prora ese guai tbpiscab
10», eater
papar saran went ab; Riuniii
ipsa Seta IANEIO oprestas ibra dine beniLui
9
“R
sr
lab astetitog eiib: atto
RA
Pula
dro
iazzone
IAFRINIAN
“ima
LS
dad
tv etna ola ta i
ender
rango
sì
datve
"rare
21
fin vedi a
re
Lisi oneiteb
pil vote,
AE af cai rp
ciba vafndaipe ss Dee seppenes
ee
ù Ridi ami
separi 23
Pie
AC
naro
re
ciglia
cane
eso
Sia,
i»
thè
quis
Biggio
ag
Su
di
dItapas
beate
solari PAIEPICITV A
ini ner:
DAS
blame ria aeògre appresab anoldong.Usia:
sie
Dia
e)
de
fipstpee lita
6 Sa ssp
atta
SAMI vicesgiatitnii
I La serena:
mast
sutta. € nen pra.Sl SARI
di
DA)
Pa
ANDY CLARK®
Cyborg nati?
Il nostro cervello è (per natura) insolitamente plastico: il suo cor-
retto funzionamento biologico ha sempre implicato il reperimento e lo sfruttamento di elementi di sostegno non biologici. Più di qualsiasi altra creatura del nostro pianeta, noi umani siamo dei «cyborg nati», regolati e congegnati dalla nascita per essere pronti a elaborare architetture cognitive e computazionali, architetture i cui confini sistemici eccedono di gran lunga quelli della pelle e delle ossa.
Il mio corpo è elettronicamente vergine. Non vi sono incorporati chip di silicio, impianti retinali o cocleari né pacemaker. Non porto nemmeno gli occhiali. Ma mi sto sempre più trasformando in un cyborg. E così anche voi. Molto presto - e sempre senza alcun bisogno di fili elettrici, chirurgia o alterazioni corporee - saremo simili a Terminator, a Eve 8, a Ca-
ble. Insomma: al nostro cyborg preferito. Forse lo siamo già. Perché non saremo dei cyborg nel senso più superficiale di esseri che combinano carne e cavi, ma in quello più profondo di simbionti umano-tecnologici, sistemi pensanti e ragionanti le cui menti e personalità sono diffuse tra un cervello biologico e una serie di circuiti non biologici. Tutto ciò potrà sembrarvi il solito sproloquio futuristico, e non ho alcun problema a confessare che ho scritto il paragrafo precedente con il secondo fine di catturare la vostra attenzione, sebbene percorrendo la pericolosa strada di giocare con la vostra immediata disapprovazione! Ma di fatto credo che si tratti della pura e semplice verità. Credo che si tratti so“ Andy Clark è docente di filosofia e direttore del Cognitive Science Program dell’Indiana University. In passato ha insegnato filosofia alla Sussex University (GB) ed è stato direttore del Philosophy/Neuroscience/ Psychology Program della Washington University di St. Louis. È autore di Microcognizione; Associative Engines; Being There; Dare corpo alla mente e Natural-Born Cyborgs.
65
prattutto di una verità scientifica, un riflesso di determinati fatti profondi e importanti che riguardano (vi sembra un po’ paradossale?) la nostra specie e in particolare la natura umana. Non credo assolutamente che questa tendenza all’ibridazione cognitiva sia uno sviluppo moderno: si tratta piuttosto di un aspetto della nostra umanità fondamentale e antico quanto l’uso della parola, che dalla sua nascita non ha fatto altro che estendere il proprio territorio. Possiamo individuare alcune «tracce fossili cognitive» del tratto-cyborg nella processione storica di potenti tecnologie cognitive che inizia con la parola e il conteggio, si trasforma inizialmente nella scrittura e nei numeri, poi nelle prime stam-
pe (senza caratteri mobili), poi nella rivoluzione dei caratteri mobili e delle presse da stampa e in tempi recenti nella codificazione digitale che conferisce a testo, suono e immagine un
formato uniforme e ampiamente trasmissibile. Tali tecnologie, una volta messe all'opera nelle diverse apparecchiature e istituzioni che ci circondano,
non
si limitano
certamente
a
consentire la memorizzazione esterna e la trasmissione delle idee. Esse costituiscono una cascata di aggiornamenti mentali, sconvolgimenti cognitivi nel corso dei quali l’architettura stessa della mente umana viene alterata e trasformata. Ancora più importante è il fatto che l’utilizzo, la portata e la forza di trasformazione di queste tecnologie cognitive stanno avendo un’escalation. Nuove ondate di tecnologie user-sensitive potrebbero presto portare questo antico processo a un climax, mentre le nostre menti e le nostre identità diventano sempre più profondamente inviluppate in una matrice non-biologica di macchine, strumenti, sostegni, codici e oggetti quotidiani semi-intelligenti. Noi umani siamo sempre stati di fatto molto abili a connettere le nostre menti e le nostre capacità alla forma degli strumenti e degli ausili che avevamo di volta in volta a disposizione. Ma quando questi strumenti e ausili iniziano a rispondere quando le nostre tecnologie si adattano a noi in modo attivo, automatico e continuo, proprio come noi facciamo con loro —-
il confine tra strumento e utente si fa estremamente labile. Tali tecnologie assomiglieranno sempre meno a strumenti e sem-
66
pre più a parti dell'apparato mentale dell’utente. Resteranno degli strumenti nello stesso modo (sottile e in ultima analisi paradossale) in cui lo sono le mie strutture neurali inconsce (il
mio ippocampo, la mia corteccia parietale posteriore). Io di fatto non «uso» il mio cervello. L'operatività del cervello fa piuttosto parte di ciò che fa di me quello che sono. La stessa cosa vale per questa nuova ondata di tecnologie sensibili e interattive. A mano a mano che il nostro mondo diviene più intelligente e impara a conoscerci sempre meglio, si fa via via più difficile dire dove finisce il mondo e inizia la persona. Quali sono queste tecnologie? Sono numerose e differenziate. Comprendono macchinari potenti e portatili che collegano l'utente a un World Wide Web sempre più reattivo. Ma anche e forse la cosa è ancora più importante - la crescita graduale dell’intelligenza e dell’interconnessione dei numerosi oggetti quotidiani che popolano le nostre case e i nostri uffici. Il mio obiettivo immediato non è però parlare di nuove tecnologie, ma parlare di noi, del nostro senso del sé e della na-
tura della mente umana. Il punto non è cercare di indovinare chi potremo diventare tra non molto tempo, ma comprendere
meglio ciò che siamo ora: creature le cui menti sono speciali proprio perché strutturate appositamente per mescolare e combinare elementi neurali, corporei e tecnologici.
Le tecnologie cognitive potrebbero essere meglio definite come parti profonde e integranti dei sistemi di risoluzione dei problemi che costituiscono l’intelligenza umana, come parti dell'apparato computazionale che costituisce le nostre menti. Se non ce ne rendiamo sempre conto, se l’idea ci può appari re fantasiosa o assurda, è perché siamo in balia di un semplice pregiudizio: qualsiasi cosa conti in relazione alla mente deve dipendere esclusivamente da quanto avviene all’interno del confine biologico del corpo, dentro l’antica fortezza della pelle e delle ossa. Ma questa fortezza è stata costruita per essere invasa. Si tratta di una struttura la cui virtù risiede in parte proprio nella capacità di adattare leggermente le proprie atti-
vità per collaborare con fonti esterne e non-biologiche allo scopo (quantomeno in origine) di risolvere meglio i problemi della sopravvivenza e della riproduzione.
67
Prendete in considerazione un esempio limitato ma rappresentativo: il processo di scrivere un articolo per un giornale, un saggio accademico, un capitolo di un libro. Quando ci troviamo di fronte al prodotto finito e tirato a lucido, potremmo provare il desiderio di congratularci con il nostro cervello per il buon lavoro svolto. Ma è un desiderio fuorviante, non solo
perché (in linea generale) la maggior parte delle idee non erano in ogni caso nostre, ma anche perché la struttura, la forma
e il flusso del prodotto finale dipendono spesso in larga misura dalle complesse modalità con cui il cervello collabora con (e si affida a) diverse caratteristiche peculiari dei mezzi e delle
tecnologie con cui interagisce costantemente. Noi tendiamo a pensare al nostro cervello biologico come alla sorgente di tutto il contenuto finale. Ma se guardiamo un po’ più da vicino,
ciò che spesso scopriremo è che il cervello biologico ha partecipato a una serie di loop potenti e iterati attraverso l’ambiente tecnologico cognitivo. Abbiamo iniziato probabilmente riguardando qualche vecchio appunto, dopodiché ci siamo rivolti a qualche fonte originale. A mano a mano che leggevamo, il nostro cervello generava delle risposte frammentarie e immediate, che venivano accuratamente registrate come segni sulle pagine o ai margini. Il ciclo si ripete, fa una pausa per riportare il loop ai progetti e ai bozzetti originali e correggerli nello stesso modo frammentario e immediato. Tutto questo processo di critica, riorganizzazione, ottimizzazione e collegamento è profondamente informato dalle proprietà specifiche dei media esterni che consentono a questa sequenza di semplici reazioni di essere riorganizzate e di trasformarsi in qualcosa di simile a un’argomentazione. Il ruolo del cervello è fondamentale e speciale. Ma. non è tutto. Di fatto il vero potere e la vera bellezza del ruolo del cervello risiedono nel fatto che esso agisce da fattore di mediazione in una varietà di processi complessi e iterati che creano un loop ininterrotto tra cervello, corpo e ambiente tecnologico. Ed è questo sistema allargato a risolvere il problema. Ci troviamo così di fronte al corrispettivo della visione di Richard Dawkins del fenotipo esteso. Il processo intelligente è proprio
68
quello esteso in senso spaziale e temporale che procede a zigzag tra cervello, corpo e mondo. Un metodo utile per comprendere il ruolo cognitivo di molte delle tecnologie cognitive che abbiamo creato consiste nell’affidare loro delle operazioni complementari a quelle che risultano più naturali per il nostro cervello biologico. Si pensi all'immagine connettivista dei cervelli biologici come macchine per il completamento di schemi. Tali macchine sono in grado di collegare agevolmente gli schemi degli input sensori con delle informazioni associate: sentite le prime battute di una canzone e ne ricordate il seguito, vedete la coda di un topo ed
evocate l’immagine dell’animale. Le macchine computazionali di questa ampia classe si dimostrano eccezionalmente efficaci in attività quali il coordinamento sensomotorio, il riconoscimento facciale, il riconoscimento vocale e così via. Non so-
no invece adatte alla logica deduttiva, alla pianificazione e alle attività tipiche del ragionamento sequenziale. In poche parole, sono brave con il frisbee e negate per la logica, un profi-
lo cognitivo al tempo stesso familiare e alieno. Familiare perché l'intelligenza umana ha evidentemente qualcosa di simile, alieno perché noi trascendiamo costantemente questi limiti progettando vacanze
di famiglia, gestendo risorse economi-
che, risolvendo complessi problemi sequenziali e così via. Secondo un'ipotesi estremamente interessante (in cui mi so-
no imbattuto per la prima volta negli scritti degli scienziati cognitivi David Rumelhart, Paul Smolensky, John McClelland e Geoffrey Hinton), noi trascendiamo questi limiti in larga parte combinando le operazioni interne di una macchina connettivista per il completamento di schemi con una serie di operazioni e strumenti esterni che servono a ridurre diversi problemi sequenziali complessi a un set ordinato di semplici operazioni di completamento di schemi, con le quali il nostro cervello è molto più a suo agio. Così, per prendere in prestito l’esempio fatto dagli autori, noi possiamo affrontare una lunga moltiplicazione (diciamo 667 x 999) usando carta, penna e simboli numerici. Dopodiché ci dedichiamo a un processo di
manipolazione e memorizzazione esterna di simboli allo scopo di ridurre il problema complesso a una sequenza di sem-
69
plici passaggi (che già conosciamo) di completamento di schemi, moltiplicando prima 9 x 7 e memorizzando il risultato sulla carta, per passare poi a 9 x 6 e così via. L’antropologo cognitivo Edwin Hutchins nel suo libro Cognètion in the Wild descrive il ruolo generale delle tecnologie cognitive in termini simili, suggerendo che tali strumenti «consentono [all'utente] di eseguire le attività necessarie facendo il
genere di cose in cui è bravo: riconoscere schemi, modellizzare semplici dinamiche del mondo e manipolare oggetti nell’ambiente». Questa descrizione coglie molto bene ciò che hanno di meglio le tecnologie cognitive più efficienti come i software per l'elaborazione di testi, i browser per il web, i sistemi di mouse e
icone e così via. (Naturalmente suggerisce anche che cosa vi è di sbagliato in molti dei nostri tentativi iniziali di creare qualcosa del genere. Le capacità necessarie per utilizzare questi ambienti - i primi videoregistratori, elaboratori di testi eccetera — era-
no esattamente quelle più difficili da supportare per il cervello biologico: la memorizzazione e l'esecuzione di lunghe sequenze di operazioni sostanzialmente arbitrarie e così via.)
L'idea è quindi la seguente: un grande balzo o una discontinuità nell'evoluzione cognitiva umana implicherebbero il modo distintivo in cui il cervello umano crea e sfrutta diverse tipologie di tecnologie cognitive al fine di espandere e riorganizzare lo spazio del ragionamento umano. Più di qualsiasi altra creatura sul pianeta, noi utilizziamo elementi non-biologici (strumenti, mezzi di comunicazione, annotazioni) per affianca-
re (e non - in linea generale - replicare) le nostre modalità biologiche fondamentali di elaborazione, creando così sistemi co-
gnitivi estesi i cui profili computazionali e relativi alla risoluzione di problemi sono abbastanza differenti da quelli del cervello biologico. Il cervello umano porta avanti un intricato minuetto cognitivo con un ambiente ecologicamente nuovo e dalle immense potenzialità: il mondo dei simboli, dei mezzi di comunicazione, dei formalismi, dei testi, delle parole, degli stru-
menti e della cultura. Il circuito computazionale della cognizione umana scorre così sia all’interno sia al di là della testa. Questo punto di vista non è nuovo ed è stato ben illustrato
da una serie di pensatori appartenenti a diverse aree del sape70
re. Ritengo però che l’idea di una cognizione umana che vive in un'architettura ibrida ed estesa (che comprende aspetti del cervello e dell’involucro tecnologico cognitivo in cui questo si sviluppa e opera) sia tuttora molto sottovalutata. Non possiamo sperare di comprendere che cosa vi sia di speciale e di specifico nel pensiero e nella ragione umana limitandoci a pubblicizzare l’importanza di questa rete di tecnologie. Dobbiamo lavorare per una comprensione più particolareggiata di come i nostri cervelli connettano attivamente le loro attività di risoluzione di problemi con una varietà di risorse non-biologiche, nonché di come funzionino, si modifichino, interagiscano e si
evolvano i sistemi più allargati che si vanno in questo modo a creare. Potrebbe inoltre essere ben presto importante (da un punto di vista morale, sociale e politico) allentare apertamente i legami tra le idee stesse di mente e persona e l’immagine dei confini, delle proprietà, delle dislocazioni e delle limitazioni dell’organismo biologico fondamentale. Una domanda da porsi sarebbe questa: dato che nessun’altra specie terrestre costruisce ambienti progettati in modo tanto variato, complesso e aperto quanto i nostri (e in fondo è questo il motivo per cui siamo speciali), che cosa ha permesso
a questo processo di decollare in modo così spettacolare nella nostra specie? E non è forse questo — di qualunque cosa si tratti - ciò che conta veramente? In altre parole: se anche sono gli ambienti progettati a renderci tanto intelligenti, non è forse una qualche differenza biologica profonda a consentirci di costruirli, scoprirli e utilizzarli? È una domanda seria, importante e perlopiù ancora priva di risposte. Evidentemente deve esservi una qualche (anche mini-
ma) differenza biologica che ci consente di infilare il nostro piede collettivo nella porta degli ambienti progettati. Di cosa si tratta? Una possibile risposta identifica questa differenza con un’innovazione biologica in termini di plasticità corticale diffusa, combinata con il periodo esteso di apprendimento protetto chiamato infanzia. Neurocostruttivisti come Steve Quartz e Terry Sejnowski descrivono la crescita neurale (e in particolare quella corticale) come un processo dipendente dall’esperienza che implica la costruzione di nuovi circuiti neurali (si-
71
napsi, assoni, dendriti) piuttosto che la regolazione di un circuito la cui forma di base è già determinata. Una conseguenza è che il meccanismo stesso dell’apprendimento cambia in seguito alle interazioni tra organismo e ambiente. L’apprendimento non altera solo la base di conoscenze di una data macchina computazionale, ma anche la stessa architettura computazionale interna. Gli ambienti linguistici e tecnologici in cui il cervello umano cresce e si sviluppa sono quindi calibrati per
fungere da punti di ancoraggio attorno ai quali tali risorse neurali flessibili si adattano e si rendono idonee. Forse allora presupporre una «natura umana» fissa con un
semplice rivestimento di strumenti e cultura è un errore, poiché questi ultimi sono tanto fattori determinanti della nostra
natura quanto suoi prodotti. Il nostro cervello è (per natura) insolitamente plastico: il suo corretto funzionamento biologico ha sempre implicato il reperimento e lo sfruttamento di elementi di sostegno non biologici. Più di qualsiasi altra creatura del nostro pianeta, noi umani siamo dei «cyborg nati», regolati e congegnati dalla nascita per essere pronti a elaborare architetture cognitive e computazionali, architetture i cui confini sistemici eccedono di gran lunga quelli della pelle e delle ossa.
Tutto ciò conferisce una maggiore e interessante complessità alle trattazioni di psicologia evolutiva che sottolineano i nostri ambienti ancestrali. Oggi dobbiamo tenere conto di una sfumatura evolutiva eccezionalmente plastica che fornisce un obiettivo in continuo movimento, un’architettura cognitiva estesa la cui coerenza risiede principalmente nella continua apertura al cambiamento. Anche ammesso che le innovazioni biologiche che hanno messo in moto tutto ciò siano state del-
le piccole modifiche a un repertorio ancestrale, il risultato di questa sottile alterazione è un improvviso ed enorme balzo nello spazio architettonico cognitivo. La nostra macchina co-
gnitiva è ora intrinsecamente attrezzata per la trasformazione, per l’espansione tecnologica, un processo autoperpetuante a effetto valanga di crescita computazionale e rappresentativa. Il macchinario della ragione umana contemporanea affonda le proprie radici in una progressione incrementale di tipo bio-
72
logico e si dà al tempo stesso sul versante opposto di un ripido precipizio nello spazio architettonico cognitivo. In sintesi: il progetto di comprensione del pensiero e della ragione umani è spesso e volentieri basato su una premessa errata, e tale premessa consiste nella sua definizione
come
il
progetto di comprensione di quanto vi è di speciale nel cervello umano. Non vi è alcun dubbio su fatto che vi sia qualcosa di speciale nel nostro cervello. Ma per comprendere i nostri profili specifici di ragionatori, pensatori e conoscitori dei nostri mondi è necessaria una prospettiva ancora più ampia, che analizzi cervelli e corpi multipli operanti in ambienti appositamente costruiti e ricchi di artefatti, simboli esterni e di tutti
i variegati supporti delle scienze, delle arti e della cultura. Per comprendere quanto vi è di specifico nella ragione umana è necessario comprendere i contributi complementari della biologia e della tecnologia (nel senso più ampio del ter-
mine), nonché i loro fitti schemi reciproci di influenza causale e coevolutiva. Non potremo vederci nella giusta luce finché non ci vedremo come i cyborg della natura: ibridi cognitivi che occupano ripetutamente regioni di spazio progettato radicalmente differenti da quelle dei nostri antenati biologici. Il compito più difficile consiste ora nel trasformare tutto ciò da un semplice schizzo impressionistico a una trattazione scientifica ed equilibrata della mente estesa.
73
cr diwr sw sngradia sendtanetsasio lame aiar
iii
i
ol
vopepa
pietà
6:54
h
mi
btaee
praii
cadr
os er:
ai dite
: o Sc picigesr
tor
dsapaindie:
BELLA RECBISIODAI
TTI
BETA 1
di citi peg
ari
26
è TRocResttici
ji
ii pais rogge difpet >
AVMALILIEI Li walran
Vide
vinti
ice
—
srtBrar fur pacnacriti Las iSUI cb
1 Gata ui
i reggesarde cost‘ peo
0A
Ei stusattò sd na
sid
pra
talia vieiamcsamonte
rmtrisstànb esche
«rina
%&
N
ed
Cello
Suit
Li RIM
cara
li
dnPES L07)
1A
SIGLET
aa
ET
ras
io
ata tes
ni
-
l
È
rI73.
,
re
pe
(IC
A
1%
È
eo
vii
iù i
mo
utia x
di
eb
Mi putin ritt
PATZION
e] LAI
dev ac
di cià
de
Rito
in
LA
n»
diletiyt,
LSP RRTOTAI Pi
SEE
|
INVE
RACC] pet 2a
re pregati
ri
A api
fot
ran
sit
-
peti si I
e Y appreventaiia.
b;
wu ria :
AR
mitica 1 "6NP ba oa
ELETNOI
4
di
Cu
VISCI
cvesttegcri ppatirtornite Ie
i
afraeenie
tH33
rengraitivo,
A
.
6g tao toi [CRI
7 De
‘
rici 2
St
:
AEG
v
4
er pr
isszio?
DI
bui
‘
"
C i
sue
i
Dara
MATATO
Pe
sda
ui
Pi ue
i4]rr20®
insonnia
ste ibuirg
; ris
ssi £parc
praragne de nità br | san ir
stro
Co-( 3
#
ei PESAAO
ci
4
gia) Ge)
1
î
tr È,
avnrorpanatòà |Ì
MR:
sizietoo
è
per]
LOLA
ar
Li
ERI
cv
nei
o
NIENTE
PHI
bi
i
è Sa
3.
PLETRI £
da
i
|
» "e
534
0724)
- DI at dn
a. è
Tyra è
NASA
SIIT]
ar
sn
i Lea ESD:
RR LEE
5
togaoA ato LOVPRE Cit
“de SIAT,
agitati La a
Suasa 138%
ES e) hi
MAGIE RIU I
reni Sar LYRA Pi
%
i
Vedi.
PLETRI
Te
ia
i
(As
84
>»
x$
MII)
:
Pi
1 tx SUI rc
ci pa
MARC
D. HAUSER*
Menti animali
Nel mio campo d’indagine abbiamo iniziato a prendere in considerazione i tipi di computazione che animali e bambini sono in grado dì eseguire quando interagiscono con il mondo fisico e sociale. Vogliamo capire come sì sono evolute tali capacità e in che modo vincolino il pensiero.
Alcuni dei problemi con cui abbiamo ache fare nelle neuroscienze e nelle scienze cognitive riguardano lo stato iniziale dell'organismo. Con quale dotazione vengono al mondo gli animali, umani compresi? Di quali strumenti mentali dispon-
gono per gestire i problemi del mondo fisico e sociale? Nelle neuroscienze è relativamente diffusa l’illusione che si stia davvero iniziando a comprendere come funzioni il cervello. Noam Chomsky, in una recente conferenza intitolata Language and the Brain (Linguaggio e cervello) ha ricordato a noi neuroscienzia-
ti quanto poco ancora sappiamo, soprattutto per quanto riguarda il modo in cui il cervello gestisce il linguaggio. L’idea esposta da Chomsky - che io condivido e che costituisce una parte fondamentale del mio approccio alla ricerca è la seguente. Prendendo in considerazione qualsiasi sistema cognitivo, si devono porre tre questioni. Primo: da che cosa è costituita la conoscenza in un dato ambito, per esempio il linguaggio, la musica o la morale? Secondo: come viene acquisita questa conoscenza? Terzo: come viene utilizzata nel mondo questa conoscenza? Prendiamo il caso di un sistema molto semplice ed estremamente abile in un tipo di calcolo basato su * Marc D. Hauser è neuroscienziato cognitivo presso la Harvard University, dove è docente dell’Harvard College, docente del dipartimento di psicologia e del programma di neuroscienza e direttore del programma Mind, Brain and Beh avior. E autore di The Evolution of Communication; Menti selvagge e di due libri di prossima pubblicazio-
ne: People, Pets, o Property? e Ought: The nevitability of a Universal Moral Grammar.
75
una conoscenza particolare del mondo: l’ape domestica. Questo piccolo insetto (cervello di ridotte dimensioni, sistema nervoso semplice) è in grado di trasmettere alla propria colonia informazioni su dove è stato e cosa ha mangiato con una precisione sufficiente perché i membri della colonia possano trovare il cibo. Sappiamo che quel genere di informazioni è codificato nel segnale grazie alle scoperte dovute a un’ape robotica, programmata per danzare in un certo modo e replicare il comportamento delle api reali: se mettiamo questo robot nel mezzo di una colonia e lo facciamo danzare in contrappunto alle altre api, i membri dell’alveare assumeranno le sue informazioni e si dirigeranno nella direzione indicata. Ma quando si fa un passo indietro e ci si chiede: «Che cosa sappiamo del modo in cui il cervello dell’ape rappresenta questo genere di informazioni?», la risposta è: «Quasi nulla». La nostra conoscenza del modo in cui il cervello di un’ape rappresenta la propria danza - ovvero il proprio linguaggio - è molto scarsa. E stiamo parlando di un sistema nervoso relativamente semplice, soprattutto se lo si confronta con quello umano. Questa conclusione non nega in alcun modo il progresso compiuto dai ricercatori che hanno documentato ciò che le api sanno del mondo, come esse acquisiscono queste informazioni e come le utilizzano. Ciò che manca - o quantomeno ciò che è poco compreso - è come il cervello dell’ape rappresenti ciò che sa e come esso acquisisca e utilizzi queste informazioni. Il punto principale della tesi di Chomsky è che ciò che sappiamo su come il cervello umano rappresenta il linguaggio è in certa misura - insignificante. I neuroscienziati hanno fatto molti progressi. Oggi sappiamo quali aree del cervello, quando vengono danneggiate, eliminano determinati aspetti della facoltà linguistica: per esempio un danno a una parte specifica del cervello porta alla perdita della rappresentazione delle consonanti, mentre un altro danno causa la perdita della rappresentazione delle vocali. Ma sappiamo relativamente poco di come i circuiti del cervello rappresentino le consonanti e le vocali. Lo iato tra l’attuale conoscenza neuroscientifica del cervello e la conoscenza di rappresentazioni come quella del lin-
guaggio è assai ampio. 76
Una questione collegata a tutto ciò riguarda il modo in cui si sono evolute le computazioni e i meccanismi sottesi all’acquisizione della conoscenza. Prendiamo nuovamente in considerazione il linguaggio. Possiamo chiederci se altri animali condividono con noi questa facoltà. In caso contrario, è perché non dispongono delle computazioni interne o a causa di limitazioni che esulano dallo specifico della facoltà del linguaggio, come per esempio una memoria o una capacità imitativa insufficienti? Nei primati, i lobi frontali del cervello, che
svolgono un ruolo nella memorizzazione a breve termine delle rappresentazioni, sono cambiati enormemente nel corso del tempo. Quindi i nostri parenti più prossimi, le scimmie, probabilmente non hanno le strutture neurali che consentirebbero loro di eseguire il tipo di computazioni necessarie per elaborare un linguaggio, compresa la facoltà di memorizzare una
lunga serie di borbottii per elaborare un significato. Nel mio campo d’indagine abbiamo iniziato a prendere in considerazione i tipi di computazione che animali e bambini sono in grado di eseguire quando interagiscono con il mondo fisico e sociale. Vogliamo capire come si sono evolute tali capacità e in che modo vincolino il pensiero. Tutti i sistemi aperti e generativi creati dalla natura utilizzano una serie discreta di elementi ricombinabili. La domanda che ci si può porre in biologia è: «Quali tipi di sistemi sono in grado di elaborare questo genere di processi computativi?». Molti organismi sembrano capaci di semplici computazioni statistiche, quali le probabilità condizionali che si concentrano su dipendenze locali: «se A, allora B». Ma quando si sale al livello successivo della gerarchia computazionale (un livello che richieda la ricorsività) si trovano grandi limitazioni tanto tra gli animali quanto tra i neonati umani. Per esempio, un animale che sia in grado di elaborare la computazione «se A, allora B», avrebbe grandi difficoltà a elaborare «se A alla n, allora B alla
n». Iniziamo qui ad avere un loop, una regola che si riferisce a sé stessa e genera una gamma relativamente illimitata di espressioni. Se agli animali, a quanto pare, manca questa capacità, allora abbiamo identificato un vincolo evolutivo. Gli umani hanno sviluppato la capacità della ricorsività, una computazione
77
che ci ha dato grande libertà consentendoci di esercitare tanto la matematica quanto il linguaggio. È questo modo di prendere degli elementi discreti e ricombinarli a dare alla genetica e alla chimica la loro struttura aperta. Dato questo schema ricorrente, è interessante porsi alcune domande. Quali sono state le
spinte selettive che hanno portato all’evoluzione di un sistema ricorsivo? Perché gli umani sembrano essere gli unici organismi del pianeta (gli unici sistemi naturali) ad avere questa ca-
pacità? Quali sono state le pressioni che lo hanno creato? Per quanto riguarda l’intelligenza artificiale, quale tipo di pressioni porterebbe un sistema artificiale a questo genere di esiti? Un problema interessante per quanto concerne i sistemi biologici naturali e i sistemi artificiali è il seguente: possono incontrarsi? Quale tipo di pressioni porta a sviluppare una capacità ricorsiva? La biologia comparativa al momento non fornisce alcun indizio utile, perché ci troviamo semplicemente di fronte a due punti d’arrivo: gli umani sono dotati di questa ca-
pacità e altri organismi (a quanto pare) no. Questa transizione evolutiva è ancora oscura. Le grandi domande che mi pongo sono quelle per le quali non abbiamo delle risposte, domande
come:
«Perché l’Homo
sapiens è l’unica specie che lacrima quando piange?». Le emozioni che scatenano le lacrime sono comuni tanto agli umani quanto agli animali, ma noi siamo la sola specie che genera un output fisico di queste emozioni. Se si considera la lacrimazione da un punto di vista evolutivo (cosa che non è mai stata fatta seriamente) si iniziano a ottenere alcune risposte. A dif-
ferenza di tutte le altre espressioni emotive, la lacrimazione la-
scia una traccia fisica a lungo termine. Appanna la vista, per cui ha un costo. È anche molto difficile da simulare. Tutto ciò suggerisce un'idea proposta molti anni fa dal biologo evoluti vo Amotz Zahavi: i segnali la cui produzione ha un costo sono segnali sinceri; è possibile osservare un segnale e dedurne la
sincerità in base al costo dell’espressione. La lacrimazione è potenzialmente uno di questi: si pensi agli attori che devono ricreare dentro di sé una sensazione specifica per generare questa espressione (e spesso la cosa risulta comunque difficile). Sappiamo che gli animali provano tristezza; è difficile dire
78
se provino anche la gioia, ma hanno certamente delle emozioni che, negli umani, indurrebbero ad associare la lacrimazione
al pianto. Non è che gli animali non lacrimino: lo fanno se un occhio è fisicamente irritato. È che manca loro una qualche connessione neurale tra lo stato psicologico sotteso all’emozione e il sistema che genera la lacrimazione. Dire che il loro cervello non è dotato di questa connessione significa rispondere a un primo livello analitico, quello meccanico: quali meccanismi del cervello supportano la lacrimazione? È più interessante assumere un approccio evolutivo e chiedersi perché noi associamo il pianto alla lacrimazione e gli altri animali no. E la risposta è che la lacrimazione è un’espressione che comunica sincerità. Negli ultimi anni ho utilizzato gli strumenti teorici della biologia evolutiva per porre delle domande sulla struttura della . mente animale. L'idea di fissare l’ambiente dell’adattamento evolutivo al periodo dei cacciatori/raccoglitori del Plio-Pleistocene potrebbe essere corretta per alcuni aspetti della mente umana, ma è probabilmente sbagliata per altri. In che modo gli organismi si orientano nello spazio? Come riconoscono un oggetto? Come enumerano gli oggetti nel proprio ambiente? Questi aspetti sono probabilmente condivisi da un’ampia gamma di animali. Anziché decidere che la mente umana si sia evoluta e formata nel corso del Plio-Pleistocene, è più sensato chiederci che cosa sia successo nel Plio-Pleistocene per imprimere sulla mente umana una serie di caratteristiche che non esistono in altri animali. Ho preso in considerazione diversi ambiti della conoscenza e mi sono chiesto quali spinte selettive abbiano informato i modi in cui pensano i diversi organismi. Sto cercando di allontanarmi dall'approccio comune rispetto all’evoluzione umana e alla cognizione animale, ovvero l’idea secondo la quale gli umani sono unici, punto e basta. 7'utti gli animali sono unici e la domanda davvero interessante è in che modo le loro menti siano state forgiate da problemi sociali ed ecologici specifici che l’ambiente ha posto loro. Per esempio, anziché affermare che gli umani sono unici, noi ci chiediamo: quali sono state le
pressioni che gli umani (a differenza di tutti gli altri animali) 79
hanno dovuto affrontare e che hanno creato la selezione per l'evoluzione del linguaggio? Perché per altri organismi sono sufficienti i sistemi di comunicazione di cui dispongono? Perché abbiamo sviluppato una visione a colori? Perché altri organismi non l’hanno fatto? Perché determinati animali sono in grado di orientarsi nello spazio con un semplice meccanismo quale la determinazione del punto stimato mentre altri ani mali hanno bisogno di supporti esterni per poter gestire lo spazio? Per quale motivo potremmo essere gli unici (o comunque tra i pochi) animali dotati della capacità di fare deduzioni su ciò che le altre persone credono o desiderano? Questo approccio allo studio degli animali e degli umani riunisce per la prima volta due discipline dotate di nuovi metodi comparativi. Stiamo oggi entrando in una fase dello studio della mente animale nella quale possiamo usare delle tecniche che sono state in parte sviluppate nello studio degli umani, e in particolare dei neonati umani; d’altro canto, alcu-
ni metodi sviluppati sugli animali sono utilizzati dagli scienziati cognitivi che studiano gli umani. Ecco un esempio: i ricercatori che studiano lo sviluppo cognitivo come Susan Carey, Elizabeth Spelke e Renee Baillargeon hanno implementato una nuova tecnica per chiedere ai neonati umani (ai quali
manca naturalmente un sistema linguistico funzionale) che cosa pensano del mondo. Si tratta di una tecnica estremamente semplice, che in realtà non è altro che un trucco da prestigia-
tori. L'idea è che quando assistiamo a uno spettacolo di magia, come quelli del grande Houdini o di David Copperfield, veniamo affascinati dal fatto che il prestigiatore crea delle violazioni davanti ai nostri occhi, o quantomeno delle violazioni rispetto alle nostre aspettative sul mondo fisico. Per esempio i corpi umani non possono essere tagliati a metà e poi ricomposti. Se la logica di uno spettacolo di magia o degli effetti speciali in un film cattura la nostra attenzione, è proprio per-
ché le nostre aspettative vengono violate. Possiamo quindi chiederci quali sono le aspettative di neonati umani o di ani-
mali non umani circa il modo in cui le cose dovrebbero funzionare, o fino a che punto alcune esperienze specifiche modificano queste aspettative. Se anche i nostri soggetti hanno
80
delle aspettative, allora dovremmo essere in grado di creare uno spettacolo di magia e catturare la loro attenzione. Dovrebbero mostrare più interesse per uno spettacolo di magia che per una dimostrazione confrontabile a questa ma coerente con il modo in cui funziona il mondo. Prendiamo in considerazione la conoscenza del sistema numerico sotteso alla matematica. Immaginiamo un palco aperto. Si alza uno schermo a bloccare la vista del palco. Un oggetto si sposta dietro lo schermo, seguito da un secondo oggetto. Chiamiamo questi due oggetti Topolino 1 e Topolino 2. Nelle nostre menti noi stiamo rappresentando due oggetti Topolino. Quando lo schermo viene rimosso, ci aspettiamo di vedere due oggetti Topolino. Se ne vediamo tre (o solamente uno) abbiamo una violazione delle nostre aspettative, perché nulla è stato visibilmente aggiunto o sottratto da ciò che si tro- . vava dietro lo schermo. E in effetti i neonati umani tra i quattro e i cinque mesi guarderanno più a lungo quando vedranno un risultato di questo genere che quando ritroveranno il risultato che sembravano aspettarsi. Io e i miei studenti abbiamo compiuto lo stesso esperimento su due specie di primati non umani (alcuni macachi che vivevano in libertà sull’isola portoricana di Cayo Santiago e i tamarini di Edipo del mio laboratorio di Harvard) e abbiamo avuto esattamente gli stessi risultati ottenuti dalla psicologa Karen Wynn sui neonati umani. Questi risultati sollevano una questione importante: determinati aspetti della nostra facoltà numerica (la conoscenza dei numeri) sono innati? Si tratta di una domanda importante per la nostra comprensione dei rapporti tra linguaggio e pensiero. In effetti, dato che gli animali non sono dotati di linguaggio,
gli studi delle loro rappresentazioni mentali forniscono un metodo eccezionalmente chiaro per comprendere quali siano le condizioni in cui il linguaggio è necessario per il pensiero. Gli studi sui neonati umani
e sugli animali suggeriscono
che l’evoluzione abbia dotato questi organismi di due meccanismi computazionali fondamentali per quanto riguarda la facoltà numerica: la capacità di discriminare con precisione piccoli numeri (fino a circa quattro) e quella di discriminare approssimativamente numeri più grandi. Questi meccanismi so81
no alla base della loro conoscenza dei numeri. Ciò che non è ancora chiaro è come questi due meccanismi (e forse altri an-
cora) creino un tipo di conoscenza numerica di tipo totalmente differente, quella alla base della competenza numerica
negli umani adulti. Nessun animale acquisisce l'elenco integrale che costituisce il nucleo del nostro sistema matematico. Si tratta di un dato di fatto. E in questo caso dobbiamo allora chiederci perché gli animali e i neonati umani non dispongano di questo sistema di conoscenza. Sappiamo che a un certo
punto gli umani acquisiscono la capacità di eseguire calcoli complessi, di diventare impiegati di banca, di compilare le
proprie dichiarazioni dei redditi. Gli animali non umani no. Che cosa succede nel corso dello sviluppo che separa un bambino umano da un animale non umano? Identificando il punto di divergenza, sapremo quale abilità cognitiva alla base del-
la conoscenza numerica adulta si è sviluppata nel bambino e non si è evoluta nell’animale non umano. Identificando le similarità e le differenze, iniziamo a vedere uno schema evoluti-
vo specifico della nostra specie e delle altre. Uno degli aspetti più innovativi del mio lavoro risiede nel fatto che, a differenza di altri ricercatori che si limitano allo studio
sul campo o in cattività e lavorano su un’unica specie, io ho assunto almeno quattro approcci diversi rispetto alla comprensione di ciò che gli animali sanno, pensano e rappresentano.
Il primo approccio è quello degli studi sul campo, ovvero lo studio diretto di quali tipi di problemi hanno informato il cervello degli animali nei loro habitat naturali. Osservare ciò che fanno gli animali ci dice quali problemi ha dovuto risolvere il loro cervello. (La stessa logica vale naturalmente anche per gli umani ed è uno dei motivi per cui lo studio della mente umana non dovrebbe limitarsi alle ricerche in laboratorio: dobbiamo scoprire quali tipi di problemi hanno dovuto affrontare gli uomini per capire in che modo le nostre menti sono state forgiate dalle forze ambientali.) Per esempio, la mia ricerca a Porto-
rico ha dimostrato che i macachi producono richiami diversi per diversi tipi di cibo. Questo ci suggerisce non solo che sono in grado di produrre suoni che comunicano informazioni sulle loro emozioni e sulle loro motivazioni (oltre che sul tipo e sul-
82
la qualità del cibo), ma anche che elaborano discriminazioni importanti tra oggetti differenti. Possiamo chiederci come producano queste discriminazioni, come memorizzino questa conoscenza e come la acquisiscano. Possiamo anche indagare, con esperimenti progettati per adattarsi al comportamento di animali selvatici, come essi rappresentino la conoscenza del cibo e
come usino questa conoscenza per comunicare con gli altri. Così io vado a osservare ciò che fanno gli animali in natura e poi torno al mio laboratorio, dove ho un maggiore controllo sperimentale, e mi pongo domande specifiche sulle loro capacità cognitive. In laboratorio abbiamo notato che gli animali sembrano distinguere qualsiasi tipo di oggetto faccia parte del loro mondo e ci siamo chiesti quali caratteristiche fossero rilevanti rispetto a questo tipo di discernimento. Oggi abbiamo alle spalle trent'anni di studi che mostrano come gli animali usino alcuni utensili per estrarre cibo dal loro ambiente, ma nessuna di queste ricerche ha rivelato il tipo di rappresentazioni che gli animali elaborano per utilizzare questi strumenti. Ecco il problema: in quanto umani noi sappiamo che ogni strumento possiede caratteristiche rilevanti e altre che non lo sono. Per esempio, la maggior parte delle lavastoviglie sono bianche, ma se entriamo in cucina e vediamo una lavastoviglie con i colori dell’arcobaleno non diciamo: «Non va bene, non
si possono lavare i piatti dentro quella cosa». Sappiamo che il colore è irrilevante per giudicare se si tratti o meno di una buona lavastoviglie. Quando osserviamo sul campo gli animali (per esempio gli scimpanzé) che usano le pietre per aprire le noci, la domanda è la seguente: se mettiamo loro di fronte una pietra e un martello, capiranno che quest’ultimo è più adatto ai loro scopi rispetto alla pietra? Preferiranno il martello? Capiranno che se dipingiamo la pietra di rosso la sua funzionalità non ne verrà modificata in alcun modo? In laboratorio abbiamo sistematicamente manipolato tutte le caratteristi che degli oggetti, sia quelle rilevanti sia quelle irrilevanti, per vedere se gli animali prendevano delle decisioni sulla base di queste caratteristiche. Abbiamo scoperto che di fatto gli ani-
mali sono abbastanza sensibili alle caratteristiche relative alla funzionalità e ignorano quelle che non hanno un impatto su
83
Ù
di essa. La loro conoscenza, in sostanza, non è una stringa di
associazioni ma una serie di principi per l’organizzazione di diversi ambiti di conoscenza.
Una terza fase di questo programma di ricerca consiste nel portare questi problemi a un livello più neurofisiologico. Abbiamo così avviato alcuni esperimenti, in collaborazione con neuroscienziati provenienti da tutto il mondo, per verificare come funziona il cervello dei macachi e in particolare per decodificare le informazioni sulle loro vocalizzazioni. Utilizzando le registrazioni da neuroni nelle varie aree uditive del cervello, riproduciamo le vocalizzazioni del loro repertorio e 0sserviamo come il loro sistema nervoso decodifica quell’informazione. Si tratta di un lavoro relativamente nuovo: abbiamo ormai accumulato da tempo un’incredibile quantità di informazioni sulla neurobiologia della visione utilizzando come
modello i macachi, ma non è stato fatto quasi nulla in termini di funzioni uditive. Eppure uno dei limiti della nostra attuale
comprensione dell’evoluzione del linguaggio e della parola è la mancanza di conoscenze sulla neurobiologia di questo sistema eccezionalmente complesso. Vi è una grande tradizione di questo genere di ricerche su insetti, uccelli, rane e pipistrelli, ma quasi nulla sui primati, i nostri parenti più prossimi. Ora
per la prima volta disponiamo degli strumenti per sondare il modo in cui il cervello di primati non umani codifica e decodifica le vocalizzazioni.
La quarta fase è costituita dagli studi comparativi a cui ho già fatto riferimento, nei quali compiamo con gli animali gli stessi esperimenti portati a termine con neonati umani, usando per esempio le tecniche delle violazioni magiche per esplo-
rare i tipi di rappresentazioni che entrambi utilizzano nel processo di enumerazione.
In questo modo abbiamo un approccio quadripartito allo studio della struttura del cervello animale,
dalla ricerca sul
campo al laboratorio, dal livello neurofisiologico al confronto tra animali non umani e neonati umani per collegare i processi di sviluppo a quelli evolutivi. Con questo approccio possiamo passare a interrogarci su questioni che ossessionano la maggior parte del pubblico non
84
specialista. Gli animali sono intelligenti? I cani sono più intelligenti dei gatti? I delfini sono più intelligenti dei piccioni? Noi siamo più intelligenti di tutte queste specie, e se sì quando lo siamo diventati? Queste non sono buone domande. È più produttivo chiederci prima quale genere di problemi devono affrontare gli animali rispetto alla sopravvivenza,
e poi do-
mandarci come essi risolvono questi problemi. Quali conoscenze devono avere per orientarsi, accoppiarsi, vincere uno scontro, ingannare, imparare, comunicare e così via? Ogni
specie, a suo modo, è intelligente. A mio parere non è tanto importante chiedersi: «Gli animali sono intelligenti? Pensano?», quanto piuttosto porsi domande più specifiche e alle quali siamo in grado di rispondere. Gli animali ricordano? E se sì, per quanto tempo? Hanno ricordi di com'erano quando erano giovani? Possono imparare qualcosa sulle proprietà astratte del mondo, e se sì perché dovrebbero farlo? Sono tutte domande alle quali possiamo rispondere con gli strumenti della scienza. Se poi si vuol dire che, date queste capacità, gli animali sono intelligenti... bene! Se si vuol dire che questi sono i modi in cui gli animali comunicano e che hanno tutto l’aspetto di un linguaggio... benissimo! Non dovremmo però perdere di vista le differenze tra le specie, e in particolare quelle tra gli animali e gli umani. Non lo dico per affermare la nostra unicità, quanto piuttosto per attirare l’attenzione sul fatto che per quanto vi siano numerosi elementi simili tra gli umani e gli altri animali, anche le differenze sono molto interessanti, poiché indicano la strada per una ricerca sui tipi di meccanismi che devono essersi evoluti nel nostro passato per dare luogo al nostro stile specifico di comunicazione, al nostro modo unico di rappresentare il mondo. Pensiamo per esempio alla nostra capacità di fare riferimento alle cose del mondo: io posso parlare di una sedia, posso parlare del mio passato, posso parlare del futuro, e il tutto in modo molto astratto. Gli animali hanno questa capacità? Se sì, si tratta di un elemento simile a una componente di base della nostra facoltà linguistica. Possiamo prendere questo approccio genera-
le e applicarlo ad altre facoltà o ambiti della conoscenza. Possiamo porci altre domande. Gli animali hanno emozioni mo85
rali? Sono in grado di provare empatia? Provano senso di colpa? Provano vergogna? Sono fedeli? Hanno la capacità di cooperare? Si impegnano in un altruismo reciproco? Sono domande difficili, ma possiamo quantomeno provare a fare qualche progresso, e in molti casi abbiamo fatto parecchia strada. Così io non mi chiedo: «Gli animali pensano?», oppure: «Gli
animali sono intelligenti?». Mi pongo domande che hanno a che fare con meccanismi cognitivi specifici che possiamo identificare negli umani, sia neonati sia adulti. Allo stesso modo io e i miei studenti ci facciamo domande su come gli animali risolvano i problemi, indipendentemente dal fatto che lo facciano in modo simile agli umani o no. La buona biologia, come
diceva Darwin, è sempre comparativa. Ora, perché ci dovrebbero interessare queste cose? Vi sono molte persone che amano i propri animali domestici e pensano che il loro cane sia una specie di Einstein, e io voglio mostrare a queste persone che non dovrebbero accontentarsi di questa nozione intuitiva. Le nostre intuizioni sono spesso pessime guide per quanto riguarda il modo in cui i neonati umani pensano il mondo. Uno dei miei obiettivi è rendere la scienza più tangibile e meno controversa. Spesso le persone raccontano agli scienziati che studiano gli animali osservazioni incredibili su ciò che fanno o non fanno i loro animali domestici. Cose del tipo: «Senti, il mio cane ha appena fatto una cosa incredibile. L'ho lasciato a sei ore di distanza dalla nostra casa e lui ha ritrovato la strada. Non è pazzesco?». Be”, sì e no. No,
perché si tratta di una singola osservazione e noi non possiamo fare molto con una singola osservazione. Non è che gli scienziati pensino che un’osservazione sia irrilevante, ma una sola osservazione non basta. Io voglio far capire alle persone che si interessano agli animali che una sola osservazione non dovrebbe bastare nemmeno a loro. Posso portare l’esempio di un'esperienza personale con un animale che mi ha invogliato a pormi altre domande, e voglio che il pubblico non specialista sia altrettanto invogliato da queste osservazioni.
Prima della laurea lavoravo in Florida a un’attrazione turistica, la Monkey Jungle. Il mio lavoro era dare da mangiare al-
le scimmie, ma io avevo bisogno di guadagnare di più, per cui 86
decisi di prendere un lavoro supplementare: rastrellare tutto ciò che cadeva sotto le gabbie. Un giorno notai che una scimmia ragno (una specie che vive nelle foreste pluviali del Sud
America) mi stava guardando attentamente mentre passavo il rastrello. Non pensavo fosse tanto interessata alla mia attività, per cui pensai che potesse esserlo a me. Aveva un compagno che non le prestava molta attenzione. Misi giù il rastrello e mi avvicinai alla gabbia. Mentre mi avvicinavo, lei fece altrettanto
e si sedette proprio davanti a me, al di là delle sbarre. Mi guardò negli occhi, infilò entrambe le braccia tra le sbarre, me
le avvolse attorno al collo e si mise a fare le fusa come un gattino. Restò seduta così per qualche minuto. Poi si avvicinò il suo compagno: lei mi lasciò andare, diede un bacio sulla fron-
te al compagno e mi rimise le braccia al collo. Si possono immaginare i pensieri che potrebbero passarti per la mente durante un’esperienza di questo tipo. Sei davvero in sintonia con questo animale. È innamorato di te. O forse vuole che tu le dia altro cibo. Magari l’inserviente che ti ha preceduto le ha insegnato a comportarsi così. Oppure sta cercando di far ingelosire il suo compagno. Le possibilità erano molteplici ed è interessante cercare di restringere il campo. Sarebbero bastati semplici esperimenti. Se qualcun altro avesse rastrellato il recinto, si sarebbe comportata allo stesso modo? E se l’avesse fatto una donna? Oppure un ragazzino? O magari un vecchio? È questo il genere di cose che si sarebbero potute fare per eliminare alcune possibilità. Se è una cosa che riguarda specificamente me, perché proprio io? È qualcosa nel mio modo di comportarmi? Qualcosa nel mio aspetto? O magari nel mio odore? Proviamo a cambiare abiti. Succede solo quando indosso determinati vestiti? Avrei potuto eliminare molto velocemente numerose possibilità e iniziare a restringere il campo ad altre, più interessanti. I filosofi usano spesso esempi di animali per spiegare quanto sia difficile comprendere le rappresentazioni e i pensieri di creature prive di linguaggio. Alcuni filosofi sostengono che in assenza di linguaggio non possa esservi pensiero. Se così fosse, sarebbe davvero un problema comprendere il pensiero animale, e forse si tratterebbe di un’impresa disperata. Vi è però
87
una lunga storia di ricerche sugli umani in cui sono stati sviluppati processi per determinare ciò che pensano gli uomini in assenza di linguaggio (si pensi all'enorme quantità di studi sui neonati umani, che non hanno ancora espresso la propria facoltà linguistica). Ciò che intendo dire è che una parte dei
problemi più profondi che riguardano la mente umana può essere affrontata solo studiando gli animali. Questa affermazione ha tre fondamenti: (1) Agli studiosi che sostengono che un tipo particolare di pensiero dipenda dal linguaggio, controbatterei che le uniche specie su cui è possibile mettere alla prova tale teoria sono quel le animali, e non certo i neonati umani che, benché debbano an-
cora sviluppare una competenza linguistica, hanno comunque un cervello evoluto in modo tale da essere adatto al linguaggio e quindi inappropriato per una prova sperimentale di questo genere. Nemmeno i pazienti con danni cerebrali che non producono/comprendono il linguaggio sono soggetti adeguati, perché i loro cervelli si sono sviluppati con il linguaggio. Se ci interessa la connessione tra linguaggio e pensiero, dobbiamo mettere alla prova quell’ipotesi su altre specie. Nel nostro laboratorio (e sul campo insieme agli scienziati Dorothy Cheney e Robert Seyfarth) abbiamo studiato primati non umani e altri animali per verificare se avessero la capacità di elaborare il genere di pensieri per i quali sembrerebbe necessario il linguaggio. Vi sono dimostrazioni sempre più evidenti della presenza di tali capacità rappresentative e pensieri in assenza di linguaggio.
(2) Non si contano quasi le dichiarazioni sulla natura specifica di determinati processi di pensiero umani. A partire dagli anni Sessanta del secolo scorso il dibattito si è concentrato sui meccanismi specifici sottesi alla parola. Qualcuno ha sostenu- . to per esempio che la nostra capacità di compiere distinzioni categoriche tra fonemi (come ba e pa) fosse dovuta a uno di questi meccanismi. La prima confutazione di quest'idea è dovuta a Patricia Kuhl della University of Washington,
che ha
portato a termine degli esperimenti sui cincillà e sui macachi in cui ha dimostrato che, in presenza di una serie di stimoli identici, questi animali hanno esattamente le stesse capacità percettive degli umani. Il suo lavoro ha dato vita a un pro-
88
gramma di ricerca mirato a verificare l’esistenza di meccanismi specificamente umani. Il solo modo per affrontare questo tipo di problemi consiste nello studio degli animali. (3) Il terzo motivo, più familiare agli psicologi e ai neuro-
scienziati, è l’idea che determinati tipi di esperimenti siano contrari all'etica o logisticamente troppo complessi da compiere sugli umani, ma che possano essere condotti sugli animali. Benché sia l’aspetto etico a dominare questo dibattito, è
altrettanto importante considerare quello logistico: noi potremmo essere in grado di condurre esperimenti migliori sugli animali a causa del maggiore livello di controllo, dei tipi di
stimoli presentati e dello studio a lungo termine di singoli individui. Gli studi a lungo termine sugli animali, come il lavoro
di Jane Goodall sugli scimpanzé e quello di Cynthia Moss sugli elefanti, ci hanno fornito il ritratto di trent'anni di vita di crea-
ture estremamente sociali e affascinanti. Sarebbe difficile condurre studi di questo genere su soggetti umani. Per tutti questi motivi, gli studi sugli animali stanno iniziando a svolgere un ruolo più importante nelle scienze cognitive e nelle neuroscienze. Nuove tecniche ci consentono di identificare comportamenti animali che suggeriscono come essi pensino il mondo, e lo sforzo teoretico che abbiamo compiuto è
stato quello di unificare in modo nuovo la teoria evolutiva con i concetti più attuali delle scienze cognitive. Uno dei problemi della psicologia evolutiva è il fatto che si sia concentrata esclusivamente sugli umani. In senso lato, la psicologia evolutiva è iniziata ai tempi di Darwin, che si interrogava sulla mente con
un occhio ai principi dell'evoluzione. Ciò a cui stiamo assisten-
do oggi è una derivazione dell’intuizione originaria di Darwin: il fatto che possiamo sposare la teoria evolutiva con le scienze cognitive applicate allo studio della mente animale. Noi poniamo domande sulla struttura del cervello, ovvero
la struttura degli stati mentali, osservando come il comportamento sociale e l'ecologia informino questi processi. Per esempio ci siamo recentemente interessati a un ambito della conoscenza relativa agli animali che si potrebbe definire «fisica ingenua». Fino a che punto gli animali fanno predizioni intuitive sugli oggetti fisici, basandole sulla fisica del mondo? Abbiamo
89
escogitato una procedura sperimentale modellata su alcuni studi condotti su bambini umani, in cui si fa cadere una palla
attraverso un tubo opaco con una configurazione a S. Le scimmie e i bambini umani si aspettano che la palla cada direttamente sotto il punto di rilascio e non dall’altra estremità del tubo. Sembra che tengano conto della forza di gravità come elemento predittivo della loro decisione: ciò indica la grande difficoltà che bambini e alcuni animali hanno nell’inibire un preconcetto molto forte che è stato selezionato a causa delle regolarità del mondo. La gravità è una regolarità con cui tutti gli animali della terra si trovano ad avere a che fare. Ritengo che la selezione abbia favorito i cervelli con una capacità innata di fare predizioni sulla caduta dei gravi, e a causa di questo senso innato è difficile per gli animali ignorare la propria intuizione laddove l’evidenza la contraddice. Perché gli animali non riescono a trovare la posizione corretta di un oggetto in caduta attraverso un tubo ricurvo? Ov-
vero: perché non riescono a inibire i propri preconcetti e a guardare in una posizione diversa? Oggi sappiamo, grazie agli studi sull’evoluzione del cervello, che le sue parti frontali sono state soggette a cambiamenti enormi negli ultimi 5 o 6 milioni di anni. La regione frontale del nostro cervello è più o meno il
doppio rispetto a quella di un primate non umano delle nostre stesse dimensioni. Negli umani questa è la parte del cervello in cui risiede la memoria a breve termine, nonché l’area
nella quale vengono bloccate o inibite le risposte ripetitive: per esempio quando andiamo a sbattere contro una porta di vetro perché non abbiamo notato che è chiusa, non continuiamo a ripetere all'infinito l'errore. Disponiamo di un meccanismo nella regione prefrontale designato espressamente a inibire questo genere di azioni, un meccanismo che non è riusci-
to a evolvere in misura significativa in molte specie non umane. La forza di questo approccio allo studio degli animali sta nel collegamento
con gli studi del cervello umano,
collega-
mento che genera una stretta connessione tra i pensieri e i meccanismi neurali a essi sottesi.
Sono molti coloro che, esplicitamente o implicitamente, non sarebbero d’accordo con me. Gli studiosi dei comporta-
90
menti animali formati perlopiù nella tradizione skinneriana giudicano abborracciate e poco produttive alcune delle nuove tecniche che stiamo applicando alla cognizione animale. Vi sono poi persone che studiano la cognizione umana le cui posizioni si avvicinano alle nostre, ma trovano fastidioso il lavoro
che noi facciamo perché li costringe a ripensare le loro affermazioni sull’unicità umana. Un altro settore della comunità scientifica lavora con gli scimpanzé e non apprezza particolarmente il fatto che le scimmie che noi studiamo mostrino capacità confrontabili con questi primati. Questo tipo di sciovinismo gerarchico si estende a tutto l’albero della vita: in base a questa visione del mondo, gli studiosi del comportamento ani-
male che lavorano con gli scimpanzé compiono un lavoro molto più importante rispetto a chi lavora con le scimmie. La mia speranza è che nei prossimi dieci o quindici anni il nostro
lavoro, osservando
il problema
della cognizione
da
un’ampia varietà di prospettive e a diversi livelli di analisi, dimostrerà che l’interesse per la mente umana implica un interesse per la teoria evolutiva. Dimostrerà che la teoria dell’evoluzione porta a nuove predizioni sulla mente e che possiamo realmente sposare le ricerche sulla cognizione animale con le neuroscienze. Gli neuroscienziati tendono perlopiù a ignorare la notevole varianza tra le specie. Quando lavorano per esempio su un macaco, ne parlano come di una «scimmia». Vi sono diverse centinaia di specie di primati, ma i neuroscienziati lo ignorano. Il nostro lavoro inizierà a sovvertire questa visione diffusa e dominante nelle neuroscienze. Speriamo di convincere la comunità neuroscientifica che la varianza è una ricchezza, è il tartufo della biologia, il tartufo di Darwin. Se ci interessa la struttura della mente, la varianza tra specie riveste
un’importanza imprescindibile. Come scienziati, noi abbiamo una missione comune: scoprire come l’evoluzione abbia generato diversi modi di pensare. E guardando alla varianza, vediamo la selezione naturale al lavoro, intenta a scolpire diverse tipologie di menti.
91
«M
:
è bea riSRO sia perni IE ABITI? AHei ASI ORTI
y
pile LE '
7 la Ri dea susursa GrIpisasi darti sciita
7 eee stanziate non di simenieni afasia crd aicolie
a aisi re vi
fsto È
sinari) Datip Od ritirato robit È vriTusi nibl DA 120 AT, esi
E
z
PIRLO
cdratr latroragiali 1298
Rn sa guarpi vien
rim ig 6-0
‘runsi cel vino
tpistoizai Ai
soave
sso pobbondoti Le
dr
rog? rina al
oe gna
.er1 brbegt
petra
: x
‘padane "®n
” È LEGALE: É Pio PIATTO Cf BV ao
e Bse
ite il i | ,
ralmente, è che vi è una differenza fondamentale nell’architet-
tura concettuale di questi due media. Quando guardiamo il Super Bowl, facciamo parte di una grande comunità simultanea. E lo sappiamo. Sappiamo di essere insieme a milioni, centinaia di milioni di persone. Stiamo tutti vivendo contemporaneamente la stessa esperienza e lo sappiamo. È questo secondo fatto (l’elemento riflessivo) a essere tanto importante. Quando andiamo a visitare un sito Web potrebbero esserci altri cento milioni di persone su quel sito, ma noi non lo sappiamo. Potremmo averlo letto da qualche parte, ma non ne siamo sicuri, non lo sappiamo per certo. La sensazione che abbiamo quando comunichiamo sul Web è molto più privata di quando stiamo guardando qualcosa su una rete televisiva. E questo fenomeno ha enormi ramificazioni in termini di credibilità. Una pubblicità che funziona bene in televisione, sul Web non ha alcun effetto perché chi la vede, la legge, la ascolta, non sa di quale pubblico fa
parte. Non sa quanto è grande la stanza in cui si trova. È una comunicazione privata o una comunicazione pubblica? Non sappiamo ancora quale tipo di frammentazione dei pubblici del mondo verrà generato da Internet. Internet unisce le persone,
ma al tempo stesso le isola in un modo che non siamo ancora in grado di valutare. La sensazione di essere totalmente persi che i neofiti provano quando arrivano per la prima volta sul Web (scegliere i motori di ricerca, sapere di chi fidarsi, qual è la loro home page, a chi credere, in quali siti andare) nasce perché tutti sono assetati di segnali stradali affidabili e informativi. Questa geografia dell’informazione disponibile è stata stabilita nei secoli nei media tradizionali. Prendevi in mano il Times, leggevi qualcosa e il testo aveva per te una certa autorità. Oppure andavi alla biblioteca pubblica e leggevi qualcosa nell’Encyclopaedia Britannica. Queste istituzioni avevano un proprio carattere, una propria reputazione, e la loro reputazione era condivisa dalla comunità. Era importante che anche i tuoi amici sapessero che il Times e l’Encyclopaedia Britannica erano posti importanti in cui guardare. Supponiamo che qualcuno scriva e pubblichi un volume intitolato L’enciclopedia di Alfredo sulle informazioni del mondo. Potrebbe anche essere la migliore enciclopedia del mondo, ma se la gente in generale
106
non ne è al corrente, nessuno si fiderà dei suoi contenuti. È questo elemento di credibilità che, a mio parere, non ha anco-
ra iniziato a cristallizzarsi sul Web. Stiamo entrando in acque sconosciute e il risultato è difficile da prevedere. L'esperienza umana è cambiata radicalmente nell’ultimo secolo e in particolare nell’ultimo decennio.
Per esempio, un
adolescente occidentale medio ha sentito più musica suonata a livello professionale di quanta Mozart ne abbia ascoltata in tutta la sua vita (escludendo quella che suonava, componeva e
provava lui stesso). In passato ascoltare dei musicisti professionisti era un evento molto speciale. Oggi è un evento molto speciale non sentire dei musicisti professionisti: ogni luogo in cui andiamo ha una colonna sonora. Si tratta di un grande cambiamento nella struttura acustica del mondo in cui viviamo. La cosa vale anche per altre arti. Vi è stata un’epoca in cui vedere parole scritte era una rarità. Oggi qualsiasi oggetto riporta delle scritte. Anche sotto la doccia possiamo leggere il retro della bottiglia dello shampoo. Siamo totalmente circondati dalla tecnologia della comunicazione, e questa è una novità. La nostra specie non vi si è ancora adattata, per cui stiamo premendo sull’acceleratore. Vi sono molti schemi ripetitivi nel mondo. Alcuni sono governati dalla legge di gravità, altri da altri principi fisici. Alcuni sono governati da un software. In altre parole: la robustezza dello schema (il fatto che sia cospicuo, che lo si possa identificare, che continui a riprodursi, che lo si trovi ovunque e che sia prevedibile) non dipende da una legge fondamentale come la legge di gravità ma dal fatto che questi schemi si hanno ovunque vi siano organismi che elaborano informazioni. Essi preservano, ripristinano e riparano gli schemi e li mantengono in attività. Si tratta di una funzione nuova e fondamentale dell’universo. Se andassimo su un pianeta privo di vita e ne analizzassimo tutti gli schemi, questi non ci sarebbero. Sono
gli schemi che dono possibili si trovano nei zione fisica in e cariche. Ma
si trovano nel DNA, gli ur-schemi, quelli che rentutti gli altri schemi. Sono anche gli schemi che testi. Devono possedere una qualche incarnanucleotidi o in segni d’inchiostro o in particelle ciò che spiega la loro stessa esistenza nell’uni107
verso è la computazione, la qualità algoritmica di tutte le cose che si riproducono, hanno un significato e creano significato. Questi schemi in un certo senso non sono riducibili alle leggi della fisica, benché trovino posto nella realtà fisica. La spiegazione del motivo per cui gli schemi assumono la forma che li caratterizza deve essere cercata a un livello più alto. Douglas Hofstadter ha fornito una volta un esempio estremamente semplice ed elegante: ci imbattiamo in un computer che continua a lavorare senza sosta. Perché non si ferma? Che cosa spiega il fatto che questo computer specifico non si fermi? Nell'esempio di Hofstadter il motivo per cui non si ferma è che pi è un numero irrazionale. Cosa? Be”, pi è un numero irrazionale, il che significa che è un decimale infinito e il programma del computer in questione sta generando l’espansione decimale di pi, un processo che non avrà mai fine. Naturalmente il computer potrebbe rompersi. Potrebbe arrivare qualcuno con un’ascia e tagliare il cavo di alimentazione. Ma finché il computer sarà alimentato continuerà a generare questi numeri all’infinito. Si tratta di un semplice fatto concreto che può essere rilevato nel mondo, la cui spiegazione cita un fatto matematico astratto. Ora, vi sono molti altri schemi nel mondo che non sono al-
trettanto arcani e hanno a che fare con il significato che noi attribuiamo alle cose. Perché si arrossisce? Vi è una spiegazione ineccepibile di cosa sia il processo dell’arrossire: la soffusione di sangue attraverso l'epidermide del volto. Ma perché quest'uomo specifico sta arrossendo? Sta arrossendo perché pensa che lei sappia di lui qualcosa che lui non vorrebbe che sapesse. Si tratta di uno stato complesso, intenzionale, di ordine più ele-
vato, visibile solo quando si passa a un livello intenzionale e più elevato. Non lo si può vedere osservando gli stati individuali dei neuroni del cervello dell’uomo in questione. Bisogna passare al livello in cui si parla di ciò che quest'uomo sa, crede e vuole. Il livello intenzionale è ciò che noi chiamiamo «atteggiamento intenzionale». Si tratta di una strategia che possiamo
provare ogni volta che ci troviamo di fronte a un elemento di natura complessa. Non funziona sempre. L'idea è interpretare
108
quella complessità come uno o più agenti intelligenti e razionali che hanno programmi, credenze e desideri e che interagiscono. Quando si sale al livello intenzionale, si scoprono schemi estremamente predittivi, robusti e non riducibili in al-
cun senso significativo agli schemi di livello inferiore del livello fisico. Tra l'atteggiamento intenzionale e l’atteggiamento fisico c'è quello che io chiamo «atteggiamento di progettazione». È il livello del software. L'idea di astrazione non è una novità e duecento anni fa si sarebbe anche potuta ravvivare un’immaginazione filosofica chiedendo di che cosa fosse fatta la Sinfonia Haffner di Mozart. È inchiostro su carta. È una sequenza di suoni riprodotti da per-
sone con diversi strumenti a corda e altri strumenti. È una cosa astratta. È una sinfonia. Stradivari faceva violini, Mozart faceva
sinfonie che dipendono dalla realizzazione fisica, ma non da. una realizzazione specifica. Hanno un'esistenza indipendente che può passare da un mezzo all’altro e poi tornare indietro. Questa idea, dicevamo, non è una novità, ma negli ultimi tempi, vivendo in un mondo di artefatti astratti che saltano in
modo promiscuo da un mezzo all’altro, abbiamo preso con essa una maggiore confidenza. Non è più una gran cosa andare dalla partitura alla musica dal vivo alla versione registrata di quella musica. È diventato un fatto della vita. In passato era difficile far passare le cose da una forma all’altra. Ora non lo è più, è un processo automatico. Si elimina l’intermediario. Non è più necessario avere il musicista per leggere la partitura, per produrre la musica. Questa rimozione di tutto il difficile lavoro di traduzione da un mezzo all’altro rende del tutto naturale popolare il nostro mondo di astrazioni, perché troveremmo più difficile tenere conto di quale mezzo le ospita. E la cosa non è più rilevante: ci interessa l’astrazione, non il mezzo. Dove hai
preso quel software? Sei andato in un negozio, hai acquistato un CD e lo hai infilato nel tuo computer o lo hai semplicemente scaricato dal Web? È lo stesso software, in entrambi i casi. Non importa. Questa idea della neutralità del mezzo è una delle idee essenziali del software e degli algoritmi in generale. È un’idea con cui stiamo prendendo familiarità, ma mi affascina vedere quanta resistenza essa riesca ancora a suscitare.
109
Un algoritmo è un processo astratto che può essere defini to con una serie finita di procedure fondamentali: una serie di istruzioni. È una disposizione strutturata di queste procedure. Questa è una definizione molto generosa di algoritmo, molto più di quanto piacerebbe a molti matematici, perché in questo modo farei rientrare nella categoria anche algoritmi che potrebbero essere in qualche modo difettosi. Pensate al vostro computer portatile: dispone di una serie di istruzioni che consistono in tutte le cose fondamentali che la sua CPU può fare; ogni operazione fondamentale ha un nome o un codice digitale e ogni volta che si presenta quella sequenza di bit, la CPU cerca di eseguire quell’operazione. Potete prendere una qual siasi sequenza di bit e inserirla nel vostro computer come se fosse un programma. Quasi certamente qualsiasi sequenza
non progettata per essere un programma da eseguire sul vostro computer, non darà alcun risultato. Si limiterà a bloccarsi. Ma c'è qualcosa di utile nel pensare che qualsiasi sequenza di istruzioni, per quanto piena di errori, per quanto stupida, per quanto insensata, dovrebbe essere considerata un algoritmo,
perché una sequenza che per qualcuno è piena di errori, stupida e insensata, per qualcun altro potrebbe essere uno strumento utile per un qualche bizzarro scopo, e noi non vogliamo mettere in campo delle pregiudiziali al riguardo. (Magari quel «nonsense» è stato inserito proprio per far bloccare il computer nel momento esatto in cui si è bloccato!) Si può definire un algoritmo più adeguato come un algoritmo che può essere eseguito senza che si blocchi. L'unico problema è che definendo un algoritmo in questo modo, probabilmente non ne abbiamo nemmeno uno dentro il nostro computer, perché vi è quasi certamente un modo per far bloccare qualsiasi programma sia presente in esso. È solo che non lo abbiamo ancora trovato. Il software esente da errori è un ideale che non viene quasi mai raggiunto. Sta diventando di moda guardare al mondo come se tutto fosse un processo computazionale. Il problema che si pone non è fattuale, ma strategico. La domanda non è «qual è la verità?», ma: «qual è la strategia più utile?». Non è il caso di abbandonare gli standard e di considerare tutto computazionale,
110
perché allora l’idea perde il proprio significato, perde la propria presa. Come comportarsi allora? Una possibilità è quella di cercare di definire in modo rigidamente centralista una qualche soglia che debba essere superata e rifiutare di definire computazionale un processo a meno che non abbia le proprietà A, B, C, D ed E. Lo si può fare in numerosissimi modi e
vi eviterà l'imbarazzo di dover dire che tutto è computazionale. Il problema è che qualunque cosa scegliate come corpus definitorio sarà troppo rigida. Vi saranno processi che soddisfano le vostre condizioni ma non presentano alcun interesse computazionale, e vi saranno processi che non possiedono i prerequisiti ma sono significativamente simili a ciò che volete considerare computazionale. Come risolvere quindi questo problema definitorio? Ecco il mio suggerimento: ignorandolo. Proprio come si fa nella vita! Non vi metterete a discutere se i virus sono Vivi o no; per certi versi sono vivi, per altri no. Alcuni processi sono evidentemente computazionali. Altri sono evidentemente non computazionali. Su cosa fa luce la prospettiva computazionale? Be’, dipende da chi sta guardando. Io teorizzo l’esistenza di tre atteggiamenti per guardare alla realtà: l'atteggiamento fisico, l’atteggiamento progettuale e l'atteggiamento intenzionale. L'atteggiamento fisico è quello dei fisici, è materia e movimento. L'atteggiamento progettuale è quello che si ha quando si inizia a osservare il software (ovvero gli schemi ricorrenti), perché queste sono cose progettate che eludono da sé la propria dissoluzione. In altre parole sono baluardi contro la Seconda legge della termodinamica. La cosa vale per gli esseri viventi e per tutti i manufatti. Sopra a questo vi è l’atteggiamento intenzionale, che è il modo in cui noi trattiamo quel corpus specifico di organismi e manufatti che sono essi stessi agenti razionali che elaborano informazioni. In un certo senso a partire dall’atteggiamento intenzionale si può trattare Madre Natura (ovvero l’intero processo dell’evoluzione tramite selezione naturale) come un agente, ma si tratta evidentemente di un modo
di dire, di un’utile scorcia-
toia per giungere a caratteristiche dei processi progettuali che si dispiegano nel corso di eoni. Una volta giunti all’atteggiamento intenzionale abbiamo agenti razionali, menti, creatori,
111
autori, inventori, scopritori (e persone qualsiasi) che interagiscono sulla base della loro visione del mondo. Vi è qualcosa d’altro al di sopra dell’atteggiamento intenzionale? Be”, in un certo senso sì. La gente (ovvero le persone come agenti morali) è una sottoserie specializzata dei sistemi
intenzionali. Tutti gli animali sono sistemi intenzionali. Alcune parti di voi sono sistemi intenzionali. Siete costituiti da numerosi sistemi intenzionali inferiori (una sorta di homunculì) ma, a meno che non soffriate di schizofrenia, ciascuno di voi è
una sola persona. Una persona è un agente morale: non solo un agente cognitivo, non
solo un agente razionale,
ma un
agente morale. Questo è il livello più alto a cui io possa pensare. Perché esiste? Come esiste? Quali sono le condizioni della sua autoconservazione? Sono tutti problemi molto interessanti. Possiamo pensare a come la teoria dei giochi è stata applicata alla crescita degli alberi: le piante competono per la luce del sole, è un gioco in cui possono vincere o perdere. Ma quando pensiamo all'applicazione della teoria dei giochi non solo ad agenti razionali ma anche a persone con una visione morale, percepiamo alcune importanti differenze. Le persone hanno il libero arbitrio, gli alberi no. Non è un pro-
blema per gli alberi come lo è per le persone. Ciò che mi piace nell’idea che le persone siano animali dotati di libero arbitrio è il fatto che concorda con la tradizione filosofica (compresi per esempio Aristotele e Cartesio) nell’af-
fermare che le persone sono di fatto diverse, che le persone non sono solo animali. I teorici tradizionali sono naturalmente in totale disaccordo su quale sia questa differenza. Benché la mia sia una naturalizzazione dell’idea di gente, essa afferma
che le persone sono diverse e questo, a quanto ho scoperto, è l'aspetto della mia teoria che più attira e infastidisce le persone. Ci sono quelli che vogliono che le persone siano più diverse di quanto io affermo. Vogliono che le persone abbiano un'anima, che siano persone cartesiane. E ci sono quelli che
temono che io stia cercando di differenziare troppo le persone dagli altri animali affermando che in realtà gli esseri umani, grazie alla cultura, sono una cosa fondamentalmente diversa.
Alcuni scienziati giudicano con scetticismo questa affermazio-
112
ne, come se stessi cercando di rubare qualcosa che appartiene alla scienza per condurlo nel campo della filosofia. Ma di fatto la mia idea su ciò che le persone hanno di diverso è una teoria scientifica e in ogni caso regge (o non regge) come implicazione di una teoria scientifica. Per quanto riguarda il mio ruolo nelle scienze cognitive (ov-
vero se mi considero un filosofo o uno scienziato), penso di essere bravo a scoprire gli embargo dell’immaginazione e le cattive abitudini del pensiero che infettano il modo dei teorici di pensare al problema della coscienza. Quando tengo un discorso in occasione di un seminario o di una conferenza, in realtà
sto facendo ricerca, perché gli ululati, gli strilli e le occhiate di disapprovazione che ottengo dalle persone, il modo in cui esse reagiscono a quanto io sostengo, sono spesso elementi che rivelano il modo in cui stanno rappresentando i problemi nelle . loro menti. E di fatto le persone possiedono immagini nascoste molto diverse su che cosa è la mente e su come funziona. Il trucco è portare alla luce queste immagini, metterle davanti agli occhi di tutti e poi correggerle. È questo il mio lavoro. La mia demolizione del teatro cartesiano, del materialismo
cartesiano, è solo una di queste mie campagne di svelamento. La gente spesso dichiara di essere d’accordo sul fatto che non esista nel cervello alcun mezzo privilegiato che svolga il ruolo che Cartesio aveva assegnato alla mente non-fisica come teatro della coscienza. Ma se guardiamo da vicino ciò che queste persone pensano e dicono, i loro punti di vista hanno senso solo se li si in-
terpreta come se presupponessero velatamente nel proprio modello l’esistenza di un teatro cartesiano. Stuzzicare questa incoerenza, portarla in superficie e poi mostrare con che cosa la sì potrebbe rimpiazzare è per me un lavoro interessante. Fortunatamente alcune persone ritengono che questo sia un servizio prezioso che una persona come me, un filosofo, può fornire: portarli ad affrontare i preconcetti nascosti nel loro stesso pensiero e mostrare come questi preconcetti nascosti celino loro l’opportunità di spiegare ciò che essi desiderano spiegare.
113
oi
— ciba iavesibilore ica — Pilu) tego È ; vàde veg hero 0
i
î aero
gdelane agenti io sii) è 1a sciiti pe cati sense sodo — — tte psi tagosatzioli costi iis niettvatieàriomeuptaie ©
frà smansquicovinsisiaz 0Hon: GRIGI aerei
-
ita peo
nitasisbmasolianatenti iaagrlare iiyrnidi0eo enni sue « Abrintareniisi olcentit ominidi seria
|
Aha — tmgcadibmza coppia Ari ui sed ar919008 atto anbriante increase] To tieni agri» amido eriensurib tale siicenisiaboorti» (Wii bj idiota deri gna obirmozeie
saro Lira atictaserti Corana sip siii agio A «ras imramzaia
sai satira:i tamiden
0a
to anfie: soir
pi LO Liar
—
xt ippianoieegagi
è ObraRt a] stonati ii giabom
|
snanabe
—
—
pibemariinigazatti dogholaog segiogoLottrnà ibi viteria! —
|
;*ll deialia; È asa WIICD soia manngodi crpertario oto Dbaforadposiimee: sticigasati iedup out siitiananocg ded
bis ssa nalità disorezisp Assalto sce decpon arreso sia ica rig venicaiini asa dp AGE TERI iiprniscaindio nese: esagero n vd astri i Digest Mib apri sla pei ASIAGO hitzzs pou atiiirmì isseniv annata pane sb esiti ni OasSoge SIIIQ E AAT dae gioni Battery rp patti arti - trobslitàeariestissso» iikbuona bano ibasrtaseratggo sasso eretta dI
l de BOI boia
Spasiso pilo arr ofrini Arbeit sit
Sa Ù Comiuiitozafde assenza
— |
—
|
grad ate
da abitato. smi eji do rane
— l
tranmaegQuent aaarase ao MPA IO MRO RI reomionitadeuantaà get so ooo comizi lla
0
lecaaia.sisanacoriasaa Maze montano dint rsgsrozti sfGkAT SS! Di
(00.
-_
dro susrd pira ci EVA sd
RIG npusinsiinie ode
Lasgpessiviriàueisianoa 20610 ME PN CREO VEIL i.
peg.
singer iMii ti etozalsr I-SBES: af
Vox, — ootrra cruna (0 rod Podi Nast UR
E FASCI, SRTBTIMI Ltanti
DIN
tirano I gnome
pio prdiaatino i MPeIREI A
Soft
i
Ai
IRE
i
alte
Ain
scienza
ny ite tia Li A * vRd it
sario ap
cosa tondumenta) mette ve
atudicande CURAacanto
nina te
4 se
at
+ IRENE VERI e ir adore ss purgeaitge il ) grasse abba 4 altura some sta
e
PA
h:
pa
TOM
prete
;
fia
e
“Meral:
{
di
cià
pu!
(it
ac
reneie. ba
c
SAMO
pa
n
0
990.
x
éa
e,
dedi?
pt
O IP è
da
bl
ua
ME È
Un grave
css
+ Agg bat
app
LI A
Th:vDIiagO
vterà È
»
EsTDi
[ia d Mi
|
È
cia
VIDA
i
pars
raglone
tmrititàto
iry
re
i È
CRIDIOIBAA
CASCIIT
eis
“
1 presse è
Mo
‘
i
pes
did
4
degti aibettivi
a adea
È
ui
sei Mr feet
%
»
x
fisso
nari
db Pi
Gucesiria
Cr
(GINO
I
î
|
die
sudata een
Acta
Letò
4
del gentrp
porranvo
PR
ri
31
tipaltm> } ì Vi
Krx
Ira
Tv.
iqricasa fase
-i
È
34
tac}
JuAgtir park %
L
>
4
to
7
li
cd.
tt @
%
4
"
peolgggoe
;
iatbo,
:
4g
Ma
A LAS
te Di
TI
PIOEEILAOo
Lipix,
n
quer ù
Per
sii Atsicane
inapiiet
chitlicate fi Mate
«ses
j
}
2
è
A
toro:
che
|aasiegii
AME
1BpOCLAZI ì + DA pus
aspetto
bi
pra
e %
@ambiati alto ateszo °
|
la
gra:
ZIE» v-
:
»
dì valie
|
frribazia
è
EMP prog
1
cod
orta
£
i
wr
Gregg
|
i
«|
3
.
%
L
i,
|
pal
€,
ba pa
i)
IONI
4
rt
di
ì
» è db fatte
%
dclle paisÈ maggior
ni14
CORRA
%Pia TO
pd copi
poli
hab c. diÈ
di coposeene 1 di. senso pre
resi: Ccacadiirnara, midicamzi. hi, feti rpurosto iipri sul
morta di
puigoi
permare ness derivati dal senso corti.
ches
posare
ue ato Rata pe "Ra
mare
RAY KURZWEIL*
La singolarità
Stiamo entrando in una nuova era. Io la chiamo «singolarità». È una fusione tra intelligenza umana e intelligenza artificiale, che creerà qualcosa di più grande delle sue parti. È la frontiera più avanzata dell'evoluzione sul nostro pianeta. Si potrebbe sostenere che sì tratti in realtà della frontiera più avanzata dell’evoluzione dell’intelligenza in generale, poiché non vi è alcuna indicazione che essa si sia data altrove. Secondo il mio modo di vedere, è l’essenza stes-
sa della civiltà umana. Fa parte del nostro destino e del destino dell’evoluzione: continuare a progredire sempre più rapidamente e a far crescere in maniera esponenziale la potenza dell’intelligenza.
Il mio interesse per il futuro deriva dal fatto di essere un inventore. Ho pensato di essere un inventore sin da quando avevo cinque anni e ho subito capito che per avere successo come inventore bisognava avere una buona visione del futuro. È un po’ come quando si fa surf: bisogna prendere le onde al momento giusto. Quando riesci a realizzare qualcosa, il mondo è diventato un posto diverso rispetto a quando avevi iniziato a lavorarci. La maggior parte degli inventori fallisce non perché non riesce a far funzionare qualcosa, ma perché non riesce a coordinarsi con le forze del mercato. * Ray Kurzweil, inventore e imprenditore, è stato per anni all'avanguardia del progresso tecnologico nel settore del riconoscimento di schemi. È stato il principale sviluppatore della prima macchina per il riconoscimento ottico di caratteri ominifont, della prima macchina da lettura di testi stampati per non vedenti, del primo scanner piano a CCD, del primo sintetizzatore per la lettura di testi, del primo sintetizzatore musicale in grado di ricreare il piano a coda e altri strumenti orchestrali e del primo sistema di riconoscimento vocale con un vocabolario esteso mai posto in commercio. Nel 1999 il presidente Clinton gli ha assegnato la National Medal of Technology. Nel 2002 è stato inserito nel pantheon degli inventori nazionali dell’ufficio brevetti degli Stati Uniti. È autore di The Age of Intelligent Machines e The Age of Spiritual Machines.
195
Così ho iniziato a studiare le tendenze tecnologiche e ho svi luppato vari modelli matematici sull’evoluzione tecnologica in
diverse aree (come i computer, l'elettronica in generale, le periferiche di memorizzazione delle comunicazioni, le tecnologie biologiche come la scansione genetica, il reverse-engineering del cervello umano, la miniaturizzazione, le dimensioni della
tecnologia e il ritmo dei cambiamenti di paradigma). Questo interesse per le tendenze ha assunto una vita propria e io ho iniziato a progettare alcune di esse utilizzando quella che chiamo la Legge dei ritorni accelerati, che a mio parere è alla base
dell'evoluzione tecnologica. Negli anni Ottanta scrissi un libro intitolato The bastanza puntuale vanta e nei primi delli matematici e a come sarà il XXI
Age of Intelligent Machines, una roadmap abdi quanto sarebbe accaduto negli anni Noanni Duemila. Ora ho raffinato questi moho iniziato a pensare in modo approfondito secolo. Ciò mi consente di essere inventivo
con le tecnologie del XXI secolo, perché ho un’idea di come saranno nel 2010, nel 2020 e nel 2030 la tecnologia, le comuni
cazioni, le dimensioni della tecnologia e la nostra conoscenza del cervello umano. Non posso ancora creare realmente queste tecnologie, ma posso scriverne. Sono giunto ad avere una visione del futuro che deriva da questi modelli, che a mio pa-
rere sono validi sia per ragioni teoretiche sia perché sono confermati dai dati empirici del Xx secolo. Una cosa che gli osservatori non riconoscono del tutto e che molte persone per altri versi estremamente perspicaci non riescono a tenere in adeguata considerazione è il fatto che il ritmo del cambiamento stesso è accelerato. Secoli fa gli uomini non pensavano affatto che il mondo stesse cambiando. I loro nonni avevano condotto vite uguali alle loro e - per quanto questi uomini ne sapevano - i loro nipoti avrebbero fatto lo stesso. Le loro aspettative venivano ampiamente confermate. Oggi il fatto che la vita sta cambiando e che la tecnologia influenza la natu-
ra della società è un assioma. Ma la cosa che non è stata ancora totalmente compresa è che gli ultimi venti anni non sono una buona guida per i prossimi venti. Stiamo raddoppiando ogni
dieci anni la velocità di cambiamento di paradigma, ovvero la velocità del progresso. Questa velocità è di fatto pari al pro-
196
gresso totale realizzato in tutto il XX secolo, perché è questo il punto a cui è giunta la nostra accelerazione. Alla velocità odierna tutto il XX secolo equivale a venti anni di cambiamento. Nei prossimi venti anni realizzeremo un progresso pari al triplo di quello che si è verificato nel xx secolo. E nel XXI secolo si avrà il corrispettivo di ventimila anni di progresso, ovvero un cambiamento tecnologico all'incirca mille volte superiore rispetto a quello che abbiamo avuto nel xx secolo. La computazione in particolare sta crescendo in modo esponenziale. L'unica tendenza esponenziale di cui le persone sono generalmente consapevoli è la legge di Moore. Ma la legge di Moore è solo un metodo per applicare la crescita esponenziale ai computer. Secondo la legge di Moore noi possiamo mettere un quantitativo doppio di transistor su un circuito integrato ogni ventiquattro mesi. Essendo più piccoli, questi transistor sono anche più veloci, per cui si ottiene che la potenza computazionale quadruplica ogni dodici mesi. (L'idea diffusa che ciò avvenga ogni diciotto mesi non è corretta e non corrisponde a quanto osservato da Moore.) La cosa che non si è ancora ben compresa è che la legge di Moore non è stato il primo, bensì il quinto paradigma ad applicare la crescita esponenziale ai computer. Abbiamo avuto i calcolatori elettromeccanici, i computer basati su relay, le valvole e i transistor. Ogni volta che un paradigma ha esaurito la propria potenza, ne è sopraggiunto un altro. Per un po’ le valvole si sono ridotte di dimensioni, ma alla fine non era più possibile realizzarne di più piccole, così sono arrivati i transistor, insieme a un approccio totalmente diverso. Si è molto discusso sul fatto che la legge di Moore dovrebbe esaurire la propria spinta propulsiva entro una dozzina d'anni, perché per allora i transistor misureranno solo qualche atomo e non saremo in grado di ridurli ulteriormente, per cui anche questo paradigma è destinato a esaurirsi. A quel punto passeremo al sesto paradigma, ovvero la computazione intensamente parallela in tre dimensioni. Noi viviamo in un mondo tridimensionale e i nostri cervelli sono organizzati in tre dimensioni, per cui potremmo anche computare
in tre dimensioni. Il cervello elabora le informazioni utilizzan197
do un metodo elettrochimico dieci milioni di volte più lento rispetto all’elettronica. Ma si rifà grazie alla tridimensionalità. Ogni connessione interneuronale computa simultaneamente, di modo che si hanno cento trilioni di eventi contemporanei. E questa è la direzione in cui andremo anche noi. Al momento i chip, per quanto compressi, sono piatti. Tra quindici o vent’anni i computer saranno intensamente paralleli e saranno basati su modelli di ispirazione biologica, che realizzeremo perlopiù comprendendo il funzionamento del cervello. È convinzione diffusa che entro un breve periodo di tempo (circa una ventina d’anni) disporremo dell’hardware necessario per ricreare l'intelligenza umana. Molto più dubbio è se avremo anche il software per farlo. Gli osservatori ritengono che avremo computer estremamente veloci che potrebbero in teoria emulare il cervello umano, ma noi non sappiamo veramente come funziona il cervello e non avremo a disposizione il software, i metodi o le conoscenze per creare un'intelligenza di livello umano. Senza questi ultimi elementi, disporremo soltanto di calcolatori superveloci. Ma anche la nostra conoscenza del funzionamento del cervello sta crescendo in maniera esponenziale. Il cervello non è infinitamente complesso. È un’entità estremamente complessa e non arriveremo a comprenderlo del tutto attraverso una semplice scoperta, ma siamo sulla buona strada per capire i principi operativi del cervello umano, molto più di quanto la maggior parte delle persone pensi. La tecnologia di scansione del cervello umano sta crescendo esponenzialmente; la nostra capacità di vedere gli schemi di connessione interna sta crescendo, e stiamo sviluppando modelli matematici sempre più dettagliati di neuroni biologici. Di fatto, disponiamo di modelli matematici estremamente dettagliati di diverse decine di regioni del cervello umano e del modo in cui esse funzionano,
e abbiamo ricreato le loro metodologie utilizzando la computazione convenzionale. I risultati di questi modelli sintetici di regioni del cervello re-ingegnerizzati o re-implementati sono estremamente vicini a quelli del cervello umano. Stiamo inoltre sostituendo sezioni del cervello che si sono deteriorate o che non funzionano più a causa di disabilità o
198
malattie. Vi sono impianti neurali per il morbo di Parkinson e impianti cocleari per la sordità. È recente la diffusione di una nuova generazione di impianti cocleari che forniscono mille punti di risoluzione di frequenza e che consentiranno alle persone sorde di sentire per la prima volta la musica. L'impianto per il morbo di Parkinson sostituisce i neuroni corticali distrutti da questa malattia. Abbiamo così dimostrato che non è impossibile comprendere le regioni del cervello umano e del sistema nervoso e re-implementarle tramite la computazione elettronica convenzionale,
che interagisce con il cervello e
svolge queste funzioni. Se si seguono questi sviluppi e se ne elabora l'aspetto matematico, il meno che si possa dire è che entro trent'anni (e probabilmente anche prima) avremo una mappa completa del cervello umano, avremo modelli matematici completi del funzionamento di ciascuna regione e saremo in grado di re-implementare i metodi del cervello umano, che sono considerevolmente diversi da molti metodi usati nelle intelligenze artificiali attuali. Sono però simili ai metodi utilizzati nel mio campo di studi, il riconoscimento di schemi, che è la capacità fondamentale del cervello umano. Noi non possiamo pensare a una velocità sufficiente per analizzare logicamente le situazioni in modo rapido, per cui ci affidiamo alle nostre capacità di riconoscimento degli schemi. Entro trent'anni sapremo creare un'intelligenza non biologica confrontabile all’intelligenza
umana. Proprio come avviene per un sistema biologico, dovremo fornire a questa intelligenza non biologica un'istruzione, ma in questo ambito potremo sfruttare alcuni vantaggi dell’intelligenza artificiale: una volta che una macchina ha acquisito capacità specifiche, può applicarle in modo molto più veloce e preciso rispetto a un essere umano non potenziato. Un computer da mille dollari può ricordare miliardi di cose con precisione, mentre la maggior parte di noi fatica a tenere a mente una manciata di numeri telefonici. Una volta appreso qualcosa, le macchine possono anche condividere questa conoscenza con altre macchine. Noi non disponiamo di porte di download veloce al livello dei nostri schemi di connessione interneuronale e delle nostre con-
199
centrazioni di neurotrasmettitori, per cui non possiamo esegui-
re il download di conoscenze. Possiamo istruire le macchine in un processo che può essere centinaia o migliaia di volte più veloce rispetto al processo umano equivalente. In questo modo è possibile fornire il corrispettivo di vent'anni di istruzione a una macchina di livello umano nel giro di poche settimane o di pochi giorni, dopodiché queste macchine potranno condividere le conoscenze acquisite. L’implicazione primaria di tutto ciò sarà il potenziamento della nostra intelligenza umana. Metteremo queste macchine dentro i nostri cervelli.
Stiamo iniziando
a farlo già ora, in
persone con gravi problemi e disabilità mediche, ma alla fine sarà così per tutti noi. Potremo introdurre senza alcun intervento chirurgico macchine nano-progettate nei flussi sanguigni che passano attraverso i capillari del cervello. Questi nanobot intelligenti delle dimensioni di una cellula sanguigna saranno di fatto in grado di raggiungere il cervello e interagire con i neuroni biologici. La fondamentale fattibilità della comunicazione bidirezionale tra periferiche elettroniche e neuroni biologici è già stata dimostrata. Un’applicazione dell’invio di miliardi di nanobot all’interno del cervello è la realtà virtuale a immersione totale. Se vogliamo essere nella realtà reale, inanobot se ne stanno seduti senza fare nulla, ma se vogliamo passare alla realtà virtuale, i na-
nobot disattivano i segnali provenienti dai nostri sensi reali e li sostituiscono con i segnali che riceveremmo se ci trovassimo nell'ambiente virtuale. E ci potremo andare insieme ad altre persone: potremo fare qualsiasi cosa, dagli incontri sessuali e sensuali alle contrattazioni commerciali, in ambienti virtuali a
immersione totale che coinvolgeranno tutti i sensi. Le persone invieranno sul Web i loro flussi di esperienze sensoriali e i correlativi neurologici delle loro emozioni, come oggi possiamo inviare immagini riprese dalle webcam posizionate nei nostri salotti e nelle nostre camere da letto. In questo modo ci si potrà collegare e provare realmente che cosa significhi, essere qualcun altro, comprese
le sue reazioni
emotive,
come
nel
film Essere John Malkovich. Potremo essere qualcun altro, potremo proiettare noi stessi come una persona diversa.
200
Ma la cosa più importante è che potremo potenziare la nostra intelligenza biologica con un’intelligenza non biologica tramite profonde connessioni. Questo non vorrà dire avere un tubicino tra il cervello e un sistema non biologico, ma avere di fatto un'intelligenza non biologica disseminata in miliardi di luoghi diversi del nostro cervello. Non so voi, ma ci sono mol-
ti libri che mi piacerebbe leggere e siti che mi piacerebbe visitare, e penso spesso che la mia larghezza di banda mentale sia troppo limitata. Così invece di avere solo cento trilioni di connessioni, finiremo per averne cento milioni di trilioni. Potremo potenziare enormemente le nostre capacità cognitive di riconoscimento degli schemi, pensare più velocemente ed eseguire il download di conoscenze. Seguendo ulteriormente queste tendenze, si arriva a un punto in un cui il cambiamento è tanto rapido da dare apparentemente luogo a una frattura nel tessuto della storia umana. Alcuni hanno chiamato questo momento «Singolarità». Si tratta di un termine preso a prestito dalla fisica e indica un punto di infinita densità ed energia che costituisce una sorta di spaccatura dello spazio-tempo. Qui è applicato per analogia alla storia umana, e in particolare al momento
in cui la velo-
cità del progresso tecnologico è tanto elevata da apparire come un salto nella storia umana. In fisica è impossibile vedere al di là di una Singolarità: si crea così un evento-confine. Alcune persone hanno ipotizzato che sarà impossibile caratterizzare la vita umana dopo la Singolarità. La mia domanda è: che cosa sarà la vita umana dopo la Singolarità, che 10 prevedo si verificherà poco prima della metà del XXI secolo? Molte delle nostre idee sulla natura della vita umana (per esempio la longevità) suggeriscono una capacità limitata in quanto entità biologiche pensanti. Tutti questi concetti subiranno cambiamenti significativi quando ci fonderemo con la nostra tecnologia. Ho impiegato qualche tempo ad abbracciare mentalmente questi problemi. The Age of Intelligent Machines si chiudeva con la previsione che le macchine avrebbero raggiunto l’intelligenza umana tra il 2020 e il 2050, e fondamentalmente non ho cambiato idea su questa tempistica, anche se ho abbandonato l’ipotesi che questo sarebbe stato il cambia-
201
mento definitivo. Nel libro che ho scritto dieci anni più tardi,
The Age of Spiritual Machines, ho iniziato a considerare come sarebbe stata la vita quando le macchine fossero state in grado di competere con noi. Ora sto cercando di capire che cosa significherà tutto ciò per la società umana. Una cosa che dovremmo tenere a mente è che l’intelligenza biologica innata è un’entità fissata. La specie umana esegue un totale di 10° calcoli al secondo (considerando 10 miliardi di cervelli umani, ciascuno dei quali con circa 100 miliardi di neuroni,
con un dispiegamento
medio
di 1000 connessioni
per neurone, dove ciascuna connessione ha una capacità di circa 200 calcoli al secondo). Tra cinquant'anni l’intelligenza biologica dell’umanità sarà ancora dello stesso ordine di grandezza. Ma l’intelligenza artificiale sta crescendo esponenzialmente e oggi è un milione di volte inferiore al totale biologico. Così, nonostante l’intelligenza umana sia ancora dominante, il
punto d’incrocio è intorno al 2030, dopodiché l’intelligenza non biologica continuerà la sua crescita esponenziale.
Ciò induce alcuni a chiedersi come possiamo sapere se un’altra specie o entità è più intelligente di noi. La conoscenza non è tautologica? Come possiamo sapere più di quanto sappiamo? Chi potrebbe saperlo, se non noi?
Una risposta è non voler essere potenziati, non voler avere dei nanobot. Molti affermano di voler restare persone biologi-
che. Ma come apparirà la Singolarità a chi vorrà restare biologico? La risposta è che non se ne accorgeranno, se non per il
fatto che l'intelligenza artificiale apparirà all'umanità biologica come una stirpe di servitori trascendenti. Queste macchine appariranno estremamente amichevoli e si prenderanno cura
di tutti i nostri bisogni. Ma la soddisfazione di tutte le necessità materiali ed emotive dell’umanità biologica costituirà solo una minuscola frazione dell’output mentale della componente non biologica della nostra civiltà. Per cui vi saranno molte cose di cui l'umanità biologica non si accorgerà. Vi sono qui due livelli di considerazioni. A livello economico l’output mentale sarà il criterio primario. Ci stiamo già avvicinando al punto in cui la sola cosa che abbia valore è l’informazione. L'informazione ha valore nella misura in cui riflette
202
la conoscenza piuttosto che dati grezzi. Per esempio, un orologio, una macchina fotografica, un registratore a cassette sono oggetti fisici, ma il loro vero valore risiede nelle informazioni utilizzate per la loro progettazione: la progettazione dei loro chip e il software usato per inventarli e produrli. Le materie prime reali - un mucchio di sabbia, un po’ di metallo e così via - valgono pochi centesimi, ma questi prodotti hanno un
valore grazie a tutta la conoscenza che è stata utilizzata per crearli. E la componente-conoscenza di prodotti e servizi si avvicina asintoticamente al 100 per cento. Entro il 2030 avrà fondamentalmente raggiunto il 100 per cento. Attraverso una combinazione di nanotecnologia e intelligenza artificiale, saremo in grado di creare virtualmente qualsiasi prodotto fisico e soddisfare tutte le nostre necessità materiali. Quando tutto è software e informazione, sarà solo questione di scaricare il software giusto, e ormai vi siamo già molto vicini.
A livello spirituale, è importante anche il problema di che cosa sia la consapevolezza. Entro il 2030 avremo entità che sembreranno essere consapevoli e che sosterranno di avere sentimenti. Oggi vi sono entità (i personaggi dei videogiochi dei vostri figli, per esempio) che possono fare affermazioni simili, ma queste rivendicazioni non sono molto convincenti. Si tratta di entità software che sono ancora un milione di volte più semplici del cervello umano. Nel 2030 non sarà più così. Un esempio: incontriamo nella realtà virtuale un’altra persona che sembra un essere umano, ma dietro di essa non vi è alcun
umano biologico (si tratta di una IA che proietta una figura umanoide nella realtà virtuale o addirittura un'immagine umanoide nella realtà reale usando una tecnologia robotica androide). Queste entità sembreranno umane. Non saranno un milione di volte più semplici degli umani: saranno complesse quanto un uomo. Avranno tutte le caratteristiche più
sottili dell’umanità. Saranno in grado di mettersi sedute, farsi intervistare ed essere convincenti, complesse e interessanti quanto un umano. E quando sosterranno di essere arrabbiate o felici, saranno convincenti quanto un umano che afferma le
stesse cose. A questo punto giungiamo a un problema filosofico profon-
203
do. Un’entità di questo genere è solo una simulazione abbastanza intelligente da ingannarci o è veramente consapevole nel modo in cui riteniamo lo siano le persone? A mio modo di vedere non vi è alcun modo per determinarlo scientificamente. Non vi è alcuna macchina in cui si potrà far entrare una di queste entità e che con una lucina verde ci dirà: «Ok, questa entità è consapevole», oppure: «Questa non lo è». Si potrebbe anche costruire una macchina del genere, ma inevitabilmente
potrà funzionare solo a partire da preconcetti filosofici. Alcuni filosofi diranno che un’entità, a meno che non possieda impulsi che si muovono attraverso neurotrasmettitori biologici, non sarà consapevole, o che a meno di non essere un uma-
no biologico con una madre e un padre biologici, non sarà consapevole. Ma la consapevolezza diventa materia di dibattito filosofico: non è scientificamente determinabile. La prossima grande rivoluzione (che avrà su di noi un effetto immediato) è quella della tecnologia biologica, perché abbiamo fuso la conoscenza biologica con l'elaborazione delle informazioni. Siamo nelle prime fasi della comprensione dei processi della vita e delle malattie tramite la conoscenza del genoma e di come il genoma si esprime nelle proteine. Scopriremo (e la cosa è sempre stata evidente) che non esiste una definizione chiara e immobile del momento in cui la vita ha inizio. Entrambi gli schieramenti del dibattito sull’aborto hanno avuto timore di allontanarsi dai limiti del quesito se la vita inizi con la concezione o con la nascita. Non vogliono approfondire questo quesito perché capiscono che è tutto un unico piano inclinato. E noi lo renderemo ancora più inclinato. Riusciremo a creare cellule staminali senza mai passare attraverso ovuli fecondati. Qual è la differenza tra una cellula epidermica, che contiene l’intero genoma,
e un ovulo fecon-
dato? Le sole differenze sono alcune proteine nell’ovulo e alcuni fattori di segnalazione che ancora non comprendiamo totalmente e che sono fondamentalmente proteine (alcune piccole molecole di RNA sembrano avere un ruolo importante in questo frangente). Arriveremo al punto in cui saremo in grado di prendere un mix di proteine (che sono evidentemente un coacervo di agenti chimici, e non esseri umani) e aggiungerli a
204
una cellula epidermica per creare un uovo fecondato che possiamo immediatamente differenziare in una qualsiasi cellula del corpo. Quando mi sfregherò le mani e ne farò cadere migliaia di cellule epidermiche, starò distruggendo migliaia di potenziali persone. Non vi sarà più alcun confine delineato. Questo è un altro modo di dire che la scienza e la tecnologia troveranno un modo per aggirare la controversia. In futuro saremo in grado di realizzare la clonazione terapeutica, una tecnologia molto importante che evita completamente il concetto di feto. Potremo prendere cellule epidermiche e creare (in modo sostanzialmente diretto, senza mai usare un feto) tut-
te le cellule che ci servono. Nell'ultimo anno ci sono stati importanti progressi proprio in questa direzione: alcuni scienziati sono riusciti a trasformare direttamente cellule epidermiche in cellule del sistema immunitario e in cellule nervose senza usare la clonazione o le cellule staminali embrionali. Non siamo molto distanti dal riuscire a creare nuove cellule. Io per esempio ho cinquantaquattro anni, ma con il mio DNA potrò creare le cellule cardiache di un uomo di venticinque anni e potrò sostituire i tessuti del mio cuore con quelle cellule senza alcun intervento chirurgico, semplicemente inviandole attraverso il mio flusso sanguigno. Queste cellule prenderanno residenza nel mio cuore, per cui all’inizio avrò un cuore che sarà costituito per l’1 per cento da cellule giovani e per il 99 per cento da cellule più vecchie. Ma se continuerò a seguire questa procedura ogni giorno, dopo un anno il mio cuore sarà costituito per il 99 per cento da cellule giovani. Con questo tipo di terapia possiamo in ultima analisi ricostituire tutti i tessuti e gli organi del corpo. Non è qualcosa che accadrà domani, ma si tratta del genere di processi rivoluzionari che ci
aspettano. Se consideriamo la longevità umana (un’altra tendenza esponenziale) noteremo che nel XVHI secolo sono stati aggiunti ogni anno pochi giorni all’aspettativa di vita. Nel XIX secolo si parlava di qualche settimana all’anno, e ora stiamo aggiungendo cento giorni all’anno grazie a tutti questi sviluppi, che continueranno ad accelerare. Molti osservatori, me com-
preso, ritengono che entro dieci anni aggiungeremo alla no-
205
stra aspettativa di vita più di un anno all’anno. Così, a mano a mano che invecchieremo, l’aspettativa di vita si espanderà più
velocemente del nostro invecchiamento. Noi dovremo tenere duro, perché la nostra generazione è esattamente sul confine.
Dovremo badare alla nostra salute nel modo tradizionale ancora per un po’, per non essere l’ultima generazione a morire prematuramente. Ma quando i nostri figli avranno trenta 0 quaranta anni, queste tecnologie saranno tanto avanzate che l'aspettativa di vita umana sarà radicalmente estesa. Vi è poi un problema fondamentale: i dibattiti etici fermeranno gli sviluppi di cui sto parlando? Va benissimo avere questi modelli matematici e queste tendenze, ma la domanda
è:
tutte queste speranze andranno perdute perché qualcuno, per un motivo o per un altro (attraverso la guerra o i dibattiti etici come la controversia sulle cellule staminali), bloccherà que-
sto costante sviluppo esponenziale? To credo fermamente che non sarà così. I dibattiti etici sono come pietre in un fiume. L'acqua scorre loro attorno. Non si è mai vista una sola tecnologia biologica bloccata anche solo per una settimana da uno qualsiasi di questi dibattiti. In qualche misura dovremo trovare i modi di aggirare alcune limitazioni,
ma vi sono moltissimi sviluppi in corso. Vi sono decine di idee estremamente affascinanti su come usare le informazioni genomiche e le informazioni proteomiche. Per quanto le controversie possano scatenarsi contro qualche idea qua e là, il fiume del progresso è tale (il concetto stesso di progresso tecnologico è così profondamente radicato nella nostra società) da costituire un enorme imperativo. Sono ben consapevole del fatto che esistono dei pericoli, ma non si può pensare di bloccare l’accelerazione tecnologica se non in uno scenario simile a quello di Il mondo nuovo, in cui un governo totalitario usava la tecnologia
per impedire qualsiasi sviluppo tecnologico. Il genere di scenari del futuro che ci attende tra venti o trent'anni di cui sto parlando non vengono sviluppati perché c'è da qualche parte un unico laboratorio in cui si sta dotando un'unica macchina di un'intelligenza di livello umano. Questi scenari si profilano perché sono il risultato inevitabile di migliaia di piccoli passi. Ogni piccolo passo è conservativo, non
206
radicale, e perfettamente sensato. Ogni passo è solo la nuova generazione di prodotti di una qualche azienda. Se prendiamo migliaia di questi piccoli passi (che avvengono sempre più velocemente) finiremo per avere, nell’arco di venti o trent'anni da ora, grandi cambiamenti. Nonostante le legittime preoccupazioni del direttore scientifico di Sun Microsystems, Bill Joy,
non sentiremo quell’azienda dire che le implicazioni future di queste tecnologie sono tanto pericolose che smetterà di creare reti più intelligenti e computer più potenti. La Sun non può fermarsi. Nessuna azienda può farlo, perché vorrebbe dire chiudere. Si tratta di un enorme imperativo economico. Ma vi è anche un gigantesco imperativo morale. Vi sono ancora non solo milioni, ma addirittura miliardi di persone che soffrono per malattie e povertà, e noi abbiamo la possibilità di
superare questi problemi attraverso il progresso tecnologico. Non possiamo dire ai milioni di persone che soffrono di cancro che siamo sul punto di fare una grande scoperta che li salverà dalla loro malattia ma che ci fermeremo perché qualche terrorista potrebbe usare la stessa tecnologia per creare un agente patogeno bio-ingegnerizzato. Si tratta di una preoccupazione sensata, ma non può fermarci. Nella nostra società vi è un’enorme fede nei vantaggi di un costante progresso economico e tecnologico. Certo, è inevitabile che questo progresso porti con sé dei pericoli. Concordo sul fatto che abbiamo bisogno di concentrare la nostra attenzione sulla gestione di questi scenari di pericolo. Si tratta, a mio modo di vedere, del-
la più grande sfida del XXI secolo. Un altro aspetto di tutti questi cambiamenti è il fatto che ci costringono a riconsiderare la nostra idea di che cosa significhi essere umani. Esiste un’obiezione diffusa al progresso tecnologico e alle sue implicazioni per l’umanità. Essa sostiene qualcosa del genere: noi avremo dei computer molto potenti, ma non abbiamo risolto il problema del software, e dato che il software è così incredibilmente complesso, non possiamo gestirlo. Io rispondo a questa obiezione dicendo che il software necessario per emulare l’intelligenza umana non è affatto al di là della nostre capacità attuali. Dobbiamo utilizzare tecniche diverse (diversi metodi di auto-organizzazione), di ispirazione »
207
biologica. Il cervello è complicato, ma non poi così tanto. Dobbiamo tenere a mente che è caratterizzato da un genoma di soli 23 milioni di byte. Il genoma corrisponde a 6 miliardi di bit (ovvero 800 milioni di byte) e vi sono molte ridondanze. Una sequenza abbastanza lunga chiamata ALU è ripetuta 300.000 volte. Se si usa la compressione di dati convenzionale sul genoma, si ottengono circa 23 milioni di byte (una piccola frazione delle dimensionidi Microsoft Word): si tratta di un livello di complessità che siamo in grado di gestire. Ma non abbiamo ancora eseguito il reverse-engineering di queste informazioni, ovvero non abbiamo ancora capito i principi operativi del cervello umano. Potreste forse chiedervi come qualcosa con 23 milioni di byte possa creare un cervello umano milioni di volte più complesso delle informazioni di partenza. Non è difficile da capire. Il genoma crea un processo di connessioni in una regione del cervello umano che coinvolge un elevato tasso di casualità. Poi, quando il feto diventa un bambino e interagisce con un mondo estremamente complesso, vi è all’interno del cervello un processo evolutivo in cui molte connessioni vengono disattivate, altre vengono rafforzate e il cervello stesso si auto-organiz-
za per rappresentare una conoscenza e diverse capacità significative. E un sistema molto intelligente e noi non lo abbiamo ancora compreso a fondo, ma lo faremo, perché non si tratta
di un livello di complessità superiore alle nostre capacità di ingegnerizzazione. A mio modo di vedere vi è qualcosa di speciale negli esseri umani, qualcosa di diverso da quanto vediamo in qualsiasi altro animale. Per i casi dell’evoluzione siamo stati la prima specie a riuscire a creare una tecnologia. Di fatto ce ne sono state delle altre, ma noi siamo i soli a essere sopravvissuti in questa nicchia ecologica. Abbiamo combinato una facoltà razionale, la capacità di pensare logicamente, di creare astrazioni, di creare nella nostra mente modelli del mondo e di manipolare il mondo. Abbiamo pollici opponibili per poter creare la tecnologia, ma la tecnologia non è solo una questione di strumenti. Altri animali hanno usato strumenti primitivi. La differenza è un corpus di conoscenze che cambia e si evolve di
208
generazione in generazione. La conoscenza a disposizione della specie umana è un’altra tendenza esponenziale. Noi usiamo una fase tecnologica per creare quella successiva, ed è per questo che la tecnologia accelera e cresce in potenza. Oggi, per esempio, un progettista di computer dispone di strumenti informatici eccezionalmente potenti per creare computer, per cui in un paio di giorni può creare un sistema estremamente complesso e il tutto può essere ideato molto rapidamente. I primi progettisti di computer dovevano disegnare tutto con carta e penna. Ogni generazione di strumenti crea la potenza per creare la generazione successiva. Quindi la tecnologia in sé è un processo esponenziale ed evolutivo, una continuazione dell’evoluzione biologica che ha
creato l'umanità. La stessa evoluzione biologica si è sviluppata in modo esponenziale. Ogni fase ha creato strumenti più potenti per quella successiva, così quando l’evoluzione biologica
ha creato il DNA ha avuto i mezzi per tenere traccia dei propri esperimenti e ha potuto quindi procedere più velocemente. È per questo che l’esplosione cambriana è durata solo qualche decina di milioni di anni, mentre la prima fase (quella della creazione del DNA e delle cellule primitive) è durata miliardi di anni. Infine, l'evoluzione biologica ha creato una specie in grado di manipolare il proprio ambiente e dotata di facoltà razionali, e ora la frontiera più avanzata dell’evoluzione è passa-
ta dall'evoluzione biologica a qualcosa che viene compiuto da una delle sue creature, l’Homo sapiens, ed è rappresentata dalla tecnologia. Nella prossima epoca questa specie che è avanzata nel proprio processo evolutivo (ovvero nella propria evoluzione culturale e tecnologica) come nessun'altra specie è riuscita a fare, si combinerà con ciò che avrà creato. Si fonderà
con la propria tecnologia. A un certo livello questo sta già ac-
cadendo (anche se la maggior parte di noi non ne porta ancora i risultati all’interno del proprio corpo e del proprio cervello), perché abbiamo un rapporto molto intimo con la tecnologia. La portiamo in tasca.
209
op
i n
a
lai
site
orari»sepsi pala
2
n
e
ne ii
rare
i
prep srentorio brsiegiolcantat
— - sesoqpilaasibigroomib iiziggecre a separano eprir C ezio >*animi Lane) imniog sonori saraiado sisi convincere
LI CEol
orga: cera in uti nina:cdrtartiaiadcpp II
Signs
0
doo
riesideetiorazipnene te3 Gu
9
Renania mir iaLEO] 286 merarttg
ce
ri ‘aioai, i
29%
BETA
E° siae riChieRaar
È
fstemo E gi "0 ARTI cat lei È
isentPref
id
SHIT DEMI amenè peSIOta
corna tera
dai
51iigiato dg uraticp] Sanonzal
© setigodila1 navassinotaiooa
$ de
si
‘speg$ ipo rit sarò
ni sigolow rs)
e
gi ifvasia; n,
n ra aarri sctbovit into 4 ore ce iaia: iniecturi atraioe nisoleitbi ect e diri attici plent } iova arots sid 3; preguoti meme "o i sizitniogie abiti cdi eh nego TORTURE SSRDLRIRA gita pisstzest cass Lol pun 1a
fer ale ie ona ba:
esSeaGI 4° sie
È di et sursezionelita
ARCIA® DAD:
“tinto og iii
ii de
pui saclere impioreartà
ES E TrATE. sugo
tte4 raga
dae iiup
areas dii «plans ieruiziare piesisì af» 300 stre pari rasta
K
at
aerà uber) sigari ita ib amelia, i si
fltaes Henri
//
; OSSO ib tstiioì setsasttr brtateizi Mesi]: alati cine nsir bela
Sia ingioid aponidiei
on pisana RAVRIRIT
aaa bacio id 5
sisidna alga NLlARIpus abiobane tiioina Arene PEEVPRE NEI("7707 +SI Azzi 6 he: secimuiniot ‘Palaia nue 6 deg Gioie
bots
Èdebe animei rinvia sip fr v#? vita
diari
$ Do cesiàna mat I omai tudo suse siate
dI
atene) aio aan
egli Frà
erat
Tira ila
jeaey
a AO
Dai «HIpriericpueLal» > RATED
hai
rix,
fo
tizia. SaiaNIAME Ferret
em UR
fe gue
nuora a
AT
desi acàdi Valspi dio
« pi poi
apga mot
Ti Co
ici
tr
sempe singer,sist) A
E
pls P rilsp: sorscaipani >
Sn ppdcitae ie RESTO PRI
gar, Gian. PA erre
zia iifeiai du
famazi Cit 758 o
Hdi av; petti o7 °-NI
sigledii ni.
aan
ri iggga, coni a pi)
urina
sileSEMO,
sha atarefe
ont
iasafe arri
OD
FI.
Arta
136DIRIRATE Todd
nasti TIA rpraettiane dei
|
JARON
LANIER*
Mezzo manifesto
Noi immaginiamo sistemi cibernetici «puri», ma possiamo dimostrare solo di saperne costruire di abbastanza disfunzionali. Ci prendiamo in giro quando pensiamo di capire qualcosa, anche un computer, soltanto perché sappiamo modellizzarlo 0 digitalizzarlo.
Negli ultimi vent'anni mi sono trovato all’interno di una rivoluzione ma all’esterno del suo risplendente dogma. Ora che la rivoluzione è diventata mainstream, arrivando addirittura a
sottomettere l’intera economia, è probabilmente tempo che io urli il mio dissenso con più forza di quanto non abbia fatto in
passato. Il dogma al quale sono contrario è composto da una serie di credenze interconnesse e non ha un nome diffusamente accettato, per quanto io lo chiami a volte «totalitarismo ciberne-
tico». Questo dogma ha il potenziale di trasformare l’esperienza umana in modo più potente di qualsiasi ideologia, religione o sistema politico precedente, in parte perché può essere estremamente piacevole per la mente (quantomeno all’inizio), ma soprattutto perché ha libero accesso alle potenti tecnologie create da persone che sono in larga misura suoi fervidi adepti. * Jaron Lanier, studioso di informatica e musicista, è direttore scientifico della National Tele-Immersion Initiative, una coalizione di istituti di ricerca universitari che studiano applicazioni avanzate per Internet 2. Noto soprattutto per il suo lavoro sulla realtà virtuale (termine da lui coniato), Lanier ha contribuito allo svi-
luppo delle prime implementazioni di mondi virtuali multipersonali con l’utilizzo di schermi a casco. Ha inoltre contribuito allo sviluppo delle prime implementazioni della realtà virtuale in simulazioni chirurgiche, nello sviluppo di prototipi di veicoli e in varie altre applicazioni. Come musicista scrive musiche per orchestra,
suona un vasto numero di strumenti provenienti da tutto il mondo e si è esibito con un’ampia serie di collaboratori, da Philip Glass a George Clinton.
211
L'utilizzo originale del termine «cibernetico» fatto da Norbert Wiener non era certamente limitato ai computer digitali. Era originariamente inteso a suggerire una metafora tra la navigazione marittima e una periferica di feedback che governa un sistema meccanico, quale un termostato. Wiener certa-
mente comprese ed esplorò umanamente la straordinaria portata di questa metafora, una delle più potenti mai espresse. Spero che nessuno pensi che io identifichi la cibernetica in ge-
nerale con quello che chiamo totalitarismo cibernetico. La distanza tra riconoscere una grande metafora e trattarla come la sola metafora esistente è la stessa tra la umile scienza e la religione dogmatica.
Ecco un parziale elenco delle credenze che compongono il totalitarismo cibernetico: 1. gli schemi cibernetici di informazione forniscono il mo-
do definitivo e migliore per comprendere la realtà; . le persone non sono altro che schemi cibernetici; l’esperienza soggettiva non esiste o è irrilevante in quan-
09 N.
to si tratta di un qualche tipo di effetto ambientale o periferico;
4. ciò che Darwin ha descritto in biologia, o qualcosa del genere, è di fatto una descrizione unificata e superiore di
qualsiasi creatività e cultura; (Gi.
gli aspetti qualitativi (oltre a quelli quantitativi) dei sistemi
informativi saranno accelerati dalla legge di Moore. E infine la più drammatica: 6. la biologia e la fisica si fonderanno con l’informatica, trasformandosi in biotecnologia e nanotecnologia, e di con-
seguenza la vita e l'universo fisico diventeranno mercuriali e verrà conseguita la presupposta natura del software informatico. Come se non bastasse, tutto questo accadrà anche molto presto! Dato che i computer migliorano tanto velocemente, finiranno con il sopraffare tutti gli altri processi cibernetici (comprese le persone) e modificheranno in maniera fondamentale la natura di ciò che ac-
212
cade sul buon vecchio pianeta Terra nel momento in cui sì raggiungerà un nuovo «punto critico» (forse già intorno al 2020). Essere umani dopo quel momento sarà impossibile o comunque molto diverso da quanto possiamo
immaginare ora. Negli ultimi vent'anni un flusso continuo di libri ha progressivamente informato il grande pubblico della struttura di credenze del ristretto circolo dei digerati, partendo con toni più morbidi (per esempio in Gédel, Escher, Bach di Douglas Hofstadter) per poi farsi via via più duri, come nel caso di The Age of Spiritual Machines di Ray Kurzweil. Di recente l’attenzione del pubblico è stata richiamata sull’ultima credenza del nostro elenco, la sbalorditiva convinzio-
ne in un cataclisma escatologico nel corso delle nostre vite, che si verificherà quando i computer diverranno i padroni ultraintelligenti della materia fisica e della vita. Per quanto mi riguarda, un buon numero di miei amici e colleghi crede in una
qualche versione di questa imminente apocalisse. Sono curioso di sapere quanti famosi pensatori che accettano ampiamente una qualche versione dei primi cinque punti si sentono a proprio agio anche con la sesta, l’escatologia. In generale trovo che i tecnologi abbiano teso più di chi si occupa di scienze naturali a sostenere la possibilità di un punto critico a breve termine. Non ho idea però di cosa ne pensino personaggi come il biologo evoluzionista Richard Dawkins o il filosofo Daniel Dennett. In qualche modo non riesco a immaginare questi eleganti teorici che speculano sulla possibilità che i nanorobot si impadroniscano del mondo di qui a vent'anni. Mi sembrerebbe un'immagine poco dignitosa. Eppure le escatologie di Kurzweil, Hans Moravec ed Eric Drexler discendono direttamente (e sembrerebbe anche inevitabilmente) da un'i-
dea del mondo che è stata articolata nel modo più acuto proprio da Dawkins e Dennett. Dawkins, Dennett e altri studiosi del loro stesso campo vedono qualche difetto logico che isola il loro pensiero dalle implicazioni escatologiche? Il principale candidato a questo titolo, per come la vedo io, è il fatto che i ciber-apocalittici hanno confuso i computer ideali con i com-
213
puter reali, che si comportano in modo diverso. La mia posi-
zione su questo punto può essere valutata separatamente dalle mie posizioni dichiaratamente provocatorie sui primi cinque punti, e spero che lo sarà.
Perché questo è solo un «Mezzo manifesto»? Spero che i lettori non penseranno che io sia affondato in una qualche sorta di tetro rifiuto della tecnologia digitale. Di fatto sono più felice che mai di lavorare nel settore informatico e trovo che sia piuttosto facile adottare un quadro generale umanistico per progettare strumenti digitali. AI momento esiste già un’eccezionale fioritura di cultura informatica, che nasce perlopiù indipendentemente dalle élite tecnologiche e che rifiuta implicitamente le idee criticate da me in questo testo. Un manifesto completo dovrebbe tentare di descrivere e promuovere questa cultura positiva. Ora esaminerò le cinque credenze che devono precedere l’accettazione della nuova escatologia, per poi considerare l’escatologia in sé. Credenza n. 1 dei totalitaristi cibernetici: gli schemi cibernetici di informazione forniscono il modo definitivo e migliore per comprendere la realtà. Chi percepisce per la prima volta un fenomeno in termini cibernetici prova un’innegabile esplosione di eccitazione. Per esempio, io credo di poter immaginare il brivido che doveva dare il fatto di usare per la prima volta una strumentazione fotografica nel XIX secolo, ma non posso immaginare che un qualsiasi outsider possa comprendere la sensazione che si provava ad avere a che fare con le prime tecnologie di computer graphics negli anni Settanta. Non si trattava solo di un modo di realizzare e mostrare immagini, ma di una meta-cornice che includeva tutte le immagini possibili. Una volta concepito qualcosa in modo che lo si possa infilare dentro un computer, se ne è crackato il codice, si è trascesa qualsiasi particolarità esso potesse avere in un dato momento. Era come se fossimo diventati gli dei della visione e avessimo di fatto creato tutte le immagini possibili, perché queste sarebbero state semplici rimescolamenti dei bit sui computer che avevamo di fronte, totalmente sotto il nostro controllo.
214
L'impulso cibernetico è inizialmente spinto dall’ego (anche se, come vedremo, alla fine - che non è ancora giunta - diven-
terà il nemico dell’ego). Per esempio, i totalitaristi cibernetici osservano la cultura e vedono «memi», ovvero tropi mentali autonomi che competono (un po’ come virus) per conquistare lo spazio cerebrale degli uomini. Nel fare ciò, i totalitaristi cibernetici non solo mettono in atto un trionfo dell’imperialismo accademico (ponendosi in un’immaginaria posizione di superiorità intellettuale rispetto a tutte le materie umanistiche), ma evitano anche di dover prestare grande attenzione agli specifici culturali di un dato tempo e luogo. Una volta sussunto qualcosa nella sua riduzione cibernetica, qualsiasi rimpasto specifico dei suoi bit appare privo d'importanza. La credenza n. 1 fece la sua comparsa quasi contemporaneamente ai primi computer. Fu articolata dalla prima generazione di scienziati dell'informatica: Wiener, Shannon, Turing. Si tratta
di una credenza tanto fondamentale da non essere nemmeno più affermata nel circolo interno. È tanto radicata che per me risulta difficile distaccarmi a sufficienza dal mio ambiente intellettuale totalizzante per articolare un'alternativa a essa. Ma un’alternativa potrebbe essere questa: un modello cibernetico di un fenomeno non può mai essere il modello unico, perché noi non siamo nemmeno in grado di costruire computer che si conformino a questi modelli. I veri computer sono totalmente diversi dai computer ideali della teoria. Si rompono per motivi non sempre analizzabili e sembrano resistere intrinsecamente a molti nostri tentativi di migliorarli, in larga parte a causa della loro eredità e dei loro vincoli interni, oltre ad altri problemi. Noi immaginiamo sistemi cibernetici «puri», ma possiamo dimostrare solo di saperne costruire di abbastanza disfunzionali. Ci prendiamo in giro quando pensiamo di capire qualcosa, anche un computer, soltanto perché sappiamo modellizzarlo o digitalizzarlo. A turbarmi è anche un problema epistemologico che i miei colleghi sono perlopiù decisi a ignorare. Non penso che si possa misurare la funzione (o anche solo l’esistenza) di un computer senza il suo contesto culturale. Non penso che i marziani sarebbero necessariamente in grado di distinguere un Macintosh da un bollitore spaziale.
215
Queste dispute ruotano, in ultima analisi, intorno ad argomentazioni tecniche sulla teoria dell’informazione e su posi zioni filosofiche che dipendono in larga misura da gusti e credenze personali. Cercherò quindi di rafforzare le mie posizioni con considerazioni pragmatiche, e alcune di queste faranno la loro comparsa a partire dai miei commenti alla... Credenza n. 2. Le persone non sono altro che schemi cibernetici. Le fantasie di tutti i totalitaristi cibernetici si basano sull’intelligenza artificiale. Potrebbe non essere immediatamente chiaro il motivo per cui queste fantasie siano essenziali per coloro che le intrattengono. Se i computer devono diventare abbastanza intelligenti da progettare i propri successori, avviando
un processo che porterà a una onniscenza paradivina dopo una serie di passaggi sempre più rapidi da una generazione di computer a quella successiva, qualcuno dovrà scrivere il software che metterà in moto questo processo, e gli umani non hanno dato alcuna prova di essere in grado di farlo. Quindi l’idea è che saranno i computer a diventare in qualche modo intelligenti e a scrivere da sé il proprio software. La mia prima obiezione a questo modo di pensare è pragmatica: questa credenza porta a creare (qui e ora) software reale di pessima qualità. I totalitaristi cibernetici vivono con la testa nel futuro e sono disposti ad accettare evidenti difetti nel software attuale a favore di un mondo di fantasia che potrebbe non realizzarsi mai. L'intera avventura dell’intelligenza artificiale è basata su un errore intellettuale e continua a produrre software costosi e progettati in modo sciatto che vengono rivenduti con un nome diverso a ogni nuova generazione di programmatori. Ultimamente li si è chiamati «agenti intelligenti», mentre nel ciclo
precedente il loro nome era «sistemi esperti». Partiamo dall'inizio, quando comparve per la prima volta questa idea. Nel famoso esperimento di Turing sul pensiero, a un giudice umano viene chiesto di determinare quale di due corrispondenti è umano e quale è una macchina. Se il giudice non è in grado di dirlo, Turing sostiene che il computer do-
216
vrebbe essere trattato come se avesse fondamentalmente conseguito lo status morale e intellettuale di persona. L’errore di Turing era dare per scontato che l’unica spiegazione per il successo di un corrispondente-macchina potesse essere il fatto che il computer si era in qualche modo elevato diventando più intelligente, più umano. Ma vi è un’altra spiegazione, altrettanto vivida, per il successo di un computer in questo test, ovvero che l’umano sia diventato meno intelligente, meno uma-
no. Ogni anno viene tenuto un test di Turing ufficiale e anche se il sostanzioso premio in denaro non è ancora stato vinto da nessun programma,
sicuramente nei prossimi anni qualcuno
finirà per incassarlo. La mia idea è che questo evento distragga tutti dai veri test di Turing che sono già stati superati. Test di Turing reali, per quanto in miniatura, che avvengono ogni giorno, ogni volta che qualcuno avvia un qualche stupido pro-
gramma per computer. Per esempio, negli Stati Uniti organizziamo le nostre vite finanziarie allo scopo di apparire in luce favorevole ai software pateticamente semplicistici che determinano il rating del nostro credito. Prendiamo per esempio a prestito soldi che non ci servono per fornire a questi programmi il tipo di dati che - come sappiamo - sono stati programmati per valutare favorevolmente. Nel farlo ci rendiamo stupidi per far sembrare intelligente un software informatico. Di fatto continuiamo a fidarci dei software di rating del credito anche se vi è stata un’epidemia di bancarotte personali nel corso di un periodo di grande prosperità in cui i livelli di disoccupazione erano molto bassi. Abbiamo fatto in modo che il test di Turing venisse superato. Non vi è alcuna differenza epistemologica tra intelligenza artificiale e accettazione di un software informatico progettato male. La mia argomentazione può essere presa come un attacco all'idea che prima o poi esisteranno computer senzienti, ma una lettura più sofisticata vorrebbe che la si vedesse come un’affermazione dei vantaggi pragmatici di una posizione anti-IA, poiché è più probabile che coloro che credono nell’IA presentino pessimi software. Ma la cosa più importante è che
spero che il lettore comprenda come l’intelligenza artificiale sia più un sistema di credenze che una tecnologia.
217
Credenza n. 3. L'esperienza soggettiva non esiste 0 è irrilevante in
quanto si tratta di un qualche tipo di effetto ambientale o periferico. Sta prendendo forma una nuova battaglia morale sulla questione di quando si debba attribuire un’«anima» a schemi percepiti nel mondo. I computer, i geni e l'economia sono alcune
delle identità che secondo i totalitaristi cibernetici popolano la
realtà odierna accanto agli esseri umani. È certamente vero che nelle nostre vite ci troviamo costantemente di fronte atto-
ri non-umani e meta-umani e che questi attori appaiono a vol te più potenti di noi. Quindi la nuova domanda morale è: dobbiamo prendere decisioni esclusivamente sulla base delle necessità e dei desideri degli umani biologici «tradizionali» 0 dobbiamo considerare anche alcuni di questi altri attori?
Propongo di fare uso di una semplice immagine per considerare i punti di vista alternativi. Questa immagine è quella di un cerchio immaginario che ciascuna persona traccia intorno a sé. Lo chiameremo «il cerchio dell’empatia». All’interno del cerchio vi sono le cose che sono considerate degne di empatia e quindi del rispetto, dei diritti e del trattamento equo che ne
derivano. All’esterno del circolo avremo le cose che sono considerate meno importanti, meno vive, meno
degne di diritti.
(Questa immagine è solo uno strumento teoretico e non dovrebbe certamente essere considerata il mio modello onnicomprensivo della psicologia umana e dei dilemmi morali.) Semplificando un po’ le cose, i liberali sperano di espandere questo cerchio, mentre i conservatori mirano a restringerlo. In un qualche punto del nostro futuro i computer dovrebbero essere posti all’interno del cerchio dell’empatia? I totalitaristi cibernetici che popolano le accademie tecnologiche d’élite e le imprese della new economy sono convinti di sì. Vi è stato spesso un tenero ma involontario umorismo nei testi dei sostenitori di una prossima generazione di computer senzienti. La ricerca della dimostrazione razionale della possibilità di avere consapevolezza in un computer (o forse in Internet) è la versione moderna del tentativo di dimostrare l’esistenza di Dio. Come è successo in quel caso, molte grandi menti hanno bruciato quantità eccessive di energia in questa
218
ricerca e alla fine farà la sua comparsa un Kant del xxI secolo di orientamento cibernetico che presenterà una tediosa «dimostrazione» della futilità di tali avventure. Io non ho la pazienza di aspettare quella persona. Si dà il caso che negli ultimi cinque anni circa le argomentazioni sulla consapevolezza dei computer siano iniziate a scemare. La maggior parte dei miei colleghi dà per scontato che sia dimostrata, e per loro l'argomento è chiuso. Per me no. Devo dire che, quando questi argomenti erano ancora molto cool, era davvero strano discutere con persone come il filosofo-totalitarista cibernetico Daniel Dennett. Lui sosteneva che gli umani erano semplicemente computer specializzati e che imporre una qualche distinzione ontologica fondamentale tra umani e computer era solo una perdita di tempo sentimentale. «Ma tu non fai esperienze di vita?», gli chiedevo io.
«L'esperienza non è un’altra cosa rispetto a quello che potresti misurare in un computer?» Il mio antagonista avrebbe tipicamente contrattaccato con qualcosa del tipo: «L'esperienza è solo un'illusione creata perché c’è una parte della macchina [tu] che ha bisogno di creare un modello della funzione del resto della macchina... quella parte è il tuo centro di esperienza». Io rispondevo che l’esperienza è l’unica cosa che non viene ridotta dall’illusione, che anzi anche l’illusione stessa è esperienza. Un suo correlato purtroppo è il fatto che l’esperienza è ciò che può solo essere esperito. Questo mi metteva nella bizzarra posizione di chiedermi pubblicamente se qualcuno dei miei antagonisti mancava semplicemente di esperienza interna. (Una volta ho dichiarato che in tutta l'umanità si poteva provare con certezza la mancanza di esperienza interna solo in certi filosofi di professione.) Di fatto penso che i miei antagonisti stano dotati di esperienza interna, ma che scelgano di non
ammetterlo in pubblico per una serie di ragioni (la prima delle quali è che adorano far imbufalire il loro prossimo). Un’altra motivazione potrebbe essere l’«imperialismo accademico» che citavo più sopra. I rappresentanti di ciascuna disciplina accademica affermano di tanto in tanto di avere un punto di vista privilegiato che in qualche modo comprende o sussume i punti di vista dei loro rivali. I fisici sono stati gli al-
219
»
fa-accademici per la maggior parte del xx secolo, anche se ne-
gli ultimi decenni i pensatori «postmoderni» sono riusciti a mettere in atto una specie di colpo di stato (o perlomeno così sembrano pensare loro). Ma è inevitabile che siano i tecnologi i vincitori di questo gioco, perché sono loro a toglierci da sotto i piedi le componenti stesse delle nostre vite. Per molti di loro sembra proprio una tentazione irresistibile quella di sottolineare questo loro potere sostenendo di possedere anche una comprensione definitiva della realtà, che è una cosa ab-
bastanza diversa dall’avere una tremenda influenza su di essa. Una terza motivazione potrebbe essere neo-freudiana, considerando che il primo sostenitore dell’idea della consapevolezza delle macchine, Alan Turing, era un’anima tanto tortu-
rata. Turing morì con ogni probabilità suicida dopo che gli si era sviluppato il seno in seguito a una protratta somministrazione di ormoni che avrebbe dovuto curarlo dall’omosessualità. Fu durante quell’ultimo tragico periodo della sua vita che sostenne appassionatamente la consapevolezza delle macchine, e mi chiedo se non si stesse impegnando in una forma estremamente originale di fuga/negazione psicologica: sfug-
gire dalla sessualità e dalla mortalità diventando un computer. In ogni caso, è assolutamente peculiare e rivelatorio il fatto che i miei amici totalitaristi cibernetici confondano la realizzabilità di una prospettiva con la sua trionfante superiorità. È perfettamente vero che si può pensare a una persona come al mezzo con cui un gene si propaga (come nel caso di Dawkins) o come a un organo sessuale usato dalle macchine per produrre altre macchine (come nel caso di Marshall McLuhan, citato nella testata di tutti i numeri di Wired) e di fatto può an-
che essere bello di tanto in tanto pensare alle cose da questa prospettiva. Come ha però sottolineato l’antropologo Steve Barnett, sarebbe ragionevole quanto affermare che «una persona è il mezzo usato dalla merda per produrre altra merda». Fingiamo dunque che il nuovo Kant sia già comparso e che abbia già fatto il suo inevitabile lavoro. Possiamo dunque dire: la disposizione del cerchio dell’empatia di una persona è in ultima analisi una questione di fede. Dobbiamo accettare il fatto che siamo costretti a posizionare questo cerchio da qualche
220
parte e che non possiamo escludere la fede extra-razionale dalla nostra scelta su dove posizionarlo. La mia scelta personale è di non mettere i computer all’interno del cerchio. In questo saggio affermo alcune delle motivazioni pragmatiche, estetiche e politiche di questa mia scelta, ma in ogni caso la decisione poggia sulla mia fede personale. Credenza n. 4. Ciò che Darwin ha descritto in biologia, 0 qualco-
sa del genere, è di fatto una descrizione unificata e superiore di qualstasi creatività e cultura. I totalitaristi cibernetici sono ossessionati da Darwin, perché Darwin ha descritto la cosa più vicina che abbiamo a un algoritmo della creatività. Darwin risponde a quello che sarebbe altrimenti un enorme buco nel Dogma:
come potranno i sistemi cibernetici essere abbastanza intelligenti e creativi da inventare un mondo postumano? Per abbracciare un’escatologia in cui i computer diventano intelligenti a mano a mano che aumenta la loro velocità, deve essere invocato un qualche deux ex machina (che, tanto per cambiare, ha la barba).
Purtroppo nel clima attuale sono costretto a dichiarare subito di non essere un creazionista. In questo saggio critico quella che percepisco come pigrizia intellettuale, una fuga dal tentati vo di comprendere i problemi nella speranza che sia il software a evolversi per farlo. Non sto affatto suggerendo che la natura abbia avuto bisogno di un qualche altro elemento al di là dell’evoluzione naturale per creare l’uomo. E non sostengo nemmeno che vi sia un blocco compatto di persone che mi si oppongono e che la pensano tutte esattamente allo stesso modo. Vi sono di fatto numerose variazioni dell’escatologia darwiniana. Alcune delle interpretazioni più drammatiche non sono giunte da scienziati o ingegneri ma da scrittori come Kevin Kelly e Robert Wright, che si sono fatti ipnotizzare da letture al largate di Darwin. Nei loro lavori la realtà è percepita come un grande programma informatico che esegue l’algoritmo di
Darwin, forse diretto verso un qualche tipo di Destino. Molti miei colleghi tecnici vedono anche quantomeno una forma di direzionalità causale nell’evoluzione, che punta verso
221
un grado sempre crescente di un qualcosa difficile da caratterizzare. Le parole usate per descrivere questo qualcosa sono esse stesse difficili da definire. Si dice che comprenda una crescente complessità, organizzazione e rappresentazione. Per il ricercatore informatico
Danny Hillis, gli uomini possiedono
questo qualcosa in misura maggiore, per esempio, degli organismi monocellulari, ed è naturale chiedersi se forse un giorno vi saranno nuove creature che ne avranno ancora di più degli esseri umani. (E naturalmente la futura nascita delle nuove specie «più evolute» viene generalmente messa in relazione ai computer.) Confrontate questa prospettiva con quella di Stephen Jay Gould, che in Fu/! House sosteneva che se vi è una direzionalità nell’evoluzione, questa punta verso una crescente diversità e noi improbabili creature note come umani,
essendo nate come una singola minuscola manifestazione di una grande e cieca esplorazione di creature possibili, immagi-
niamo solamente che l’intero processo sia stato progettato per condurre a noi. Non vi è un'idea più difficile da mettere alla prova di un'idea antropica (o della sua confutazione). Devo ammettere che a questo proposito tendo a schierarmi dalla parte di Gould, ma è più importante sottolineare un enigma epistemologico che dovrebbe essere preso in considerazione dagli escatologisti darwiniani, Se l’umanità è la misura dell’evoluzione che si è avuta sinora, saremo allora anche la misura delle specie che ci succederanno e che potrebbero essere etichettate come «più evolute» di noi. Per percepire questa forma di vita «più che umana» dovremo antropomorfizzarla, soprattutto se esisterà dentro uno spazio dell’informazione come Internet. In altre parole, saremo affidabili nel valutare lo status dei nuovi super-esseri quanto lo siamo ora nel valutare le caratteristiche di un cane domestico. Non siamo in grado di farlo. Prima di dirmi che quando la nuova ciberspecie super-intelligente arriverà la cosa sarà assolutamente evidente, andate a visitare una mostra canina. O una riunione di persone che credono di essere state rapite dagli UFO. Gli uomini sono indi scutibilmente folli quando si tratta di valutare la consapevolezza non umana.
Rae
Non vi è però alcun dubbio sul fatto che il movimento per interpretare Darwin in senso più ampio (e in particolare per importare le sue idee in psicologia e nelle materie umanistiche) abbia offerto alcune osservazioni illuminanti che un giorno faranno parte di una migliore comprensione della natura (compresa la natura umana). Io apprezzo questo flusso di pen-
siero su diversi piani. E poi ammettiamolo: è impossibile per un ricercatore informatico non essere lusingato da testi che mettono al centro della realtà quella che è fondamentalmente una forma di computazione algoritmica, e questi pensatori tendono a essere sicuri di sé e brillanti e, di tanto in tanto, an-
che ad avere qualche buona idea innovativa. Ciononostante, penso che i totalitaristi darwiniani cibernetici siano spesso incompetenti per quanto riguarda il discorso pubblico e possano essere in parte colpevoli (per quanto involontariamente)
di incitare una ripresa della reazione fonda-
mentalista religiosa contro la biologia razionale. Le loro uscite darwiniane sembrano a volte pensate non solo per provocare, ma anche per alienarsi le persone che non condividono i loro punti di vista. Le dichiarazioni dei più nerd tra gli psicologi evolutivi possono essere particolarmente irritanti. Un esempio è il recente libro di Randy Thornhill e Craig T. Palmer intitolato The Natural History of Rape, in cui si dichiara che lo stupro è un modo «naturale» per diffondere i geni. Abbiamo visto ogni sorta di affermazioni legate a Darwin dotate di una leggera impiallacciatura di razionalità. Di fatto si possono sostenere quasi tutte le posizioni, utilizzando una strategia darwiniana. Per esempio, Thornhill e Palmer affermano che chi non è d’accordo con loro è vittima della programmazione evolutiva che ha creato il bisogno di credere nella falsa presenza dell’altruismo nella natura umana. Gli autori dicono che è apparentemente altruista non credere nella psicologia evolutiva, perché questo scetticismo permette di sbandierare la propria fede nell'amore universale. Le dimostrazioni di altruismo sono considerate attraenti, per cui aumentano le possibilità di un individuo di attrarre compagni con cui accoppiarsi. In base a questa logica, gli psicologi evolutivi dovrebbero ben presto autoescludersi dal
ciclo riproduttivo. A meno che non si diano allo stupro. 223
In ogni caso, l’idea dell’evoluzione di Darwin era di un or-
dine differente rispetto alle teorie scientifiche precedenti per almeno due ragioni. La più ovvia ed esplosiva era il fatto che il suo oggetto fosse tanto prossimo. Per la mente del XIX secolo era scioccante pensare agli animali come a consanguinei, e lo è ancora oggi. Il secondo motivo è preso meno spesso in considerazione. Darwin creò uno stile di riduzione basato su principi emergenti anziché su leggi sottese. Non esiste alcuna «forza» evolutiva analoga, per esempio, all’elettromagnetismo. L'evoluzione è un principio che può essere percepito come emergente dagli eventi, ma non può essere descritto precisamente come una forza che li dirige. Si tratta di una distinzione sottile. Tutti i fotoni hanno la stessa storia, ma quella di ogni
animale e di ogni pianta è diversa. (Naturalmente vi sono magnifici esempi di affermazioni precise e quantitative nella teoria darwiniana e nei relativi esperimenti, ma queste non si danno mai in prossimità del livello dell'esperienza umana, che riguarda interi organismi che hanno comportamenti complessi nei propri ambienti.) «Storia» è la parola operativa. Il pensiero evoluzionista è sempre stato applicato a situazioni specifiche attraverso le storie. Una storia, a differenza di una teoria, invita all'’ornamento e alla variazione; di fatto le storie acqui
siscono il loro potere comunicativo tramite la risonanza con storie più primigenie. È possibile imparare la fisica senza inventare un racconto mentale che dia significato a fotoni e buchi neri. Ma sembra impossibile imparare l’evoluzione darwiniana senza sviluppare anche un racconto interno per metterla in relazione ad altre storie che si conoscono. Quantomeno nessun pensatore che abbia pubblicato su questo argomento sembra avere affrontato Darwin senza costruire un collegamento verso sistemi di valore personali. Ma, al di là della componente soggettiva, resta il problema di capire se Darwin abbia spiegato abbastanza. Non è possibile che rimanga ancora da articolare un’idea che spieghi alcuni aspetti dei conseguimenti e della creatività che Darwin non spiega? Per esempio, la spiegazione darwiniana è sufficiente a comprendere il processo del pensiero razionale? Vi è una pletora di teorie recenti secondo cui il cervello produce distribu-
224
zioni casuali di idee subconsce che competono tra loro finché non sopravvive solo la migliore, ma queste teorie spiegano veramente ciò che fanno le persone? In natura l'evoluzione sembra eccellente nell’ottimizzazione ma pessima nell’elaborazione di strategie. (L'immagine matematica che esprime questa idea è che l'evoluzione «cieca» ha enormi problemi a svincolarsi dai minima locali in un panorama di energia.) La domanda classica sarebbe: come ha potuto l’evoluzione creare piedi, artigli, pinne e zampe tanto meravigliose e lasciarsi sfuggire la ruota? Vi sono moltissimi ambienti in cui le creature che vi abitano avrebbero tratto vantaggio dalle ruote, ma allora perché non sono comparse? Nemmeno una volta? (Un ottimo progetto a lungo termine per studenti ribelli: progettare geneticamente un animale dotato di ruote! Vedere se si può portare il DNA a farlo.)
L'uomo ha escogitato la ruota e diverse altre utili invenzioni che sembrano essere sfuggite all’evoluzione. È possibile che la spiegazione sia semplicemente che le mani avevano accesso a una serie di invenzioni diverse rispetto al DNA, per quanto entrambi fossero guidati da processi simili. Ma mi sembra prematuro considerarla una certezza. Non è possibile che nel pensiero razionale il cervello faccia una qualche cosa ancora da spiegare che potrebbe avere avuto origine in un processo darwiniano ma che non possa essere spiegata tramite esso? Le prime due o tre generazioni di ricercatori IA diedero per scontato che l’evoluzione cieca in sé non potesse spiegare tutto e che vi fossero alcuni elementi che distinguevano l’attività mentale umana da altri processi. Per esempio, molti ritenevano che gli umani costruissero nelle proprie menti rappresentazioni astratte del mondo, anche se il processo evolutivo non aveva bisogno di farlo. Inoltre, queste rappresentazioni sembravano possedere qualità straordinarie come il terrificante e sempre elusivo «senso comune». Dopo decenni di tentativi falliti di costruire astrazioni simili nei computer, il campo dell’IA si arrese, ma senza mai ammetterlo. La resa venne fatta passare per una serie di ritirate tattiche. Oggi l’IA è spes-
so pensata più come una tecnica artigianale che come un ramo della scienza o dell’ingegneria. Molti suoi praticanti con 225
cui ho parlato ultimamente sperano di vedere evolversi un software che faccia varie cose, ma sembrano essere affondati
in una mancanza di interesse tra il postmoderno e il cinico per la comprensione di come questi aggeggi dovrebbero di fatto funzionare. È importante ricordare che le culture basate sulla tecnica artigianale possono esprimere molte tecnologie utili e che la motivazione dei nostri predecessori per abbracciare l’Illuminismo e l’ascesa della ragione non fu solo quella di creare più tecnologie in minor tempo. Vi era anche l’idea dell’umanesimo e una fede nella bontà del pensiero e della comprensione razionale. Siamo davvero pronti ad abbandonare tutto questo? Vi è infine un’annotazione empirica da fare: è stato ormai fatto a livello mondiale un lavoro ultradecennale sugli approcci darwiniani alla generazione di software, e per quanto vi siano stati risultati isolati affascinanti e considerevoli (e di fatto
anche io ho partecipato con piacere a queste ricerche), da questo lavoro non è uscito nulla che renda migliore il software in termini generali. Così, per quanto io ami Darwin, non conterei su di lui per la scrittura dei codici informatici. Credenza n. 5. Gli aspetti qualitativi (oltre a quelli quantitativi) dei sistemi informativi saranno accelerati dalla legge di Moore. L’aspetto hardware dei computer continua a diventare più avanzato e veloce con un tasso di crescita esponenziale noto come legge di Moore: ogni anno e mezzo circa la computazione diviene più o meno il doppio più veloce a parità di costo. Le implicazioni di questa legge sono tanto profonde che a prima vista inducono come un senso di vertigine. Cosa sarebbe in grado di fare un computer un milione di volte più veloce di quello su cui sto scrivendo questo testo? Un computer di questo genere sarebbe davvero incapace di fare qualsiasi cosa faccia un cervello umano? La quantità di «un milione» non è solo troppo grande per essere colta intuitivamente, non è nemmeno ac-
cessibile in via sperimentale per gli scopi attuali, per cui la speculazione non è irrazionale. La cosa stupefacente è scoprire che molti di noi potranno ricevere la risposta a queste domande nel corso delle loro vite, perché questi computer po-
226
trebbero essere, nel giro di una trentina d’anni, prodotti di consumo economici e funzionali. Questo panorama mozzafiato deve essere messo brutalmente a confronto con la «grande vergogna» dell’informatica, ovvero il fatto che non sembriamo essere in grado di scrivere software migliore a mano a mano che i computer diventano più veloci. Il software continua a essere una delusione. Negli anni Settanta odiavo a morte Unix, quel demoniaco accumulatore di dati-spazzatura, oscuratore di funzioni e nemico di ogni utente. Se qualcuno mi avesse detto che tornare a un sistema di una primitività imbarazzante come Unix sarebbe stata la grande speranza e l’ossessione finanziaria dell’anno 2000, soltanto perché il suo nome sarebbe stato cambiato in Linux e il suo codice sarebbe stato nuovamente aperto, non avrei mai avuto lo stomaco né il cuore di continuare a occuparmi di informatica. Se non altro, possiamo dire che nel software è osservabile una legge di Moore al contrario: via via che i processori diventano più veloci e la memoria più economica, il software diventa proporzionalmente più lento e macchinoso e tende a sfruttare tutte le risorse a disposizione. Ora, so benissimo che dicendo questo non sono del tutto onesto. Oggi abbiamo software di riconoscimento vocale e di traduzione linguistica migliori rispetto al passato, per esempio, e stiamo imparando a gestire database e reti più ampie. Ma le nostre tecniche e tecnologie software di base non hanno decisamente tenuto il passo con l’hardware. (Nel momento esatto in cui una nuova raz-
za di robot superintelligenti starà per impadronirsi del mondo, il buon vecchio genere umano sarà probabilmente salvato da un crash di Windows. I poveri robot se ne staranno lì immobili e patetici a implorarci di riavviarli, pur sapendo che la cosa comunque non risolverebbe nulla.) Vi sono diversi motivi per cui il software tende a essere impacciato, ma uno dei principali è quello che mi piace definire «friabilità». Il software tende a spezzarsi piuttosto che a piegar-
si, e quindi pretende la perfezione in un universo che preferisce la statistica. Questo porta a sua volta alla grande maledi-
227
zione delle eredità, dei vincoli interni e di altre perversioni. La distanza tra i computer ideali che noi immaginiamo nei nostri esperimenti intellettuali e i computer reali che sappiamo sguinzagliare per il mondo non potrebbe essere più scoraggiante. È la riduzione a feticcio della legge di Moore a spingere il ricercatore all’autocompiacimento. Se hai dalla tua parte una forza esponenziale, non ci sono dubbi sul fatto che ogni sfida
verrà vinta. Chi se ne frega della comprensione razionale quando puoi affidarti a un feticcio esponenziale extra-umano? Ma la potenza di elaborazione non è la sola cosa a crescere in misura esponenziale: lo fanno anche i problemi che i processori devono risolvere. Ecco un esempio che offro ai non-tecnici per illustrare questo punto. Dieci anni fa avevo un computer portatile con un programma di indicizzazione che mi permetteva di cercare 1 file in base al loro contenuto.
Per reagire abbastanza velocemente,
quando lanciavo una ricerca, passava prima in rassegna tutti i miei file e li indicizzava, come fanno oggi con Internet i motori
di ricerca tipo Google. Il processo di indicizzazione impiegava circa un’ora. Oggi ho un computer portatile moito più capiente e veloce in ogni suo aspetto, come prevede la legge di Moore. Però il processo di indicizzazione dura una notte intera. Vi sono molti altri esempi di computer che sembrano diventare più lenti nonostante i processori centrali diventino più veloci. Per esempio le interfacce utente dei computer tendono a reagire più lentamente a eventi come la pressione di un tasto rispetto a quindici anni fa. Che cosa è andato per il verso sbagliato? La risposta è complessa. Una parte della risposta è fondamentale. Si dà il caso che quando i programmi e i gruppi di dati diventano più grandi (e la crescita delle capacità di memorizzazione e di trasmissione è guidata dagli stessi processi che guidano l'accelerazione esponenziale di Moore), i costi generali computazionali interni tendono a crescere a un tasso meno che lineare. Questo avviene a causa di alcuni fastidiosi incidenti che riguardano gli algoritmi. Se rendiamo un problema il doppio più grande, abbiamo solitamente bisogno di più del doppio del tempo per risolverlo. Alcuni algoritmi in questo senso sono peggiori di al-
228
tri e uno degli elementi di una buona formazione universitaria in informatica consiste nell’impararli. Molti problemi hanno costi generali che crescono in modo ancora più pronunciato della legge di Moore. Sono sorprendentemente pochi gli algoritmi essenziali le cui informazioni addizionali crescono con un tasso puramente lineare. Ma questo è solo l’inizio della storia. È vero anche che se parti diverse di un sistema crescono a velocità diverse (come generalmente avviene), una parte potrebbe essere sopraffatta dall'altra. Nel caso del mio programma di indicizzazione, le dimensioni dei dischi fissi sono in effetti cresciute più rapidamente rispetto alla velocità delle loro interfacce. I costi generali possono essere amplificati da questi esempi di scaling «incasinato» in cui una parte di un sistema non riesce a tenere il passo di un’altra. A quel punto si ha un collo di bottiglia simile a un ingorgo in una rete stradale progettata male. I risultati non sono migliori di una mattinata di pendolarismo lungo una strada inadeguata, e sono altrettanto difficili e costosi da pianificare e prevenire. (Un viaggio per le strade di Manhattan era più veloce cent'anni fa rispetto a oggi: i cavalli sono più veloci delle automobili.)
E ora arriviamo al nostro vecchio antagonista, la friabilità. Più un software informatico diventa grande, più è probabile che sia dominato da qualche forma di codice ereditario e più alto diviene il costo generale di affrontare gli interminabili esempi di sottile incompatibilità che inevitabilmente insorgono tra pezzi di software creati in origine in contesti differenti. E anche al di là di questi effetti, vi sono difetti del carattere
umano che peggiorano lo stato del software, e molti di questi sono sistemici e potrebbero insorgere anche se a scrivere il codice fossero agenti non-umani. Per esempio pianificare in anticipo in modo da rendere più semplice il lavoro dei programmatori futuri è dispendioso in termini di tempo e di denaro, per cui ciascun programmatore tende a scegliere strategie che
peggiorano gli effetti della friabilità. I tempi forzati a cui sono soggetti i programmatori sono dettati anch'essi dalla legge di Moore, che motiva un ricambio sempre più veloce di revisioni del software per trarre almeno qualche vantaggio dalla cre-
229
scente velocità dei processori. Così il risultato è spesso un software che diventa per molti versi meno efficiente via via che i processori diventano più veloci. Io non vedo alcun segno del fatto che la progressione della legge di Moore sia sufficiente in sé a superare tutti questi problemi in assenza di ulteriori scoperte intellettuali, che al mo-
mento non sono previste. Un elemento fondamentale della questione che sto esami nando è il seguente: il software tende a essere impacciato solo a causa dell’errore umano o si tratta di una difficoltà intrinseca alla sua stessa natura? Se gli scenari escatologici descritti da Kurzweil, Drexler, Moravec eccetera hanno una qualche credibilità, allora questa è la domanda più importante per il futuro dell’umanità. Esiste quantomeno un supporto metaforico alla possibilità che la goffaggine del software sia intrinseca. Per esaminare questa possibilità, dovrò infrangere le mie stesse regole e comportarmi per un po’ come un totalitarista cibernetico. La natura potrebbe sembrare meno friabile del software digitale, ma se si pensa alle specie come a «programmi», si può affermare che anche la natura abbia un problema a livello di software. La stessa evoluzione ha compiuto enormi passi avanti (introducendo il sesso, per esempio), ma non ha mai trovato un modo per procedere a una velocità che non fosse lentissima. Ciò potrebbe essere dovuto, quantomeno in parte, al fatto che ci vuole molto tempo per esplorare lo spazio delle variazioni possibili in un sistema casuale eccezionalmente vasto e complesso, alla ricerca di nuove configurazioni realizzabili. La lentezza dell’evoluzione naturale come mezzo di trasformazione è apparentemente sistemica e non dipende da una qualche pigrizia intrinseca delle sue componenti. Al contrario l'adattamento, in determinate cir-
costanze, è in grado di raggiungere velocità mozzafiato. Un esempio di mutazione veloce è l'adattamento dei germi ai nostri tentativi di annientarli. La resistenza agli antibiotici è un ben noto esempio contemporaneo di velocità biologica. Sia il software creato dall'uomo sia la selezione naturale sembrano accumulare gerarchie di livelli con potenziali diversi in termini di velocità di cambiamento. I livelli lenti proteg-
230
gono teatri locali entro i quali vi è un potenziale di cambiamento veloce. Nei computer si tratta della separazione tra sistemi operativi e applicazioni o tra browser e pagine Web. In biologia lo si può vedere per esempio nella demarcazione, all’interno della mente
umana,
tra dinamiche
dominate
dalla
natura e dinamiche dominate dall’allevamento. Ma i livelli più lenti sembrano solitamente definire il carattere e il potenziale generale di un sistema. Secondo alcuni miei colleghi, tutto ciò che si deve fare è identificare in un sistema cibernetico un unico livello che sia in grado di cambiare velocemente e poi aspettare che la legge di Moore eserciti la propria azione magica. Per esempio, anche se siamo ancora incatenati a Linux, potremmo implementarvi un programma di rete neurale che alla fine diventi abbastanza grande e veloce (grazie alla legge di Moore) da rag-
giungere un momento di illuminazione e riscrivere il proprio sistema operativo. Il problema è che in qualsiasi esempio conosciuto un livello che può cambiare velocemente non può anche cambiare molto. I germi si possono adattare velocemente ai nuovi farmaci, ma impiegherebbero comunque molto tempo a evolvere in gufi. Potrebbe trattarsi di un trade-off intrinseco. Per fare un esempio appartenente al mondo digitale, possiamo scrivere un applet Java abbastanza velocemente, ma non sarà troppo diverso da altri applet scritti velocemente: provate a dare un’occhiata a quello che viene fatto con questi applet e vedrete se non è vero. E ora siamo finalmente arrivati alla... Credenza n. 6. La venuta del cataclisma cibernetico. Quando una persona assennata contempla la legge di Moore, può avere una reazione di timore reverenziale o di terrore. Una versione di questo terrore è stata espressa recentemente da Bill Joy in un articolo di copertina per Wired. Bill accetta i pronunciamenti di Ray Kurzweil e degli altri che ritengono che la legge di Moore porterà ad avere macchine autonome, forse già nel 2020. Sarà in quella data che i computer diventeranno, secondo alcune stime, potenti quanto cervelli umani. (Non che per il momento qualcuno ne sappia abbastanza da confrontare
231
le prestazioni di un cervello con quelle di un computer. Ma per amore di discussione supponiamo che questo confronto sia significativo.) Secondo questo scenario del Terrore, i com-
puter non saranno confinati dentro scatole. Saranno più simili a robot, tutti connessi tra loro in Internet, e avranno un bel
po’ di assi nella manica. Un esempio? Saranno in grado di attuare la nanoproduzione. Impareranno velocemente a riprodursi e a migliorarsi. E un bel giorno, senza alcun preavviso, le nuove supermacchine metteranno da parte l’umanità con la stessa noncuranza con cui gli umani spazzano via un boschetto per costruire un nuovo quartiere. O forse le macchine si terranno tra i piedi gli umani per imporre loro il tipo di vessazioni ritratte nel film Matrix. Anche se le macchine dovessero scegliere di mantenere in vita i loro progenitori umani, gli umani malvagi sarebbero in grado di manipolare le macchine per fare del male al resto della popolazione. Si tratta di un altro scenario, anch’esso esplorato da Bill. La biotecnologia sarà progredita al punto che i programmi informatici sapranno manipolare il DNA come se fosse Javascript. Se i computer possono calcolare gli effetti di farmaci, modificazioni genetiche e altri trucchetti bio-
logici, e se gli strumenti per realizzare questi trucchi sono poco costosi, allora basta un folle per creare per esempio un’epidemia che colpisca una sola razza. La biotecnologia senza una componente forte ed economica di tecnologia dell’informazione non sarebbe abbastanza potente per realizzare questo scenario. È piuttosto l’abilità del software in esecuzione su computer favolosamente veloci a modellizzare e guidare per pochi soldi la manipolazione della biologia che sta alla base di questa variante del Terrore. In questo breve resoconto non sono stato certamente in grado di spiegare perfettamente le tematiche affrontate da Bill, ma ve ne sarete fatti un’idea.
La mia versione del Terrore è diversa. Possiamo già vedere come l’industria biotecnologica si stia preparando ad affrontare decenni di costosi problemi di software. Sebbene le aziende e i laboratori biotech stiano sviluppando ogni sorta di utili database e pacchetti di modellizzazione, tutta questa ricerca
232
avviene dentro bolle di sviluppo isolate. Ognuno di questi strumenti si aspetta che il mondo si conformi ai suoi requisiti. Dato che questi strumenti sono tanto preziosi, il mondo farà proprio così, ma dovremmo aspettarci di vedere ingenti risorse dedicate al problema di spostare i dati da una bolla all’altra. Non esiste un gigantesco cervello elettronico monolitico che viene creato con le conoscenze della biologia. Vi è piuttosto un crogiolo frammentario di dati e feudi di modellizzazione. Il supporto per il trasferimento dei dati biologici continuerà a essere costituito da ricercatori umani che dormono troppo poco fino a un qualche immaginario futuro in cui sapremo come creare software che sappiano collegare da soli le bolle. Che cosa pensare di uno scenario futuro in cui l'hardware continua a diventare migliore e il software resta mediocre? Il grande pregio del software scadente è la quantità di occupazione che genera. Se la legge di Moore continuerà a funzionare per altri venti o trent'anni, non solo vi sarà una grande quantità di computazione in corso sul pianeta Terra, ma la manutenzione di questa computazione esaurirà gli sforzi di quasi tutti gli esseri umani. Stiamo parlando di un intero pianeta di help desk. Ho sostenuto altrove che questo futuro sarebbe una cosa fantastica perché realizzerebbe con mezzi capitalisti il sogno socialista dell’occupazione per tutti. Ma consideriamone il lato oscuro. Tra i molti processi che i sistemi informativi rendono più efficienti vi è quello del capitalismo stesso. Un ambiente economico quasi privo d’attrito consente di accumulare fortune in pochi mesi anziché in qualche decennio, ma i singoli che le accumulano vivono almeno quanto le loro controparti del passato. Così le persone brave a diventare ricche, rispetto ai loro predecessori altrettanto dotati, hanno una possibilità di diventarlo ancora di più prima di morire. In questo vi sono due pericoli. Quello minore e più immediato è il fatto che i giovani acclimatati a un ambiente economico freneticamente ricettivo potrebbero essere feriti sul piano emotivo da quelli che il resto di noi considererebbe brevi ritorni alla normalità. Il pericolo
maggiore è che lo iato tra i più ricchi e gli altri potrebbe assumere dimensioni trascendenti. In altre parole, anche se è vero
che l’alta marea solleva tutte le navi, nel caso in cui quelle già 233
»
più alte si sollevino più velocemente delle altre, la loro distanza aumenterà ancor di più. E di fatto negli Stati Uniti le concentrazioni di ricchezza e di povertà sono aumentate durante gli anni del boom di Internet. Se è la legge di Moore (o qualcosa del genere) a guidare il gioco, la scala di questa separazione potrebbe diventare sconvolgente. È qui che si situa il mio Terrore, nel considerare il risultato finale del crescente di-
vario tra gli ultraricchi e il resto del mondo. Con le tecnologie che esistono oggi, i ricchi e i non-ricchi non sono poi tanto diversi: entrambi sanguinano quando si feriscono, per dirne una. Ma con le tecnologie dei prossimi venti o trent'anni potrebbero diventare davvero differenti. A metà del nuovo secolo gli ultraricchi e il resto del mondo saranno ancora riconoscibili come membri della stessa specie? Le possibilità che si creino due specie sostanzialmente diverse sono tanto evidenti e tanto terrificanti che esplicitarle sembra quasi banale. I ricchi, grazie alla genetica, potrebbero fare sì che i loro figli siano più intelligenti, più belli e più felici. Forse li si potrà addirittura dotare geneticamente di una maggiore predisposizione all’empatia, ma solo nei confronti di altre persone che rispondano a una gamma selettiva di criteri. Mi vergogno un po’ anche solo a scrivere queste cose, come se fossi un autore di fantascienza da quattro soldi, eppure la logica di questa possibilità è stringente. Esploriamo un'unica possibilità, per amore di discussione. Un giorno i ricchi potrebbero diventare pressoché immortali, trasformandosi per il resto del mondo in una sorta di dèi virtuali. (Un’apparente assenza di invecchiamento sia in culture cellulari sia in veri e propri organismi è già stata dimostrata in laboratorio.) Non voglio concentrarmi qui sulle questioni fondamentali della semi-immortalità, ovvero se sia morale (o anche solo desiderabile), oppure dove si andrebbe a cercare lo
spazio se gli immortali insistessero a continuare ad avere dei figli. Focalizziamo piuttosto l’attenzione su un’altra domanda:
l'immortalità sarà costosa? A mio parere l'immortalità sarà poco costosa se le tecnolo-
gie dell’informazione miglioreranno radicalmente e proibitiva se il software resterà inetto quale è oggi.
234
Sospetto che la dicotomia hardware/software si ripresenterà nella biotecnologia e di fatto anche nelle altre tecnologie del XXI secolo. Possiamo pensare alla biotecnologia come a un tentativo di trasformare la carne in un computer,
nel senso che
questa disciplina mira a gestire i processi biologici in modo sempre più dettagliato, giungendo a un certo punto nel futuro al controllo perfetto. Allo stesso modo la nanotecnologia mira a fare la medesima cosa per la scienza dei materiali. Se il corpo e il mondo dei materiali in senso lato diverranno più manipolabili, più simili alla memoria di un computer, allora il fattore limitan-
te sarà la qualità del software che governa la manipolazione. Benché sia possibile programmare un computer per fare virtualmente qualsiasi cosa, sappiamo tutti che questa non è in realtà una descrizione sufficiente dei computer. Come ho sostenuto più sopra, fare in modo che i computer svolgano processi specifici di complessità significativa in modo affidabile ma modificabile, senza che si blocchino e senza problemi di sicurezza, è sostanzialmente impossibile. Possiamo solo avvici-
narci a questo obiettivo, e solo sostenendo costi enormi. Allo stesso modo si potrebbe ipotizzare di programmare il DNA per portare virtualmente qualsiasi modifica a un essere vivente, ma progettare una modifica specifica e avere su di essa un controllo generalizzato resterà con ogni probabilità un’impresa immensamente difficile. (E, come ho sostenuto più sopra, questa potrebbe essere la ragione per cui l'evoluzione biologica non ha mai trovato un modo per accelerare i propri processi.) Un altro esempio: si potrebbe ipoteticamente usare la nanotecnologia per ottimizzare quasi tutto ciò che riusciamo a pensare, ma con ogni probabilità si scoprirà che utilizzarla per fare qualsiasi cosa di una certa complessità senza fastidiosi effetti collaterali sarà molto più difficile di quanto immaginiamo. Gli scenari che prevedono che la biotecnologia e la nanotecnologia saranno in grado di creare cose nuove e sbalorditive in modo veloce ed economico devono presupporre che i computer diverranno virtuosi dell’ingegneria, semiautonomi e supe-
rintelligenti. Ma, se l’ultimo mezzo secolo di progressi in ambito software può servire da indicatore per i prossimi cinquant’anni, icomputer non faranno nulla del genere.
235
In altre parole, la pessima qualità del software farà sì che in futuro exploit biologici come la semi-immortalità non saranno affatto a buon mercato. Anche se tutto il resto dovesse diventare più economico, la componente informatica dell’impresa diventerà più costosa. Una semi-immortalità a buon mercato per tutti è una proposizione autolimitante. Non c’è abbastanza spazio per un’avventura del genere. E poi, in termini generali, se l’immortalità diventasse economica lo diventerebbero anche le terribili armi biologiche dello scenario di Bill Joy. D’altra parte una semi-immortalità come bene di lusso è una cosa che il mondo potrebbe assorbire, quantomeno per un bel po’ di tempo, perché ci sarebbero meno persone coinvolte. Forse riuscirebbero anche a tenere nascosta la cosa. Ecco quindi l’ironia di tutto ciò. Gli stessi difetti dei computer che oggi ci fanno schiumare di rabbia e danno da mangiare a eserciti di programmatori e addetti agli help desk sono anche la migliore assicurazione che la nostra specie abbia per una sopravvivenza a lungo termine a mano a mano che esploriamo le più remote possibilità tecnologiche. Ma queste fastidiose caratteristiche sono ciò che potrebbe trasformare il XXI secolo in un incubo sceneggiato dalle fantasie e dalle disperate aspirazioni dei super-ricchi. Su una cosa sono d’accordo con i miei colleghi totalitaristi cibernetici: nel prossimo futuro vi sarà un grande e improvviso cambiamento innescato dalla tecnologia. La differenza è che io credo che qualsiasi cosa accada sarà responsabilità di singole persone che fanno cose specifiche. Penso che trattare la tecnologia come se fosse autonoma sia la profezia autoavverante per antonomasia. Non vi è differenza tra l'autonomia delle macchine e l’abdicazione della responsabilità umana. Consideriamo per esempio lo scenario «i nanobot si impa-
droniscono del mondo». A mio parere gli scenari più probabili possono comprendere: a) Supernanobot ovunque che eseguono software vecchio, per esempio Linux. Potrebbe essere interessante. In ogni caso
ci sarebbero a disposizione degli ottimi videogiochi. 236
b) Supernanobot che nobot naturali (per cui tremo aspettarci grandi c) Supernanobot che dipendono dagli umani.
si evolvono alla stessa velocità di naper qualche milione di anni non pocambiamenti). iniziano presto a fare cose nuove ma In questi casi gli umani manterranno
il controllo, nel bene e nel male.
To quindi mi preoccuperei più del futuro della cultura umana che di questi gadget. E la cosa che mi preoccupa nel temperamento da Giovani turchi che riscontro nei totalitaristi cibernetici è che sembrano non essere stati istruiti nella tradizione dello scetticismo scientifico. Capisco perché sono intossicati. Vi è effettivamente una logica semplice e stringente dietro il loro pensiero, e l'eleganza intellettuale è infettiva.
Vi è una reale possibilità che la psicologia evolutiva, l’intelligenza artificiale, la trasformazione in feticcio della legge di
Moore e il resto del pacchetto facciano presa alla grande, come è successo a Freud e a Marx ai loro tempi. O forse ancora di più, perché queste idee potrebbero finire per essere sostanzialmente integrate nel software che gestisce la nostra società e le nostre vite. Se questo dovesse accadere, l’ideologia dei totalitaristi cibernetici si trasformerà da una sorta di curiosità intellettuale a una forza che potrebbe causare la sofferenza di milioni di persone. i Il più grande crimine nel marxismo non fu semplicemente il fatto che buona parte di quanto affermava era falso, quanto piuttosto che sostenesse di essere la sola e unica vera strada per la comprensione della vita e della realtà. L'escatologia cibernetica condivide una dottrina di predestinazione storica con alcune delle peggiori ideologie della storia. Non vi è nulla di più grigio, istupidente e spaventoso di una vita vissuta dentro i confini di una teoria. Speriamo che i totalitaristi cibernetici imparino a coltivare il dubbio prima che arrivi il loro grande momento.
237
.;
de:
motp epori
iarpa tta ddquia spino cadenari
FS
meresol bestia
art sano: er bart
|Srmaolionio rie, ; elearg, caini: ‘ad idonee
E
| Qiotmamntog0a isumanily (88) nesup 3 inest iigab onobrrsilà a br sv dora da anna oloni
i H «Lina scmistrmnortalità
en 'aveere
per
spazio
c'è abhastanen
Non
tante.
nh
‘sir css
ina Laessiagi I cdi | IRE Gb: rar dii 11009), be dg iman nappa; ita ùDEI]
bind
Nr. I
danara
DAFT
ren [SP
i HIS DI
ta n
ceneri nl goa s-«RÀ ly
i DACI »iaia
LEI
ey dra indi UU sh) io
dpi lee stone
Sa i) dasPea od
figa. 05 riga
iben di loi SIR pe irià muori
fe
dedi aggio si FATECI piiste MOR — PURA Scriag DIA ELI pe GRASIDR/31 sabatiFra fait pre area di omo osianac s spl! to itogni eum 43) siagals:rt Mi. ce DI Setti | st st per
4
{olenitiezo GN Ertecenai A O a ALII La DIEBEBAGRALIORErercd.ti
- Hanna, blipiab pieni
;
TE SRIIOtA ieRISALTO ddaPRTTZRE, B:2 DS
a RA REA sat n°
sncunpon te
Biol GIR ati
pn a d
ii osranhé
ia aa
ovrdaag
_ puo: tette sdbic} po
Dia
firtianoa Sisgr e muA Fa
SISTER rà sinto ali se; DlTA Pad6f1 :
ci AA «hlK i
Ma die:
Dé mbe Mak
- vite apan riò ol ade LOR ereRL Hi at sE SA IRE -
i
Sii
AIA
ta
»%
au»Dia noie
ra
LUYTIO
moà