538 120 6MB
Italian Pages 269 [260] Year 2011
Piccola Biblioteca Einaudi Scienze sociali
Una grande rivoluzione sta trasformando i rapporti umani. La vita polltl01, commerciale e culturale abbandona le strutture gerarchiche e centrallZZI• te dell'età industriale per entrare in una dimensione totalmente nuova1 Il comunicazione e l'economia dell'era digitale. Questo libro racconta la sorprendente storia della nascita e dello sviluppo di Internet dagli anni Cinquanta a oggi, esaminando come sia cambiato 11 rapporto di potere tra individuo e stato negli ambiti della censura, del dlrlt· to d'autore, della libertà intellettuale cosi come del terrorismo e della strategia militare. Johnny Ryan spiega in che modo Internet abbia rivoluzionato le campagne politiche; come lo sviluppo del world wide web stia affrancando un'intera popolazione di consumatori online; e come il crollo delle dot-com abbia insegnato alle aziende piu smaliziate a investire sulle potenzialità degli «artigiani» del digitale. Negli anni a venire, il successo o il fallimento di piattaforme come iPhone e Android dipenderà dalla loro capacità di muoversi tra controllo proprietario e innovazione open source. Le tendenze del passato lasciano ben sperare per l'industria musicale e dell'informazione. Dai sistemi a controllo governativo dell'epoca della guerra fredda all'odierno cloud computing, dall'idea di contenuto generato dall'utente a un nuovo sistema di condivisione globale, questo libro, una storia sociologica della rete ricca di implicazioni filosofiche e giuridiche, svela le tendenze che stanno rimodellando le sfere degli affari, della politica e dei media. Sommario: Prefazione. - Fase I. La rete distribuita e le idee centrifughe: 1. Un'idea nata all'ombra delle armi nucleari. 11. !.:esperimento militare. 111. !.:essenza di Internet. 1v. I computer diventano economici, veloci e diffusi. - Fase Il. L'.espansione: v. Una connessione alla portata di tutti. v1. Comunità virtuali unite da interessi comuni anziché da vicinanza geografica. v11. Dalle reti militari all'Internet globale. v111. Il web! 1x. Una piattaforma per il commercio e i trabocchetti del dot-com. - Fase lii. L'.ambiente emergente: x.11 web 2.0 e il ritorno alla tradizione orale. x1. Nuovi pubblici, la quarta parete e i nuovi media. x11. Politiche bidirezionali. x111. Promesse e pericoli. - Glossario. - Bibliografia. - Indice analitico.
Johnny Ryan è Senior Researcher presso l'lnstitute of lnternational and European Affairs di Dublino, dove dirige un programma di ricerca sul Futuro Digitale. In copertina: foto John Rensten / Gettylmages. ISBN 978-88-06-20948-3
I
111111
9 788806 209483
€ 23,00
Indice
p. rx x1
Prefazione Ringraziamenti
Storia di Internet e il futuro digitale FASE I
La rete distribuita e le idee centrifughe I.
Un'idea nata all'ombra delle armi nucleari Comunicazioni a prova di attacco nucleare L'incubatore dell'innovazione: la RAND
8 I2
II.
L'esperimento militare L'Agenzia per i progetti di ricerca avanzata studia i collegamenti di reti
22
III.
L'essenza di Internet Reti per via radio e satellitare L'idea centrifuga la vince su quella centripeta (TCP e x.25 a confronto)
33 41
IV.
I computer diventano economici, veloci e diffusi I computer diventano accessibili e facili da usare Spacewar! e Sketchpad Un computer alla portata di tutti
49
54 57
FASE II
L'espansione V. 72
Una connessione alla portata di tutti La rete telefonica diventa aperta e le reti si diffondono tra la gente comune ... Le reti private nell'era dei jet e la tendenza centrifuga nelle aziende
VI.
p.
Comunità virtuali unite da interessi comuni anziché da vicinanza geografica Il superamento dei limiti geografici Realtà virtuale ma familiare Familiarità ma anche potenza
82
90
92 VII.
Dalle reti militari all'Internet globale L'amministrazione militare
99
Il passo successivo La fine dell'inizio Un'Internet globale
101
104
ro6 ro8
Le norme degli esperti VIII.
Il web! Una sistematizzazione della conoscenza La rivoluzione non suscita interesse La fine di un Gopher
118 1 20 123
Lo sviluppo open source: la rinascita degli hacker Crescita e ordine
124 129 IX.
Una piattaforma per il commercio e i trabocchetti del dot-com La bolla della tulipomania Molto è cambiato ma molto è rimasto uguale Fredrick Taylor e gli artigiani post- e pre-industrali
138 143 148
FASE III
L'ambiente emergente
x.
2.0
e il ritorno alla tradizione orale
San Girolamo e il beta test Norme per un'autonomia innovativa e partecipativa L'Internet del passaparola Collaborazione, uso dei socia! network e i socia! media
158
161 164
166 XI. 1 74
Il web
Nuovi pubblici, la quarta parete e i nuovi media
182
Una distribuzione dirompente Scelta e disponibilità, pubblici assertivi ed emersione di contenuti La diffusione globale dei nuovi media
185
Il giornale su misura e il Quarto potere
178
VII
INDICE XII.
p.
Politiche bidirezionali Un palco digitale improvvisato Le campagne elettorali « open source » «La gestione delle reti»: un nuovo modo di organizzare le faccende umane
191 1 93
200
XIII.
Promesse e pericoli
225
La globalizzazione, i grid e le piattaforme Il controllo in un mondo centrifugo L'eversione digitale, lo stato e la carta stampata iWar, la guerra digitale e i nuovi corsari
2 33
Glossario
208 212 218
Bibliografia 249
Indice analitico
Prefazione La grande trasformazione
Internet è frutto dell'era industriale, come lo sono numerosi lettori di questo libro. Molto prima dell'avvento delle comunicazioni digitali, grazie al motore a vapore, al telegrafo e alle miniere di carbone il mondo aveva subito un'accelerazione che con l'industrializzazione, il commercio, le comunicazioni e le guerre assunse un orientamento centripeto sempre piu vorticoso e crescente. Nel mondo industrializzato il controllo dell'autorità ebbe funzione di perno e i luoghi piu remoti del globo risentirono dell'influenza dei centri di potere. L'abbandono della terra e una massiccia urbanizzazione diedero origine a città di dimensioni mostruose nelle grandi nazioni mentre gli imperi marittimi inclusero vaste zone del globo nell'area di influenza delle capitali imperiali. La formazione dei lavoratori, la precisa misurazione del calibro di una canna di pistola, la catena di montaggio nell'industria automobilistica, tutto fu irreggimentato e standardizzato in conformità con direttive che venivano dal centro. La rivoluzione industriale creò un mondo accorpato organizzando una gerarchia il cui tratto distintivo era un unico punto centrale a cui facevano capo tutte le fila. Ma l'era digitale emergente è ben diversa. E in atto una grande trasformazione nella sfera della società umana. Sta cambiando il modello di vita a livello politico, commerciale e culturale. La caratteristica distintiva dell'era digitale emergente è l'assenza di un punto centrale. Al suo posto si sta sviluppando un reticolato di molti punti, ciascuno dei quali è connesso agli altri tramite il web e le reti di comunicazione. Questo libro racconta la fine del centro e lo ,sviluppo di una vita commerciale e politica in un sistema di reti. E anche la storia del futuro potere dell'individuo, l'internauta, come nuova unità vitale di partecipazione effettiva e creativa. Al centro di questo cambiamento c'è Internet, una tecnologia cosi insolita e incredibile che la sua esistenza sarebbe costante mo-
X
PREFAZIONE
tivo di stupore se non fosse un fatto acquisito della vita quotidiana. Nessun trattato o grande progetto ne ha guidato lo sviluppo dall'inizio alla fine. Né il suo successo è stato solo frutto di una fortunata coincidenza, ma è dovuto piuttosto all'etica singolare che emerse tra gli ingegneri e i primi appassionati di computer degli anni Sessanta e Settanta del Novecento e attraverso le iniziative di utenti autonomi e di comunità virtuali connesse in rete. La combinazione di questi elementi ha dato all'individuo il potere di sfidare anche lo stato, di mettersi in concorrenza con i mercati di tutto il mondo, di esigere e creare nuovi mezzi di comunicazione, di sovvertire una società - o di eleggere un presidente. Si è a un punto in cui il fenomeno Internet dura da un tempo sufficientemente lungo da poterlo sottoporre a un'indagine storica per studiarne le principali caratteristiche che avranno un impatto sull'economia, la politica e la società nei prossimi decenni. Come tutte le buone panoramiche storiche, questo libro offre una prospettiva illuminante sul futuro grazie alla conoscenza del passato. La prima sezione del volume (capitoli I-Iv) esamina le idee e il contesto che hanno informato Internet. La seconda sezione (capitoli V-Ix) descrive come la tecnologia e la cultura della rete siano maturate, liberando nel contempo, per la prima volta nella storia dell'uomo, le comunità dalla tirannia dei vincoli geografici. Questa sezione descrive anche la nascita del web, la follia dell'improvvisa popolarità delle imprese dot-com e il loro fallimento. La sezione finale (capitoli x-xm) illustra come le caratteristiche distintive di Internet stiano ora trasformando gli ambienti culturali, commerciali e politici. Tre aspetti si sono affermati durante la storia di Internet e diventeranno caratteristici dell'era digitale a cui dobbiamo tutti adattarci: Internet è una forza centrifuga, aperta, resa operativa dall'utente. Capire il significato di queste caratteristiche e di come siano emerse è cruciale per potersi adeguare al nuovo popolo globale, a un sistema politico e mediatico in continuo mutamento e a un futuro di creatività competitiva.
Ringraziamenti
Desidero ringraziare i colleghi dell'Institute of International & European Affairs (IIEA), in particolare il direttore della Ricerca, Jill Donoghue. Per trovare un'istituzione cosi caoticamente creativa al suo interno e rispettata occorre risalire ai primi tempi di RAND, ARPA e BBN. Molte delle idee presentate in questo libro sono state stimolate dall'input dei partecipanti al progetto Next Leap della IIEA del 2008. In particolare vorrei citare Jonathan Zittrain del Berkman Centre di Harvard poiché la sua presentazione alla IIEA ha suggerito alcune delle idee da cui è nato il volume. Desidero anche ringraziare la O'Reilly Scholarship Foundation la cui generosità mi ha consentito di tornare all'Università di Cambridge. Durante le mie ricerche per il libro hanno gentilmente risposto alle mie domande molte persone tra cui Vint Cerf, Robert Kahn, Leonard Kleinrock, Steve Cracker, Robert Cailliau, Bob Metcalfe, Dave Cracker, Heidi Heiden, Shih-Pau Yen (inventore di Gopher), Bill Thompson, Gregor Bailar, Ralph Lee Smith (autore di The Wired Nation nel 1970), Brian Pinkerton (innovatore dei motori di ricerca), Gordon Bell, Phil Madsen (artefice della campagna elettorale di J esse Ventura su Internet nel r 998), Thomas Bruce (creatore di Cello, il primo web browser per PC), Alan Emtage (inventore di Archie), Perry Pei Wei (creatore del primo browser Unix per il www), Andrew Weinreich (fondatore del primo socia! network, SixDegrees), Josh Tauberer (fondatore di GovTrack), Justin Williams (attivista contro la politica NDA dell' App Store), Netfrack (il primo pirata MP3), Steven M. Bellovin (uno dei fondatori di Usenet), Carlye Adler e Mare Benioff (fondatore di Salesforce). Molti, tra cui Peter Kirstein, Howard Rheingold, Micah Sifry e Nick Yee, mi hanno aiutato fornendo fonti di informazioni. I miei ringraziamenti vanno anche a Tim Wu, Bruce Hoffman, Andrew
XII
RINGRAZIAMENTI
Jarvis, Oisin Suttle, NikolaiJensen, Aidan Corbet e Chris Bollard per il loro contributo. Desidero ringraziare Martha J ay della Reaktion Books e infine esprimere la mia gratitudine in particolare a Michael Leaman, il fondatore della Reaktion, non per avermi proposto inizialmente di scrivere questo libro, ma per la pazienza dimostrata di fronte alla mia tendenza a superare il numero concordato di pagine.
STORIA DI INTERNET E IL FUTURO DIGITALE
Fase I La rete distribuita e le idee centrifughe
I.
Un'idea nata all'ombra delle armi nucleari
Il decennio del 1950Ju un periodo di alta tensione. Gli Stati Uniti e l'Unione Sovietica si preparavano a una guerra nucleare in cui le vittime sarebbero state non nell'ordine di milioni ma di centinaia di milioni. All'inizio del decennio i consiglieri strategici del presidente Truman raccomandarono di attuare un massiccio programma di riarmo degli Stati Uniti per far fronte alla minaccia comunista. La logica era semplice: Un piu rapido potenziamento delle forze politiche, economiche e militari è ... l'unico corso ... Per opporsi alle mire del Cremlino è necessario che il mondo libero sviluppi un sistema politico-economico ben funzionante e svolga una vigorosa offensiva politica contro l'Unione Sovietica. Questi fattori, a loro volta, richiedono un adeguato scudo militare al riparo del quale poter affermarsi'.
Il rapporto, l'Nsc-68 (National Security Council Report 68), proponeva anche che gli Stati Uniti prendessero in considerazione attacchi nucleari preventivi contro bersagli sovietici qualora sembrasse imminente un attacco russo. Sembra che Curtis LeMay, il generale in capo del Comando aereo strategico degli Stati Uniti, fosse un acceso sostenitore della dottrina del primo attacco statunitense2. L'elezione di Eisenhower nel 1952 non servi molto a raffreddare la retorica della guerra fredda, in quanto i sovietici furono minacciati di «rappresaglia massiccia» nel caso attaccassero gli Stati Uniti con armi sia convenzionali sia nucleari3. Dal r 96 r, Robert McN amara, segretario della Difesa sotto i presidenti Kennedy e Johnson, adottò una strategia di «risposta flessibile» che accantonava la retorica della rappresaglia massiccia escludendo le città sovietiche dai bersagli. Ma anche cosi, i cambiamenti tecnologici mantenevano alta la tensione. EµtroJa metà degli anni Sessanta l'aeronautica militare aveva potenziato i missili nucleari con l'uso di combustibile solido che riduceva il tempo di lancio da otto ore a pochi minuti. I nuovi missili, Minuteman e Polaris, erano azionati da dispositivi sensibilissimi che scattavano all'istante. Una conflagrazione nucleare sarebbe potuta divampare, letteralmente, in un batter d'occhio.
6
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
Tuttavia, se da un lato era diventato piu facile far piovere missili americani sul nemico, dall'altro i sistemi di comando e di controllo strategico che li coordinavano continuavano a rimanere vulnerabili come lo erano sempre stati. Un documento segreto preparato per il presidente Kennedy nel 1963 sottolineava l'importanza del comando e del controllo. Il rapporto ipotizzava dettagliatamente una serie di possibili situazioni di attacchi nucleari in cui il presidente si sarebbe trovato a dover prendere «decisioni cruciali» in un periodo approssimativo di circa 26 ore. Un ipotetico scenario descriveva un primo attacco dell'Unione Sovietica, «devastante per la nazione», che avrebbe falciato da 30 a 150 milioni di vittime e distrutto dal 30 al 70 per cento delle infrastrutture industriali americane4. Sebbene apparisse come una disfatta a tutti gli effetti, lo scenario descritto nel documento segreto prevedeva che il presidente potesse prendere ancora decisioni cruciali e inviasse comandi alle restanti forze nucleari degli Stati Uniti in tre momenti importantissimi del giorno successivo. La prima di queste decisioni, se il presidente fosse sopravvissuto al primo attacco, sarebbe stata presa all'ora zero (Ho). Ho indicava il momento della prima deflagrazione di un missile sovietico su un bersaglio statunitense. Kennedy avrebbe dovuto decidere l'estensione del secondo attacco di ritorsione contro i sovietici. Se avesse scelto di colpire bersagli militari e industriali in Unione Sovietica, rispettando la «dottrina salva-città», i missili statunitensi avrebbero cominciato a colpire i bersagli circa trenta minuti dopo l'ordine presidenziale di lancio e i bombardieri strategici, già allertati, sarebbero arrivati a H + 3 ore. I velivoli rimanenti sarebbero arrivati tra H + 7 e H + 17 ore. Successivamente, lo scenario indicava che il presidente avrebbe ricevuto un'offerta di tregua da Mosca in un momento compreso tra H o e H + 30 minuti. A lui spettava la decisione se negoziare, far partire il contrattacco o intensificare le operazioni. Nello scenario ipotetico il presidente reagiva estendendo la rappresaglia degli Stati Uniti fino a includere centri sovietici di popolazione civile in aggiunta ai bersagli militari e industriali già presi di mira durante il secondo attacco statunitense. In risposta, tra H + r e H + 18 ore, i leader sovietici sopravvissuti optavano di sferrare attacchi nucleari su capitali europee occidentali per poi cercare una tregua. A questo punto, le forze nucleari europee lanciavano attacchi nucleari contro i bersagli sovietici. Alle H + 24 ore il presidente decideva di accettare un cessate il fuoco a condizione che
UN'IDEA NATA ALL'OMBRA DELLE ARMI NUCLEARI
i sovietici ritirassero l'esercito con cui avevano invaso l'Europa oc cidentale durante le 24 ore successive al loro primo attacco. Inol tre il presidente avvertiva il suo omologo sovietico che qualunqm sottomarino russo in immersione armato con missili nucleari sarebbe stato un possibile bersaglio. Lo scenario si concludeva a ur certo punto tra H + 24 e H + 26 ore quando i sovietici accettavano le condizioni, sebbene gli Stati Uniti si tenessero pronti a lanci contro i sottomarini sovietici. Il prerequisito fondamentale, affinché il presidente potesse prendere anche solo una di queste decisioni, era che disponesse di un canale per comunicare con gli arsenali nucleari e che tale canale fosse a prova di attacco nucleare. Purtroppo ciò non esisteva. Una relazione separata per Kennedy descriveva il livello di danne che gli Stati Uniti e l'Unione Sovietica correvano il rischio di subire durante la prima ondata di un attacco nucleare 5 • Alla fine di ciascuno degli ipotetici scenari presentati entrambi gli avversari avrebbero potuto ancora disporre di «considerevoli forze strategiche residue» in grado di attuare ritorsioni o riprendere l'assalto. Ciò valeva sia che fossero stati gli Stati Uniti o l'Unione Sovietica a iniziare il conflitto nucleare. Quindi, pur avendo subito ondate successive di attacchi sovietici, gli Stati Uniti avrebbero dovuto mantenere intatta la capacità di fare delle minacce credibili e di usare quanto restava del loro arsenale nucleare. Tuttavia, la relazione informava il presidente: «la capacità di usare queste forze residue in modo efficace dipende dalla sopravvivenza di un comando e di un controllo strategico ... » In poche parole, tra i due belligeranti della_ guerra fredda, sarebbe stato in vantaggio quello il cui èomanddi e controllo presentassero le migliori capacità di recupero. Questa era stata una preoccupazione fin dall'inizio dell'era nucleare. Nel 1950 Truman era stato avvertito dell'esigenza di «difendere e curare la manutenzione delle linee di comunicazione e delle basi» necessarie per combattere un conflitto nuclear~ 6 • Ma per i dieci anni che seguirono nessuno ebbe la minima idea di come garantire le comunicazioni di comando e controllo una volta che i missili nucleari fossero stati lanciati. Un'esplosione nucleare nella ionosfera avrebbe reso inservibili per ore le comunicazioni radio a modulazione di frequenza mentre un numero limitato di attacchi nucleari a terra avrebbe potuto paralizzare la rete nazionale telefonica, fortemente centralizzata, della AT&T, ponendo in discussione il concetto di distruzione reciprocamente assicurata (MAD). Un principio fondamentale di MAD
8
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
era che il timore di ritorsione sarebbe stato per entrambi gli antagonisti della guerra fredda un deterrente dalla prima aggressione. Questa logica veniva a cadere se l'azione di rappresaglia fosse stata vanificata dal fatto che le infrastrutture delle comunicazioni erano danneggiate dal primo attacco nemico. La RAND, un istituto di ricerca statunitense, stava lavorando a questo problema e un suo ricercatore, Paul Baran, era sempre piu preoccupato dalla prospettiva di un conflitto nucleare in seguito . ~Ila sua precedente esperienza 9..i elaborazione di informazioni radar presso la Hughes Aircraft1 • Bàran era convinto che il miglioramento della rete di comunicazioni attraverso gli Stati Uniti fosse la chiave di volta per evitare la guerra. Il sensibilissimo sistema di innesco introdotto sui nuovi missili a combustibile solido nei primi anni Sessanta stava a indicare che chi avrebbe dovuto prendere l'ultima decisione non aveva quasi tempo di riflettere nei momenti cruciali di una crisi. Baran temeva che «un singolo colpo partito accidentalmente potesse scatenare un'inarrestabile guerra nucleare»8. A suo avviso la gestione del comando e del controllo era cosi vulnerabile a danni collaterali che «i comandanti di ciascuna base missilistica si sarebbero trovati di fronte al duplice dilemma o di non agire affatto nel caso di un attacco fisico o di iniziare un' azione che avrebbe potuto condurre a una guerra del tutto irrevocabile». In breve, i militari dovevano trovare un modo di restare in contatto con la propria forza d'urto nuclearf, anche se questa era disseminata in tutto il paese per .pr,ecauzione tattica contro il nemico. La risposta fornita dalla RANQ fu rivoluzionaria sotto molti aspetti - non ultimo quello che stabiliva i principi guida di Internet.
i
Comunicazioni a prova di attacco nucleare.
La soluzione proposta da Baran suggeriva di cambiare radicalmente la distribuzione e la natura delle reti nazionali che si irradiavano dal centro verso altri punti di contatto secondo uno schema di collegamento a stella. Nel 1960 il ricercatore cominciò a sostenere che questo sistema era indifendibile nell'era dei missili balistici 9 • L'alternativa cui aveva cominciato a lavorare era di una distrilmzione centrifuga di punti di controllo: una rete distribuita che non avèsse un punto centrale vulnerahile e che. potesse contare sulia ridondanza. Gli erano note le teorie.neurologiche che descrivevano come il cervello fosse in grado di usare efficacemente funzioni
UN'IDEA NATA ALL'OMBRA DELLE ARMI NUCLEARI
9
residue anche quando le cellule cerebrali erano morte una persona anziana, se non riesce a ricordare una parola o un'espressione, ricorre ad esempio a un sinonimo appropriato. Usando il modello neurologico, ogni nodo nella rete di comunicazioni sarebbe stato in grado di ritrasmettere informazioni a ogni altro nodo senza dover passare attraverso un punto centrale di controllo. Questo modello avrebbe fornito un sistema affidabile per la gestione strategica delle armi nucleari anche se gli attacchi del nemico avessero distrutto ampi settori della rete. In un memorandum del 1962, «Sulle reti distribuite di comunicazione», Baran descriveva il funzionamento della sua rete. I messaggi che viaggiavano attraverso la rete non avrebbero segulto un percorso predefinito dal mittente al destinatario 11 • Avrebbero avuto semplicemente delle etichette di destinazione e provenienza, « a» e «da», e a ogni nodo che avessero incrociato nel loro percorso a quel punto si sarebbe deciso verso quale nodo procedere successivamente per raggiungere la loro destinazione nel piu breve te!Ilpo possibile. I nodi, grazie a un semplicissimo sistema che Baran descrive in una paginetta, avrebbero monitorato ciascuno quanto tempo impiegavano i messaggi per giungere da altri nodi della rete12 ed erano in grado di ritrasmettere i messaggi in arrivo al nodo piu veloce nella direzione della destinazione del messaggio. Instradando i messaggi come "patate bollenti", da nodo a nodo, lungo i percorsi piu veloci scelti dagli stessi nodi, la rete poteva aggirare aree danneggiate da attacchi nucleari. Il grosso problema era come rifare in questo modo il sistema di comunicazioni della nazione. I sistemi analogici dei primi anni Sessanta potevano fare un numero limitato di connessi9gi. Il processo di ritrasmissione, o «commutazione», di un messaggio da una linea all'altra per piu di cinque volte deteriorava in modo significativo la qualità del segnale. Eppure la rete distribuita di Baran richiedeva molte stazioni di commutazione, ciascuna delle quali in grado di comunicare con qualunque altro ripetitore attraverso qualunque percorso e qualunque numero di stazioni di commutazione. La sua idea superava di molto le capacità della tecnologia esistente. Tuttavia, la nuova tecnologia, quasi del tutto inesplorata, delle cornunicazioniiligita.li poteva in teoria inviare segnali pra~icam.~pte a qualunque distanza. Era una proposta rivoluzionaria. Baran ~tava proponendo di combinare due tecnologie che in precedenza erano isolate: i computer e le comunicazioni. Per quanto possa sembrare strano· ai lettori dell'era digitale, queste erano discipline cosi 10 :
IO
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
distinte l'una dall'altra che Baran era preoccupato che il suo progetto potesse fallire per mancanza di personale capace di lavorare in entrambe le aree 13 • Baran si rese conto che i messaggi digitali potevano essere resi piu efficienti se fossero stati spezzettati in piccoli «pacchetti» di informazioni. Lavorando in modo del tutto indipendente e all'oscuro dei tentativi di Baran, Donald Davies, il direttore della Computer Science Division del National Physics Laboratory (Divisione informatica del Laboratorio nazionale di fisica) del Regno Unito, aveva sviluppato la propria teoria di reti a commytazione di pacchetto piu o meno contemporaneamente a Baran.\B_aran, e Davies, avevano capito che pacchetti di dati potevano vfaggiare indipendentemente l'uno dall'altro da nodo a nodo attraverso una rete distribuita finché non giungessero a destinazione dove i messaggi venivano ricostituiti nella loro interezia .. Ciò significava che si potevano mescolare diversi tipi di trasmissioni, come voce e dati, e che parti differenti dello stesso messaggio potevano evitare ingorghi sulla rete. Eccezionalmente, considerato il grande balzo in avanti che ciò rappresentava, gli Stati Uniti non tennero segreto il concetto di Baran di comunicazioni distribuite secondo la logica che staremmo molto meglio se i sovietici disponessero di un miglior sistema di gestione del comando e controllo strategici. Quello che avevano era anche peggiore del nostro".
Quindi, dei dodici memorandum che spiegavano il sistema di Baran, solo due, che trattavano di crittografia e vulnerabilità, furono segretati 15 • Nel 1965 la RAND raccomandava all'aeronautica militare di far proseguire le ricerche e lo sviluppo del progetto 16 • L'idea di Baran aveva la stessa caratteristica centrifuga che oggi contraddistingue Internet. Ciò che viene definito come approccio «centrifugo» in questo libro consiste, essenzialmente, nell' appiat~ timento di gerarchie consolidate per distribuire potere e responsabilità a livello nodale dimodoché ogni nodo sia alla pari. La rete di Baran era impostata su ciò che egli chiamava «operazione da utente a utente piu che ... da centro a centro» 17 segnalando che la censura amministrativa esercitata sui precedenti sistemi militari di comunicazione non sarebbe stata possibile sul nuovo sistema, un aspetto questo che avrebbe piu tardi garantito l'autonomia alla massa degli utenti di Internet. Ciò che Baran aveva prodotto era un nuovo meccanismo per ritrasmettere vaste quantità di dati attraverso una rete poco costosa che presentava il vantaggio di una resilienza a prova di attacco nucleare. Mentre le comunica-
UN'IDEA NATA ALL'OMBRA DELLE ARMI NUCLEARI
II
zioni analogiche richiedevano un circuito perfetto tra i punti di connessione a entrambe le estremità, la rete distribuita instradava messaggi aggirando i punti di malfunzionamento finché non raggiungevano la destinazione finale. Ciò significava che a ogni stazione di commutazione si poteva usare un equipaggiamento poco costoso e passibile di cattivo funzionamento. Anche cosi, la retè sarebbe stata molto affidabile 18 • Poiché era possibile creare ampie reti che inviavano trasmissioni assai affidabili con apparecchiature poco affidabili, il prezzo deUe comunicazioni sarebbe crollato. Era quasi un miracolo. L'AT&T~ che deteneva allora il monopolio delle comunicazioni, si rifiutò ;emplicemente di crederci. Quando l'aeronautica militare propose all'AT&T di esaminare l'idea di Baran, la compagnia «obiettò con veemenza» 19 • C'era un abisso concettuale tra i vecchi modelli analogici di comunicazione a cui l'AT&T era abituata e l'approccio digitale centrifugo proposto da Baran. Il modello centrifugo di quest'ultimo era l'antitesi della tecnologia e dell'ethos centralizzati, gerarchici su cui era fondata l' AT&T. Gli esperti dell'azienda, specialisti in comunicazioni analogiche, erano increduli di fronte alle affermazioni di Baran a proposito delle comunicazioni digitali. La compagnia, abituata alle comunicazioni analogiche che contavano su una qualità costante della linea per trasmettere un messaggio da punto a punto nel modo piu chiaro possibile, non riusciva ad accettare che lo spezzettamento dei messaggi in pacchetti, come proponeva Baran, non avrebbe deteriorato le chiamate vocali. Mentre illustrava la sua idea in un incontro presso la sede centrale dell'AT&T a New York, Baran fu interrotto da un anziano dirigente che gli chiese: Aspetta un attimo, figliolo. Mi stai dicendo che tu avvii la commutazione prima che il segnale sia trasmesso attraverso l'intero paese ?' 0 •
Eppure si cominciavano a raccogliere le prove teoriche che la commutazione di pacchetto digitale poteva funzionare. Nel 1961 un giovane dottorando del MIT, Leonard Kleinrock, aveva cominciato a esaminare come i pacchetti di dati potessero fluire attraverso le reti2 1 • Nel Regno Unito, l'esperimento di commutazione di pacchetto condotto da Donald Davies nel National Physics Laboratory (NPL) nel 1965 dimostrò che il metodo funzionava per collegare i terminali di elaboratori e ciò lo indusse a chiedere un finanziamento per una rete telematica nazionale di dati. Anche se Davies non riusci a ottenere un finanziamento sufficiente per un progetto di rete paragonabile in estensione a quella che sarebbe stata realizzata negli Stati Uniti, tuttavia il suo laboratorio influen-
12
FASE
I.
LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
zò i suoi omologhi americani. Sempre nel 1965, due ricercatori, Lawrence Roberts e Thomas Marill, riuscirono a collegare un elaboratore del Lincoln Laboratory del MIT di Boston con uno della System Development Corporation in California22 . Nonostante questi sviluppi, l'AT&T mostrava poco interesse per le comunicazioni digitali ed era restia ad accettare che la rete di Baran, il cui costo di realizzazione era stimato intorno ai 60 milioni di dollari del 1964, potesse sostituire il sistema analogico che costava 2 miliardi di dollari all'anno 23 . Sembra che un dirigente dell' AT&T abbia detto al giovane ricercatore: « Perché mai dovremmo finanziare un nostro diretto concorrente ?»24 • Cosi l'azienda respinse la richiesta dell'aeronautica militare di esaminare la validità dell'idea di Baran. La sola alternativa era la Defense Communications Agency (DCA). Baran era convinto che la DCA «non fosse all'altezza del compito»25 e vide nella proposta la morte del suo progetto. «Ero sicuro che sarebbe stato un tentativo fallito poiché non avevano nessuna competenza di tecnologia digitale ... Inoltre, erano privi di entusiasmo». Quindi nel 1966 il programma fu quietamente accantonato, e una rivoluzione fu rimandata al momento in cui la squadra giusta fosse stata capace di compiere quel balzo concettuale dai sistemi analogici centralizzati a quelli digitali centrifughi.
L'incubatore dell'innovazione: la
RAND.
L'apertura mentale di Baran, ispiratrice delle sue idee, e la libertà di esplorarle ebbero molto a che fare con l'organizzazione in cui lavorava. La RAND era un istituto di ricerca del tutto nuovo, nato dalla consapevolezza acquisita dalle autorità militari durante la Seconda guerra mondiale che la ricerca scientifica fondamentale poteva far vincere le guerre. Infatti è stato forse nella Seconda guerra mondiale piu che durante la guerra fredda che furono posti i semi di Internet. Ancor prima dell'ingresso dell'America in guerra, il presidente Roosevelt si era convinto che la forza aerea fosse alternativa a un grande esercito e, di conseguenza, la tecnologia fosse alternativa al potenziale umano. Roosevelt riteneva che fosse stata la forza aerea tedesca a indurre I' atteggiamento di remissività della Gran Bretagna nel Patto di Monaco 26 • Gli Stati Uniti che avevano fino ad allora trascurato di potenziare la loro forza aerea, riesumarono un piano di fabbricazione di quasi 2500 aerei da combattimento e si posero come obiettivo la pro-
!!N'IDEA NATA ALL'OMBRA DELLE ARMI NUCLEARI
duzione di ro ooo velivoli all'anno. Quando entrarono in guerra, gli Stati Uniti compilarono un «Registro nazionale del personale scientifico e specializzato» per individuare «praticamente ogni persona del paese che avesse una formazione o una competenza specialistica»27 • Gli scienziati anziani avevano capito che la guerra è «una battaglia di menti scientifiche in cui il risultato dipende da chi arriva prima con le soluzioni migliori» 28 • I chimici furono « impazienti di mettere a disposizione dello sforzo bellico le loro competenze» 29 • I matematici, gli ingegneri e i ricercatori indicarono chiaramente il reale impatto del loro contributo allo sforzo bellico. Vannevar Bush, il maggiore consulente scientifico del governo, disse al presidente nel 1941 che la comunità dei ricercatori negli Stati Uniti aveva «già profondamente influenzato il corso degli eventi» 30 • La corsa alla conoscenza scientifica catturò anche l'immaginazione popolare. Il governo statunitense lanciò un appello al pubblico perché contribuisse con idee e invenzioni allo sforzo bellico. Mentre Vannevar Bush considerava «una terribile seccatura» 31 i principianti, ossia coloro che aggiravano le gerarchie consolidate per presentare idee dannose e irrilevanti a livelli ben piu alti della loro posizione, sia lui che i centri di ricerca militare erano ben disposti per le idee di dilettanti svegli. Il National Inventors' Council (Consiglio nazionale degli inventori), «un centro di raccolta della genialità inventiva degli americani», esaminava le invenzioni del pubblico che potevano servire allo sforzo bellico32 • Furono presentati oltre roo ooo suggerimenti33, e il centro si contraddistinse, tra le altre cose, come una delle molte organizzazioni e aziende che respinsero l'idea della fotocopiatrice 34 • Il dipartimento della Difesa diffuse un elenco dei campi in cui sarebbe stato particolarmente interessante ricevere suggerimenti; tra questi c'erano argomenti esotici come «fucili elettromagnetici» 35 • Un esempio sorprendente riguarda due idee di Hugo Korn, un sedicenne del liceo Tuley di Chicago, che furono evidentemente prese in considerazione. La prima idea fu quella di un rivelatore aviotrasportato «per individuare fabbriche in territorio nemico tramite radiazione infrarossa». La seconda fu «una macchina aerofotografica da usarsi in condizioni meteorologiche avverse» 36 • Durante la Prima guerra mondiale il Naval Consulting Board (Comitato di consulenza navale) aveva avuto una simile funzione, sebbene delle r r o ooo proposte presentate tutte, tranne r ro, furono scartate come prive di interesse e solo una fu messa in atto.
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
Nel periodo bellico i ricercatori godettero di un pubblico riconoscimento della loro importanza decisiva. Questa nuova posizione, commentò il direttore del MIT, poteva« dare come risultato un maggiore sostegno permanente alla ricerca scientifica» 37 • A mano a mano che si avvicinava la fine della guerra, i capi politici, militari e scientifici cominciarono a pensare alla transizione al periodo postbellico. Il significato del momento non sfuggi a Roosevelt che scrisse a Vannevar Bush verso la fine del 1944 per chiedergli: Nuove frontiere della mente sono davanti a noi e se saranno esplorate con la stessa visione, audacia ed entusiasmo con cui abbiamo condotto questa guerra, potremo creare maggiori e piu proficue opportunità di lavoro e una vita piu piena e fruttuosa ... Che cosa può fare il governo ora e in futuro per sostenere attività di ricerca di organizzazioni pubbliche e private ... e per assicurare la futura continuità della ricerca scientifica in questo paese a un livello paragonabile con quanto si è fatto durante la guerra?".
In risposta Bush convocò gli scienziati piu autorevoli della nazione per scrivere Science: The Endless Frontier (Scienza: la frontiera infinita), un rapporto che delineò le linee guida della ricerca nel periodo postbellico. Al centro delle sue raccomandazioni c' era un principio generale di apertura e di fecondazione incrociata: La nostra capacità di prevalere su possibili nemici futuri dipende dai progressi scientifici che avanzeranno piu rapidamente con la diffusione della conoscenza che non seguendo la politica di continua restrizione della conoscenza che ci è ora imposta".
Sebbene sostenesse la necessità di finanziamenti federali, ]3ush era contrario a un controllo diretto del governo sulla ricerca40 • Anche se Bush non fu direttamente coinvolto nella creazione della RAND, l'accento che egli pose sullo studio interdisciplinare, sull' apertura e sulla ricerca sovvenzionata senza condizionamenti filtrò e permeò l'istituto. Science: The Endless Frontier propose anche l'istituzione di quella che sarebbe diventata la National Science Foundation (NSF), un'organizzazione che avrebbe avuto un ruolo importante nello sviluppo di Internet molti decenni dopo. A riflettere sul mondo del periodo postbellico ci fu anche il generale «Hap» Arnold, il piu anziano ufficiale dell'aeronautica militare degli Stati Uniti, che scrisse: La sicurezza degli Stati Uniti d'America continuerà a dipendere in parte dagli sviluppi avviati dai nostri pedagogisti e scienziati professionisti. Spero vivamente che l'aeronautica militare ponga su basi salde e continue la ricerca e lo sviluppo postbellico in previsione di un prossimo conflitto 41 •
lJN'IDEA NATA ALL'OMBRA DELLE ARMI NUCLEARI Il generale Arnold aveva un apprezzamento innato per la ricerca militare, essendo stato un pioniere dell'aviazione militare alla scuola di volo dei fratelli Wright nel 1911, dove lui e un collega furono i primi ufficiali militari statunitensi a ricevere istruzioni di pilotaggio. Nonostante un atteggiamento personale ambivalente verso gli scienziati e gli accademici, che egli soleva definire «i capelloni»42 , mise al primo posto l'importanza della ricerca e dello sviluppo. Come disse a una conferenza di ufficiali, «ricordate in primo luogo i semi; se volete cogliere i frutti dello sviluppo aeronautico, dovete piantare i semi della ricerca sperimentale» 43 • Quando la Seconda guerra mondiale giunse alla fine, Arnold favori l'istituzione di una nuova unità di ricerca chiamata «Progetto RAND», un acronimo privo di ambizioni, mentre il gruppo che se ne fregiava ebbe molto successo (RAND significa «Research and Development», cioè ricerca e sviluppo). Questa nuova organizzazione avrebbe fatto ricerche a lungo termine per l'aeronautica militare. Edward Bowles, un consulente scientifico del segretario di Guerra, persuase Arnold a porre la RAND sotto un nuovo tipo di amministrazione che consentisse la flessibilità necessaria per perseguire obiettivi a lungo termine. Il gruppo fu creato come un'entità indipendente con base presso la società aeronautica Douglas Aircraft Company, scelta in parte perché si pensava che sarebbe stato difficile assumere scienziati se questi fossero stati alle dirette dipendenze delle autorità militari e perché la Douglas era sufficientemente lontana da Washington da consentire al suo personale di lavorare in relativa tranquillità 44 • Tra i primi studi della RAND ci fu l'idea di un bombardiere strategico a energia nucleare, chiamato «percojet», il cui disegno aveva il difetto fatale che i piloti sarebbero morti per le radiazioni prima che il velivolo avesse raggiunto il bersaglio; poi ci fu un'analisi di bombardamenti strategici che passò in rassegna oltre 400 ooo diverse configurazioni di bombardieri e di bombe; e un «disegno preliminare di astronave sperimentale per girare intorno al mondo» 45. Si trattava veramente di ricerca avanzata all'avanguardia della conoscenza umana. La RAND era straordinariamente indipendente. Il generale Curtis LeMay, vicedirettore del Personale aeronautico per la ricerca e lo sviluppo (Air Staff for Research and Development), accettò di dare carta bianca al programma di lavoro del Progetto RAND 46 • Quando l'aeronautica militare annunciò nel 1959 l'intenzione di congelare i finanziamenti del Progetto RAND ai livelli di quell'anno, l'organizzazione ampliò le sue competenze e la base di finanzia-
16
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
mento firmando contratti con altri clienti che richiedevano lavori su argomenti diversi come la meteorologia, la linguistica, i trasporti urbani, la facoltà della conoscenza e l'economia. Quando Paul Baran si accinse a esaminare la rete a commutazione di pacchetto alla RAND, l'organizzazione stava lavorando a livelli sia inferiori sia superiori a quelli dell'aeronautica militare e per clienti al di fuori delle strutture militari. Nel 1958, un anno prima che Baran entrasse a far parte dell'unità di ricerca, un membro anziano del personale dell'istituto scrisse sulla rivista «Fortune» che la ricerca militare era «in sofferenza per un eccesso di dirigismo e di controllo» 47 : ' Sono in troppi a prendere decisioni e si frappongono troppi ostacoli tra le nuove idee e il loro sviluppo. La R. AND D. è danneggiata ... dall'illusione che si possa progredire rapidamente e vantaggiosamente pianificando il futuro in dettaglio". ,h L'approccio della RAND era diverso. Come ricordò un altro dipendente, «un ricercatore fantasioso individua un problema ... che egli ritiene importante [e] che non riceve sufficiente attenzione altrove» 49 • Prima di entrare a far parte della RAND, ciò che aveva colpito Baran era «la libertà e l'efficienza della gente che vi lavorava» 50 • Il personale godeva di «una notevole libertà nell'esplorare argomenti che il ricercatore ritiene rechino il massimo vantaggio alla nazione». Un ricercatore ricordò che «l'anarchia sia nelle linee programmatiche sia nell'amministrazione ... non è veramente anarchia ma piuttosto un grado di libertà intellettuale del tutto ... unico» 51 • Al personale RAND era concessa la libertà di coltivare i propri interessi e di indulgere nelle proprie stranezze. «Abbiamo imparato che una buona organizzazione deve incoraggiare l'indipendenza di pensiero, deve imparare a convivere con i lupi solitari e gli individualisti, e deve tollerare la persona che crea problemi all'amministratore efficiente» 52 • Sebbene gli scienziati della RAND fossero probabilmente piu conservatori dei loro omologhi nel mondo accademico53 , molti erano degli eccentrici che non si integravano:« Uno appariva raramente prima delle due del pomeriggio, e ce n'erano altri due che non andavano mai a casa »54 • Riflettendo nel 2003, Barazyricordava la libertà che i ricercatori avevano di scegliere e seguirè un progetto di propria iniziativa, cosa che non succedeva da nessun'altra parte a quel tempo 55 • Questo era l'ambiente in cui Baran sviluppò l'idea della commutazione di pacchetto, un concetto cosi anomalo rispetto alla teoria
UN'IDEA NATA ALL'OMBRA DELLE ARMI NUCLEARI
predominante delle comunicazioni che la società che deteneva il monopolio di tale teoria non poteva accettarlo. Le analisi di sistemi, la metodologia RAND, incoraggiavano I' atteggiamento che i problemi dovevano essere esaminati all'interno di un piu 'ampio contesto economico e sociale. Per questo, quando Baran entrò nella RAND nel 1959, l'organizzazione includeva non solo scienziati e ingegneri, ma anche economisti e, dopo alcune difficoltà iniziali, sociologi56 • Questo può servire a spiegare perché, sebbene egli scrivesse nel contesto delicato di un progetto di ricerca di sviluppo militare, Baran ponesse una straordinaria domanda alla conclusione di uno dei suoi memorandum sulle comunicazioni distribuite: È adesso il momento di cominciare a pensare a un nuovo e forse inesistente servizio pubblico, un impianto centrale di dati digitali per l'utente comune disegnato specificamente per la trasmissione di dati digitali tra un gran numero di abbonati?".
Fin dall'inizio le idee di Baran erano piu ampie dell'obiettivo di un comando e controllo strategico a prova di attacco nucleare. La sua visione era quella di un servizio pubblico.
A report to the president pursuant to the president's directive o/January JI, r950, rapporto n. 68 dell'NSC (Consiglio nazionale di sicurezza), 7 aprile 1950, p. 54. ' G. HERKEN, Counsels o/ War, Knopf, New York r985, pp. 96-97. ' Rapporto n. 162/ 2 dell'Nsc. 4 A study on the management and termination o/ war with the Soviet Union, NET Evaluation Subcommittee of the National Security Council (Sottocommissione del Consiglio di sicurezza nazionale per la valutazione della rete), 15 novembre 1963. Vedi http://www.gwu.edu/-nsarchiv/nsaebb/nsaebb31/05-01 .htm (ultimo accesso 9 dicembre 2008), pp. 4- 13. ' Report o/ the NET evaluation subcommittee of the National Security Council, trascrizione di una relazione orale per il presidente, data di trascrizione 27 agosto 1963. Vedi http://www.gwu.edu/-nsarchiv/nukevault/special/doco8.pdf (ultimo accesso 9 dicembre 2008), p. 19. 6 A report to the president cit., p. 54. 1 The Unknown History of the Internet, nella serie «Stanford Unknown History of the Internet», settembre 2003. Vedi http://www.org/entrevista__ej.pdf (ultimo accesso 13 gennaio 2009). ' Intervista a P. Baran di D. Hochfelder, 24 ottobre 1999, History Centre dello IEEE (lnstitute of Electrical and Electronic Engineers). Vedi http://www.ieee.org/portal/ cms_docs_iportals/iportals/aboutus/history_center/oral_history/pdfs/Baran378. pdf (ultimo accesso 16 gennaio 2009), pp. 7-8. Vedi anche una testimonianza di P. Baran in K. MAYO e P. NEWCOMB, How the Web was Won: An Ora! History o/ the Internet, in« Vanity Fair», luglio 2008. 9 P. BARAN, On a Distributed Command and Contro! System Configuration, RAND, Santa Monica 1960. Vedi http://www.rand.org/pubs/research_memoranda/rm2632. 1
r8 10
11 12
" 14 15 16
11 18
19 20 21
22
23
24
25
26
27
28
29
'° 31
"
" '4
" " "
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE Intervista a P. Baran in s. BRAND, Founding /ather, in« Wired», marzo 2oor. Vedi http://www.wired.com/wired/archive/9.03/baran.html ?pg= 2 (ultimo accesso 15 ottobre 2008). P. BARAN, On Distributed Communication Networks, RAND, Santa Monica 1962. Ibid., p. 33. P. BARAN, Summary overoiew: on distributed communications, RAND, Santa Monica 1964. Vedi http://rand.org/pubs/research_memoranda/rm3767, p. 18. Intervista a P. Baran in s. BRAND, Founding Father cit. Intervista a P. Baran di D. Hochfelder cit., p. 13. Recommendation to the air staff on the development of the distributed adaptive message-block network, 30 agosto 1965. Vedi http://www.archive.org/details/ RecommendationToTheAirStaff (ultimo accesso 29 gennaio 2009). Ibid., p. 4. P. BARAN, Reliable Digita! Communications Systems Using Unreliable Network Repeater Nodes, RAND, Santa Monica 1960. Intervista a P. Baran di D. Hochfelder cit., p. 12.
Ibid.' p. I 4. L. KLEINROCK, In/ormation flow in large communication nets, proposta per una tesi di dottorato, MIT, 3 1 maggio 1961. Vedi http://www.es.ucla.edu/-lk/lk/Bib/report/phd (ultimo accesso ro luglio 2009). T. MARILL e L. ROBERTS, Toward a Cooperative Network o/ Time-shared Computers, in Proceedings of November 7-ro, r966 Fa!! ]oint Computer Con/erence, American Federation of Information Processing Societies (Federazione americana delle società di elaborazione informatica), New York, novembre 1966. Intervista a P. Baran di D. Hochfelder cit., p. 12. Intervista a P. Baran di M. Cassidy, Internet pioneer Paul Baran sees net's peace/ul purpose, nel blog degli interrogativi irrisolti di M. CASSIDY, 25 settembre 2008. Vedi blogs. mercurynews .com/cassidy/ 2008/09/2 5/in ternet-pionecr-paul-baran-sees-netspcaceful-purpose/ (ultimo accesso 13 gennaio 2009). Intervista a P. Baran diJ. E. O'Neill, 5 marzo 1990, Charles Babbage Institute, Università del Minnesota. Vedi http://special.lib.umn.edu/cbi/oh/pdf.phtml?id=295 (ultimo accesso 3 luglio 2009), p. 34. T. MOY, WarMachines: Tmns/orming Technologies in the usMilitary, r920-r940, TAMU Press, College Station (Tx) 2001, p. 96. K. T. COMPTON, Organization o/ American Scientists f or the War, Conferenza del 2o maggio 1943, pubblicata in «Science», voi. XCVIII, 30 luglio 1943, n. 2535, p. 94. w. DAVIS, Science is Decisive, in «Science News Letter», voi. XLI, 2 maggio 1942, n. 18. o. EISENSCIIll., The Chemist in Three Wars, in «Science», voi. XCVI, 23 ottobre 1942, 11. 2495, p. 37r. Lettera di V. Bush al presidente Franklin Delano Roosevelt, 16 luglio 1941. Vedi http:// www.fdrlibrary.marist.edu/psf/boxz/a13eo1 .html (ultimo accesso 22 novembre 2008). v. BUSI-I, Pieces o/ the Action, Morrow, New York 1970, pp. 121-28, 135. National Inventors Council to Seroe as Clearing House, in «Science News Letter», 17 agosto 1940, p. 100. v. BUSH, Pieces o/ the Action cit., p. 137. This Month in Physics History, October 22, r938: Invention of Xerography, American Physical Society. Vedi http://www.aps.org/publications/apsnews/2003 ro/history.cfm (ultimo accesso 3 dicembre 2008). Scienti/ìc Events: National Inventors Council, in «Science», voi. XCV, 2 gennaio 1942, n. 2453, p. 12. Ideas From Talent Search Winners Given to Govemment, in «Science News Letter», voi. XLII, 18 luglio 1942, n. 3, p. 38. K. T. COMPTON, Organization of American Scientists cit. p. 97.
lJN'IDEA NATA ALL'OMBRA DELLE ARMI NUCLEARI •• Lettera del presidente Roosevelt a V. Bush, 17 novembre 1944. Vedi http://www. nsf.gov/about/history/nsf5ovbush1945__roosevelt__letter.jsp (ultimo accesso 28 novembre 2008). " v. BUSH, Science: The Endless Frontier, United States Government Printing Office, Washington, luglio 1945. Vedi http://www.nsf.gov/od/lpa/nsf5o/vbush1945.htm (ultimo accesso 25 novembre 2008). 40 v. BUSH, Pieces o/ the Action cit. pp. 63-64. 41 Il generale Arnold allo scienziato T. Van Karman, 7 novembre 1944, cit. in F. KAPLAN, Wizards of Armageddon, Stanford University Press, Stanford 1991, p. 56. 42 H. H. ARN0LD e J. w. HUST0N, American Airpower Comes o/ Age: Generai Henry H. «Hap» Arnold's World War II Diaries, 2 voli., Air University Press, Maxwell Air Force Base (AL) 2002. 0 Discorso pronunciato dal generale di brigata H. H. Arnold, vicecomandante in capo dell'aeronautica militare, alla Western Aviation Planning Conference, 23 settembre 1937, cit. in D. DASO, Origins of Airpower: Hap Arnold's Command Year.v and Aviation Technology, I936-r945, in «Air Power Journal», autunno 1997. Vedi http:// www.airpower.maxwell.af.mil/ airchronicles/ apj/apj97/fal97/daso.html (ultimo accesso r O gennaio 2009). 44 B. SMITII, The JIAND Corporation: Case Study ofa Non-profit Advisory Corporation, Harvard University Press, Cambridge r966, pp. 42, 74-76. 4' Preliminary design of an experimental world-circling spaceship, rapporto SM-11827 nella serie «Special Memoranda», Progetto RAND, Douglas Aircraft Company, 2 maggio 1946. Vedi anche D. H0UNSHELL, The Co!d War, RAND, and the Generation ofKnow!edge, I946-I962, in «Historical Studies in the Physical and Biologica! Sciences», pp. 244-48. 46 B. SMITI!, The RAND Corporation cit., pp. 45-48. 47 B. KLEIN, A Radica!Proposal/orR. and D., in «Fortune», maggio 1958, n. 57, pp. 112-13. 48
lbid.
R. D. SPECI!T, RAND: A Persona! View o/ its History, RAND, Santa Monica 1958. Vedihttp://www.rand.org/pubs/papers/P1601 (ultimo accesso 7 gennaio 2009), p.19. 50 Intervista a P. Baran di D. Hochfelder cit., p. 7. 51 D. Novick, memorandum interno della RAND, 19 giugno 196r, cit. in B. SMITH, The RAND Corporation cit., p. r57. " R. o. SPECI!T, llAND: A Per.vana! View of its History cit., p. 25. 53 G. HERKEN, Counselso/Warcit.,p.75. 54 R. D. SPECI!T, RAND: A Persona! View of its History cit., p. 4. " The Unknown History of the Internet cit. 56 B. SMrilI, The RAND Corporation cit., pp. 60-65. 57 P. BARAN, On Distributed Communication Networks cit., p. 40. 49
II.
L'esperimento militare
Sebbene fosse chiamata guerra fredda, quella che i belligeranti combatterono fu uno scontro rovente di sfide tecnologiche. Alla fine del 1957, gli americani ebbero l'impressione che i sovietici avessero la meglio. Il 26 agosto di quell'anno, la Russia lanciò il razzo Vostok R-7, il primo missile balistico intercontinentale al mondo (ICBM). Due mesi dopo, il 4 ottobre, un bip ... bip ... bip ... pulsante dallo spazio segnalava la supremazia sovietica nella corsa spaziale. L'Unione Sovietica aveva lanciato il primo satellite, lo Sputnik, che era in grado di effettuare un'orbita intorno al globo ogni 96 minuti a 18 ooo miglia all' ora1 • I suoi bip radiotrasmessi raggiungevano gli ascoltatori terrestri tramite stazioni radiofoniche. In 150 radiostazioni sparse in tutta l'America furono inviati osservatori col compito di riportare avvistamenti dell'oggetto. La rivista «Time» parlò di Luna rossa sugli Stati Uniti2. I sovietici non soltanto furono i primi a lanciare un satellite nello spazio, ma oltretutto si trattava di un satellite, come annunciò la prima pagina del «New York Times » agli americani il giorno seguente, che pesava otto volte di piu di quello che gli Stati Uniti intendevano mettere in orbita. Se la Russia era in grado di lanciare nello spazio un oggetto cosi pesante, che cos'altro potevano fare i loro razzi? Poi, il 3 novembre, l'Unione Sovietica lanciò un secondo satellite del peso di mezza tonnellata che trasportava una cagnetta nei cieli e gli scienziati sovietici accennarono a un programma di satelliti in orbita permanente che sarebbero serviti da piattaforma per le navi spaziali. Gli scienziati americani si chiedevano se i russi non stessero preparando come sorpresa successiva l'esplosione di una bomba a idrogeno sulla luna in coincidenza con l'eclisse che si sarebbe vista nel quarantesimo anniversario della Rivoluzione d'Ottobre 3 • Quattro giorni dopo il lancio dello Sputnik II, il presidente ricevette dal suo Comitato di consulenti scientifici il Rapporto Gaither che, sopravvalutando eccessivamente l'arsenale missilistico sovietico, raccomandava un'ulteriore spesa di 19 miliardi
I.' ESPERIMENTO
MILITARE
21
di dollari (del 1957) per la difesa4. Il divario missilistico sembrava essere cosi profondo che nel 1958 il senatoreJohn F. Kennedy paragonò l'ipotetica perdita della supremazia militare da parte dell' America alla perdita di Calais da parte dei britannici nel 1558 con la conseguente rinuncia a qualunque pretesa di predominio sul continente europeo5 • Gli americani avvertivano una forte sensazione di pericolo. La risposta degli Stati Uniti, quando arrivò, fu deludente. Il 6 dicembre 1957, un razzo Vanguard fu rifornito di carburante nella fase preparatoria al lancio del primo satellite americano nello spazio. Il primo satellite sovietico era stato grande come un pallone da spiaggia. Il primo tentativo dell'America era grande come una palla da softball. Le dimensioni e il peso erano importanti perché quanto piu era pesante l'oggetto tanto piu potente era il razzo che doveva portarlo in orbita e la qualità del razzo era indicativa della capacità missilistica nucleare della nazione che effettuava il lancio. Il satellite statunitense pesava solo due chili a confronto con la mezza tonnellata dello Sputnik IL Ma ancor piu significativo fu il fallimento totale del lancio del Vanguard che esplose a soli pochi metri da terra. I mezzi di comunicazione di tutto il mondo accolsero la notizia con «scherno e lacrime», come disse il «Time» 6 • Il giorno dopo il lancio dello Sputnik I, un giornalista pose questa domanda: «Gli Stati Uniti sarebbero già stati in grado di lanciare con successo un satellite terrestre se non fossero mancati i finanziamenti e se non si fosse sprecato tempo ?» 7 • Prima dello Sputnik i vari servizi delle forze armate avevano litigato ferocemente sui fondi per la ricerca, e il segretario della Difesa, Charlie Wilson, aveva effettuato dei tagli. Dopo lo Sputnik, Neil McElroy, nominato segretario della Difesa nell'ottobre 1957, ricevette il mandato di smuovere la situazione. Consapevole dell'importanza della ricerca, nel suo incarico precedente a capo della Proctor & Gamble aveva incoraggiato lo sviluppo della ricerca fondamentale. Nel 1957, il suo ultimo anno alla Proctor & Gamble, il 70 per cento degli utili della società derivavano da prodotti come il dentifricio al fluoro,jnesistenti una dozzina di anni prima8 • La soluzione di McElroy al problema della ricerca a scopi difensivi fu l'istituzione di una nuova agenzia civile all'interno del Pentagono che raccoglieva i migliori talenti scientifici dell'esercito, della marina e dell' aeronautica, evitando doppioni e limitando la rivalità interarmi alla ricerca finalizzata allo spazio e alla missilistica. Nel febbraio 1958 fu creata l' Advanced Research Projects Agency (ARPA) accolta con scetticismo dal Comitato dei capi di stato maggiore. L'ARPA sarebbe
22
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
stato un centro di ricerca diverso da quanto si faceva prima. Non avrebbe creato laboratori indipendenti e non sarebbe stata una vasta organizzazione come la RAND ma piuttosto una piccola agenzia che avrebbe stipulato con altre organizzazioni contratti per la ricerca e lo sviluppo. Quando I' ARPA cominciò a lavorare sui collegamenti di rete, il suo Ufficio per le tecniche di elaborazione dell'informazione (IPTO) disponeva di due soli membri operativi, Bob Taylor e la sua segretaria, che amministravano insieme un budget di r 6 milioni di dollari 9 • Come la RAND, I' ARPA godeva di un ampio mandato di libertà intellettuale e di un vasto campo d'azione in cui perseguire ricerche fondamentali a lungo termine. In verità l'istituzione della NASA (N ational Aeronautics and Space Administration) alla fine del 1958 costrinse I' ARPA a focalizzarsi sulla ricerca fondamentale a lungo termine piu che sul lavoro pratico riguardante razzi e programmi spaziali. Entro gli anni Settanta, I' ARPA era diventata una calamita per le proposte di ricerca piu inverosimili. Come ricorda un ex direttore della IPTO, « tutti i fratelli e i loro amici picchiatelli ci venivano a raccontare i progetti che intendevano realizzare» 10 • L'Agenzia per i progetti di ricerca avanzata studia i collegamenti di reti.
Una figura fondamentale nella storia del coinvolgimento dell' ARcon Internet e con lo sviluppo dei computer in generale fu uno straordinario personaggio,]. C. R. Licklider. Nel 1962 il direttore dell' ARPA, Jack Ruina, assunse Licklider per lavorare in due campi: il comando e controllo strategico militare e le scienze comportamentali. Ruina, che era assorbito nel lavoro dell' ARPA sui missili balistici a scopo difensivo e sui rivelatori di test nucleari, lasciò a Licklider grande libertà di movimento su come dirigere il programma di gestione del comando e controllo nel modo che ritenesse piu opportuno 11 • Licklider gli disse che un miglioramento dell'utilizzabilità dei sistemi di computer avrebbe posto le fondamenta per una maggiore efficienza del comando e controllo strategico militare 12 • Raccolse un gruppo di ricercatori che condividessero i suoi interessi sull'uso interattivo dei computer per un progetto che denominò, significativamente, «Rete intergalattica di computer» e chiese loro di immaginare un quadro generale nell'uso dell'informatica: PA
Mi sembra interessante e importante ... sviluppare la capacità di operare a reti integrate ... Considerate la situazione in cui numerosi centri diversi sia-
!.'ESPERIMENTO MILITARE no connessi insieme in rete, ciascun centro con le sue caratteristiche spiccatamente individuali, con un proprio linguaggio speciale e un modo particolare di fare le cose. E auspicabile, o persino necessario, che tutti i centri siano d'accordo su un linguaggio o, almeno, su alcune convenzioni per porre delle domande come «che linguaggio usate?»".
Nel suo modo di pensare Licklider poneva molto l'accento sulla collaborazione e ipotizzava uno scenario futuro in cui un ricercatore di un centro di ricerca potesse trovare in rete un'utile risorsa informatica proveniente da un altro centro di ricerca. Questo tipo di discorso, in un mondo di macchine incompatibili e di risorse informatiche gelosamente protette, era molto lungimirante. Sebbene il suo primo incarico all' ARPA fosse di breve durata (vi tornò come direttore dell'IPTO nel 1974) Licklider inculcò nell'agenzia l'entusiasmo di un nuovo approccio all'uso dei computer in cui le macchine sarebbero state collegate in rete e facili da usare. Nel 1964, scelse come suo successore Ivan Sutherland, del Lincoln Laboratory del MIT. Sutherland aveva scritto il primo sistema grafico interattivo, lo« Sketchpad», e aveva solo 26 anni quando fu assunto come direttore dell'IPTO con la responsabilità di amministrare un budget di oltre 10 milioni di dollari. Il successore di Sutherland alla direzione dell'IPTO fu Bob Taylor che a sua volta aveva lavorato su computer interattivi prima di approdare all' ARPA. Anche il successore di Taylor, Lawrence Roberts, aveva lavorato sulla grafica e su reti di computer ed era un altro di quel gruppo di tecnologi ispirati da Licklider al Lincoln Laboratory del MIT a pensare che i collegamenti in rete rappresentassero il futuro 14 • L'influenza di Licklider fu avvertita ancora piu lontano grazie al suo sostegno di vasti programmi di ricerca nelle università che stimolarono l'istituzione dei primi dipartimenti di studi informatici e attirarono in questo nuovo campo studenti delle giovani generazioni1 5 • Licklider aveva condotto Sutherland ad assistere a dimostrazioni dove si poteva interagire con un computer e muovere immagini grafiche sullo schermo. Gli aveva parlato di «time-sharing», la divisione del tempo, un nuovo approccio all'uso dei computer che consentiva a molti terminali diversi di sfruttare la capacità di elaborazione di una singola grande macchina. Licklider aveva creato le premesse, ma colui che propose per primo all' ARPA di avviare un progetto importante di collegamento di reti fu Bob Taylor, capo dell'IPTO dalla fine del 1965. La sua motivazione era puramente pratica. Il dipartimento della Difesa era il piu grande acquirente al mondo di macchine informatiche e la stessa ARPA finanziava l'installazione di grossi computer nei centri
FASE
I.
LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
di ricerca di tutto il paese. Eppure le incompatibilità tra le numerose varietà di computer acquistati impedivano loro di comunicare l'uno con l'altro, facendo lievitare enormemente i costi a causa dell'inutile acquisto di doppioni di apparecchiature. Nell'ufficio di Taylor c'erano tre terminali di elaboratori separati e incompatibili collegati a computer in diversi centri finanziati dall' ARPA. Con un discorsetto di venti minuti Taylor propose al direttore dell' ARPA, Charlie Herzfeld, la soluzione del problema del raddoppio e dell'isolamenta16. La proposta era semplice: l' ARPA doveva finanziare un progetto che cercasse di connettere insieme un numero ridotto di computer e realizzare una rete tramite la quale i ricercatori che l'usassero potessero collaborare. Se la rete avesse funzionato, non solo avrebbe fatto siche computer diversi comunicassero ma avrebbe anche consentito ai ricercatori di un centro di usare da lontano i programmi dei computer di altri centri, contribuendo cosi a diminuire i costi dell' ARPA 17 . La rete descritta da Taylor sarebbe diventata nota successivamente come ARPANET, Herzfeld, il quale era già stato convinto da Licklider che «l'uso dei computer era una delle novità realmente stimolanti che stavano accadendo», assegnò immediatamente dei fondi al progetto 18 • Nel dicembre 1966, Bob Taylor assunse un giovane ricercatore, Lawrence Roberts, per dirigere il progetto come primo scienziato dell'rPTO. Il nuovo arrivato aveva lavorato a problemi di comunicazione tra computer 19 e aveva condotto, l'anno precedente, un esperimento di collegamento tra un elaboratore a Boston e un altro in California20 • Sebbene all'inizio Roberts fosse riluttante a lavorare per l'agenzia, Taylor riusci nel suo intento facendo pesare i finanziamenti dell' ARPA al Lincoln Laboratory affinché il laboratorio inducesse il nuovo assunto a entrare nell' ARPA. All'inizio del 1967, Lawrence Roberts incontrò i principali studiosi dei vari centri di ricerca finanziati dall' ARPA, disseminati in tutti gli Stati Uniti, per informarli sulla proposta di esperimento di rete. Per quanto possa sembrare straordinario retrospettivamente, l'assemblea dei capi della ricerca informatica non dimostrò entusiasmo per il progetto di collegamento in rete che Roberts aveva descritto poiché si trattava di una entità sconosciuta e i piu non riuscivano a immaginarne i vantaggi. Inoltre si preoccupavano dei contributi che il progetto avrebbe prelevato dalle loro risorse informatiche se queste fossero state condivise attraverso la rete. Roberts assunse una linea dura, annunciando ai ricercatori che l' ARPA
I
.'ESPERIMENTO MILITARE intende costruire una rete e voi ne farete parte collegandovi con le vostre apparecchiature ... Non vi acquisteremo nuovi computer finché non avrete esaurito tutte le risorse della rete21 •
Wesley Clark, uno dei padri dei minicomputer 22 , suggeri una soluzione che placò in parte i ricercatori. L'ARPA avrebbe acquistalo un minicomputer da installare in ogni centro connesso perché servisse da anello intermedio tra la rete dell' ARPA e il calcolatore del centro (denominato computer «host», ospite, in gergo informatico). Queste macchine intermediarie si sarebbero chiamate «Interface Message Processors» (IMPS). Gli IMPS dedicati in ogni sitci avrebbero alleggerito il computer host del peso della funzione di elaborazione. Prima che Clark avanzasse questa proposta, Roberts aveva a quanto pare preso in considerazione l'uso di un computer centrale, situato in Nebraska, per controllare ARPANET, il che avrebbe presumibilmente affossato la caratteristica fondamentale della futura Internet, la decentralizzazione23 • Risulta poco chiaro nella documentazione storica in che misura le idee di Paul Baran influissero sul progetto dell' ARPA. Sembra che Roberts sia rimasto all'oscuro della teoria di Baran, di una rete a commutazione di pacchetto randomizzata, fino all'ottobre 1967 quando trovò il nome di Baran citato in un contributo di Roger Scantlebury, capo della ricerca sulla comunicazione di dati al N ational Physics Laboratory (NPL) del Regno Unito, a un congresso a Gatlinburg, nel Tennessee 24 • Baran fu consultato il mese successivo 25 e Roberts accreditò al suo lavoro il merito di fornire un «sostegno»26 soltanto teorico piu che pratico. La cronologia dei fatti, cosi come è presentata sul sito di Roberts, è esplicita a questo riguardo: «il lavoro della RAND non ebbe un impatto significativo sui programmi dell'ARPA e sulla storia di Internet» 27 • Per fare chiarezza fino in fondo è opportuno comunque notare che Roberts scrisse al direttore dell' ARPA a metà del 1968 dicendo che il progetto di ARPANET avrebbe collaudato «una forma organizzativa delle comunicazioni raccomandata in uno studio della RAND Corporation sulla rete digitale distribuita» 28 • Inoltre Baran ricorda di avere conosciuto in realtà Roberts nel febbraio 1967, molti mesi prima dell'indicazione data da Roberts 29 • Quest'ultimo fu anche influenzato da qualche altro ricercatore nel campo delle reti e dell'informatica, tra cui Leonard Kleinrock il quale aveva scritto la tesi di dottorato su come i dati potessero fluire con la massima efficacia attraverso una rete. Kleinrock aveva pensato inizialmente che la sua ricerca avrebbe trovato applicazione nel campo dei « sistemi
26
FASE
I.
LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
postali, telegrafici e di comunicazione satellitare» 30 • Pur non conoscendo il lavoro, fatto a scopo militare, di Paul Baran sulla rete distribuita, Kleinrock elaborò molti dei principi di commutazione di pacchetto necessari per implementare tale rete. Anche l'NPL del Regno Unito contribui con delle idee. Al congresso di Gatlinburg del 1967, Scantlebury, oltre ad aver informato Roberts sul lavoro di Baran, lo aveva anche messo al corrente del lavoro pratico che l'NPL aveva fatto sulla rete a commutazione di pacchetto sotto la guida di Donald Davies. Soltanto l'anno precedente la squadra del laboratorio era venuta a conoscenza del lavoro parallelo di Baran sulla rete a commutazione di pacchetto, allertati da un collega del ministero della Difesa britannico. Tuttavia i finanziamenti messi a disposizione in Gran Bretagna per sviluppare l'idea furono ben pochi a confronto con lo sforzo compiuto dagli Stati Uniti nei decenni seguenti. Come ricordò Roberts, l'NPL «aveva le idee ma non i soldi» 31 • Trovare finanziamenti era comunque un problema. Nonostante la pubblicità positiva che accompagnò la creazione dell' ARPA, l'istituzione della NASA, avvenuta poco tempo dopo, sottrasse all'agenzia molti dei suoi progetti piu prestigiosi e ne ridusse drasticamente il bilancio preventivo 32 • Tra il 1961 e il 1963, i'ARPA cercò nuove fonti di finanziamento conquistandosi la fama di sponsorizzare la _ricerca di eccellenza e ad alto rischio. Da allora in poi l'agenzia fu accettata piu favorevolmente dal ministero della Difesa e quando Charlie Herzfeld ne ricopri il ruolo di direttore, nel 1965-67, I' ARPA raggiunse il massimo prestigio all'interno dell'amministrazione della difesa - ma a quel punto iniziò anche un nuovo declino delle sue fortune poiché il Vietnam cominciava ad assorbire le risorse americane. Nell'ARPA, tuttavia, il finanziamento di nuovi progetti continuava a godere della massima libertà dai lacci e laccioli della burocrazia. Come dichiarò Herzfeld, «I' ARPA era l'unico ente in città dove qualcuno poteva venire nel mio ufficio a presentare una buona idea e andarsene con un milione di dollari a disposizione alla fine della giornata» 33 • Un imprenditore che lavorò per J\RPANET commentò che fu I' ARPA con «la sua generosa visione di sovvenzionamento della ricerca ... a consentire a Internet di svilupparsi cosi come fece» 34 • Ma la notevole libertà d'azione di cui godeva i'ARPA non era illimitata. Lawrence Roberts ricorda che nella seconda metà degli anni Sessanta i finanziamenti dell' ARPA erano flessibili al punto da essere esonerati da controlli o messi da parte quando l'agenzia affrontava una supervisione del Congresso: «I progetti
!.'ESPERIMENTO MILITARE
27
erano presentati in qualunque categoria fosse utile assegnarli e io li spostavo avanti e indietro a seconda del favore che avrebbero incontrato nel Congresso»'5 • Nel 1968 un nuovo direttore dell'agenzia, Eberhardt Rechtin, firmò un progetto per la costruzione iniziale di una rete a quattro nodi che avrebbe collegato tra loro i computer dello Stanford Research Institute (SRI), dell'Università della California (uc) a Santa Barbara, dell'Università della California a Los Angeles (UCLA) e dell'Università dello Utah, a un costo di 563 ooo dollari}6. Questo primo progetto avrebbe dimostrato se una rete piu estesa a piu nodi avrebbe funzionato. L'obiettivo esplicito del programma era essenzialmente lo stesso che Bob Taylor aveva proposto originariamente l'anno precedente: L'installazione di una rete efficiente che colleghi questi [centri di ricerca] dovrebbe ridurre la duplicazione in modo sostanziale e migliorare il trasferimento di risultati scientifici oltre che sviluppare le tecniche di rete necessarie ali' amministrazione mili tare".
Il 3 giugno 1968, I' ARPA bandi una gara di appalto per la costruzione del modello di collaudo di una «rete informatica con condivisione di risorse». Una piccola impresa, la Bolt, Beranek e Newman (BBN), presentò la proposta vincente. In origine la BEN aveva iniziato la sua attività nel campo informatico grazie nientemeno che a J. C. R. Licklider il quale era stato vicepresidente della società per un certo periodo, prima del suo incarico all' ARPA. A guidare la squadra vincente della BBN c'era un ingegnere di nome Frank Heart che riassumeva il suo approccio in queste parole: «Assumi gli esperti migliori in assoluto e in numero ridotto, dimodoché tutti sappiano quello che tutti stanno facendo»' 8 • La squadra includeva figure che avrebbero avuto ruoli chiave nel futuro della rete e dell'informatica, tra cui Severo Ornstein, Will Crowther, Dave Walden e Robert Kahn. I componenti della squadra di Heart erano liberi di comportarsi in modo eccentrico, lavorando per ore e ore in uffici rudimentali con scrivanie ricavate da porte di legno a cui erano state inchiodate le gambe' 9 • I sistemi a cui lavoravano non erano mai stati provati e le tecnologie erano teoriche al punto che molti, al di fuori del progetto, non credevano che avrebbero funzionato 40 • La IBM aveva detto che una rete del genere non poteva essere costruita in realtà se non a un costo enorme 41 • Infatti anche la BEN si era protetta dai rischi segnalando nella loro proposta: «riteniamo che sarà molto difficile far funzionare il sistema»42 •
28
FASE
I.
LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
Ma la BBN non deluse. Il progetto fu realizzato in nove mesi tra la firma del contratto e la consegna delle apparecchiature, anzi con un leggero anticipo e rimanendo nei costi previsti. Il 29 ottobre 1969 alle 22.30, due delle macchine IMP consegnate dalla BBN alla UCLA e allo Stanford Research Institute fecero il loro primo tentativo di comunicare l'una con l'altra a una distanza di 350 miglia di linea telefonica dedicata. Questa fu la_p~ima trasmissione di ARPANET43 • Entro dicembre 1969 il quarto nodo era stato connesso. Entro aprile 1971 la rete si era estesa fino a includere quindici nodi. Tuttavia, sebbene la rete ora collegasse insieme le macchine IMP dei vari centri di ricerca che partecipavano al progetto, queste dovevano servire soltanto come apparecchiature intermediarie tra la rete e i principali computer host di ogni centro di ricerca. Molti centri furono lenti a eseguire gli estesi lavori di ingegneria e di programmazione necessari per collegare le macchine IMP ai loro computer host44, in parte a causa della notevole sfida ingegneristica che ciò comportava e anche perché i vantaggi della rete non erano ancora pienamente apprezzati. In breve, l'uso della rete decollò a rilento. L'ARPA dovette risvegliare l'interesse intorno all'idea della rete e mostrare qualcosa di tangibile. Dal 24 al 26 ottobre 197 2, l' agenzia organizzò una grande dimostrazione all'International Conference on Computer Communication, il Congresso internazionale sulla comunicazione telematica, all'Hilton Hotel di Washington. Un membro della squadra della BBN, Robert Kahn, fu incaricato da Lawrence Roberts di organizzare l'evento. L'allestimento richiese un anno ed era costituito da sessanta terminali di computer disposti in una vasta sala dove i visitatori potevano usarli per connettersi con computer in tutta la nazione tramite ARPANET. Persino i detrattori che visitarono la dimostrazione cominciarono a capire che questa tecnologia a commutazione di pacchetto era qualcosa di reale e pratico45 • Dave Walden, un membro della squadra della BBN che aveva realizzato le macchine IMP, annunciò a una conferenza nel 1975 che ARPANET aveva affossato la «possibilità, fino ad allora preoccupante, che non potessero trovarsi adeguate soluzioni» all'uso delle reti telematiche. «I futuri progettisti della rete possono usare questa tecnologia senza timore di insuccesso» 46 • Ma anche se la rete funzionante dell' ARPA fu una tappa di grande importanza, non era ancora Internet.
I.' !,SPERIMENTO MILITARE
' Soviet fires earth satellite into space; it is circ!ing the globe at rS,ooo mph; sphere trackecl in 4 crossings aver vs e Soviet claiming lead in science, in «The New York Times», 5 ottobre 1957. 2 Red moon aver the vs, in «Time», 14 ottobre 1957. ' Scientists woncler i/ shot nears moon, in «The New York Times», 5 novembre 1957. 4 Deterrence ancl Survival in the Nuc!ear Age, Security Resources Pane! of the Science Advisory Committee (Tavola rotonda del Comitato consultivo scientifico sul tema delle risorse di sicurezza), 7 novembre 1957, p. 22. 'J. F. KENNEDY, discorso al Senato, 14 agosto 1958, in rn., TheStrategy o/Peace, Harper, London 1960, p. 3. 6 Vanguard's a/termath: jeers ancl tears, in «Time», 16 dicembre 1957. 1 vs delay draws scientists /ire, in «The New York Times», 5 ottobre 1957. ' The organisation man, in «Time», 13 gennaio 1958. ' K. HAFNER e M. LYON, Where Wizards Stay Up Late: The Origins o/ the Internet, Pocket Books, London 2003, p. 13. 10 Intervista a L. Roberts di A. L. Norberg, San Francisco, 4 aprile 1989, Charles Babbage Institute, Università del Minnesota. Vedi http://special.lib.umn.edu/cbi/oh/pdf. phtml?id=233 (ultimo accesso 4 settembre 2009), p. 41. 11 Intervista a J. P. Ruina di W. Aspray, 20 aprile 1989, Charles Babbage Institute, Università del Minnesota. Vedi http://www.cbi.umn.edu/oh/pdf.phtml ?id=2 38 (ultimo accesso 18 gennaio 2009), pp. 3, 9. 12 A. L. NORBERG, Changing Computing: The Computing Community and ARPA, in «IEEE Annals of the History of Computing», vol. XVIII, 1996, n. 2, pp. 42, 44. 13 J. c. R. LICKLIDER, Memorandum /or members and affi!iates o/ the intergalactic computer network, 23 aprile 1963. Vedi http://www.packet.cc/filcs/memo.html (ultimo accesso 12 gennaio 2009). 14 L. ROBERTS, The ARPANET and Computer Networks, in Proceedings o/ the Association /or Computing Machinery Con/erence on the Histo1y o/ Pe1wnal Workstations, ACM, New York 1986, p. 51. 15 Intervista a L. Roberts di A. L. Norberg cit., p. 47. 16 K. HAFNEReM. I.YON, Where WizardsStay UpLatecit., pp. 41-42. 11 Ibid., p. 41. 18 Intervista a C. Herzfeld di A. L. Norberg, 6 agosto 1990, Charles Babbage Institute, Università del Minnesota. Vedi http://www.cbi.umn.edu/oh/pdf.phtm 1?id= 149 (ultimo accesso r8 gennaio 2009), p. 16. 1' Intervista a L. Roberts di A. L. Norberg cit., p. 10. 20 L. ROBERTS, Internet Chronology: r960-2oor, 15 dicembre 2007. Vedi http://packet. cc/internet.html (ultimo accesso 1 ° luglio 2009). 21 Intervista a L. Roberts di A. L. Norberg cit., p. 17. 22
lbid.' p. 18.
23
R. TAYLOR a D. FARilER e altri, [IP] more on 35'1' Anniversary o/ the Internet (well the start o/ the Arpanet anyway dj/), 6 ottobre 2004. Vedi http://mail.computerhistory. org/pipermail/inforoots/ 2004-October/oo 1415 .html (ultimo accesso 2 luglio 2009). D. w. DAVIES, K. A. BARTLETT, R. A. SCANTLEBURY e P. T. WILKINSON, A Digita! Communication Network /or Computers Giving Rapid Response at Remote Termina!s, presentazione fatta al Symposium on Operating System Principles dell' ACM (Association for Computing Machinery), Gatlinburg (TN), ottobre 1967. L. Kleinrock a L. Roberts, novembre 1967. Vedi http://ia36o93o.us.archive. org//load_djvu_applet. cgi ?file= 1/i tems/SummaryOfTheRandMeeting/ SummaryOfTheRandMeeting.djvu (ultimo accesso 1° febbraio 2009). L. ROBERTS, The ARPANETand Computer Networks cit., p, 52.
24
25
26
30
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
27 rn., Internet Chronology cit. " L. Roberts a E. Rechtin, Interactive computer network communication system, memorandum del 21 giugno 1968. Vedi http://www.archive.org/details/InteractiveComputerNetworkCommunicationSystem (ultimo accesso 19 aprile 2009), p. r. 29 Intervista a P. Baran di]. E. O'Neill cit. Vedi http://special.lib.umn.edu/cbi/oh/pdf. phtml ?id= 295 (ultimo accesso 3 luglio 2009), p. 3 7. 30 L. KLEINROCK, Information flow in !arge communication nets cit., p. 1. 31 Intervista a L. Roberts di A. L. Norberg cit., p. 4 7. " R. J. BARBER, The Advanced Research Pro;ects Agency, 1958-1974, Washington 1975, pp. 23-27. " Intervista a C. Herzfeld di A. L. Norberg cit., p. 26. 34 L. Kleinrock, e-mail inviata all'autore, 18 aprile 2009. " Intervista a L. Roberts di A. L. Norberg cit., p. 22. " L. Roberts a E. Rechtin, Interactive computer network communication system cit., p. r. 37 Resource sharing computer networks, richiesta di preventivo di spesa da parte dell' ARPA, 3 giugno 1968, p. 4. " Intervista a F. Heart di J. E. O'Neill, 13 marzo 1990, Charles Babbage Institute, Università del Minnesota. Vedi http://www.cbi.umn.edu/oh/pdf.phtml ?id= 144 (ultimo accesso 18 gennaio 2009), p.10. " K. HAFNER e M. LYON, Where Wizards Stay Up Late cit., pp. 94-96. 40 Intervista a F. Heart diJ. E. O'Neill cit., p. 17. 41 K. HAFNER e M. LYON, Where Wizards Stay Up Late cit., p. 80. 42 F. I-IEART e R. KAHN, The Inter/ace Message Processor /or the ARPA Computer Network, risposta della BBN a richiesta di preventivo, n. DAHC15 69 D 0002, pp. 11-2 [1968]. Vedi http://www. archive. org/ de tails/Thein terfaceMessageProcessor For TheArpa Computer Network (ultimo accesso 23 aprile 2009). 43 L. BERANEK, Roots o/ the Internet: A Persona! History, in «Massachusetts Historical Society », voi. II, 2000. Vedi http://www.historycooperative.org/journals/mhr/ 2/ beranek.html (ultimo accesso r 3 gennaio 2009); L. KLEINROCK, The day the infant Internet uttered its first words. Vedi http://www.cs.ucla.edu/-lk/LK/Inet/ 1stmesg.html. 44 Intervista a R. Kahn di]. E. O'Neill, 24 aprile 1990, Charles Babbage Institute, Università del Minnesota, pp. 21-22. 45 Intervista a V. Cerf diJ. E. O'Neill, 24 aprile 1990, Charles Babbage Institute, Università del Minnesota. 46 o. WALDEN, fa:periences in Building, Operating, and Using the ARPA Network, II Conferenza informatica Usa-Giappone, Tokyo, agosto 1975, p. 5.
III.
L'essenza di Internet
Internet è una struttura flessibile di reti connesse ma autonome di calcolatori elettronici ciascuno dei quali, definito «ospite» nel gergo delle interconnessioni, usa un «protocollo» per comunicare con gli altri calcolatori sulla rete. Questi protocolli connettono reti diverse e governano la comunicazione fra tutti i computer su Internet. Oltre a essere fondamentali per il funzionamento della rete, il fatto che i protocolli siano il risultato della straordinaria collaborazione tra i loro ideatori ha rappresentato l'evento formativo di una nuova cultura. Questi protocolli sono l'essenza di Internet nella misura in cui ogni singolo elemento di un tutto lo possa essere. Il modo eccezionale in cui un gruppo di giovani collaboratori sviluppò questi protocolli impostò lo stile del futuro sviluppo della cultura fondata su Internet. A mano a mano che procedevano nel loro lavoro sui protocolli, cominciarono a definire le convenzioni informali che avrebbero caratterizzato la qualità della collaborazione e discussione su Internet da allora in avanti. L'operazione iniziò in una stanza da bagno, nella tarda notte del 7 aprile 1969. Quando la BBN cominciò a costruire le macchine IMP per ARPANET nel 1969, mancava un pezzo importante della rete: il software che avrebbe consentito la comunicazione tra i calcolatori. In quell'anno, degli studenti specializzandi di vari centri universitari finanziati dall' ARPA per conto del dipartimento della Difesa degli Stati Uniti ricevettero l'incarico di elaborare i protocolli mancanti per la comunicazione e crearono informalmente un «gruppo di Iavoro sull'utilizzo della rete». Trovandosi a operare nel vuoto piu totale, gli studenti, connessi ad ARPANET da cui era partita la richiesta di progettazione dei protocolli tecnici nel 1969, cominciarono anche a definire i protocolli informali che avrebbero influenzato in generale le comunicazioni interpersonali su Internet. Essendo incerti sulla loro posizione nella gerarchia del progetto di ARPANET, anno-
32
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
tarano gli appunti sui loro protocolli sotto il titolo di «Richiesta di commenti» (RFC). Steve Cracker, uno specializzando che si era laureato soltanto l'anno precedente alla UCLA, usò l'intestazione «Richiesta di commenti» per allargare il piu possibile l'invito alla partecipazione e minimizzare qualunque pretesa di autorità che la progettazione dei protocolli, un aspetto cosi importante della rete, potesse implicare. Il primo documento degli RFC, che dette l'avvio al mezzo secolo seguente di cultura fondata su Internet e iniziò la definizione dei protocolli che regolano in pratica tutti gli scambi di dati sul pianeta, fu redatto in umili circostanze. Cosi ricorda il suo autore: «Dovevo lavorare nella stanza da bagno per non disturbare gli amici con i quali vivevo e che stavano tutti dormendo>>1. Lo stile di scrittura degli RFC era peculiare2. Cracker era di fatto il capo del gruppetto di sei. Avevano frequentato, lui e altri due componenti del gruppo, lo stesso liceo a Los Angeles, il Van Nuys High, e i tre si stavano specializzando con Leonard Kleinrock (che aveva un contratto con l' ARPA per dirigere il Centro di misurazione della rete alla UCLA). Cracker scrisse un documento in cui esponeva alcune idee generali su come gli studenti potessero scambiarsi idee tramite «promemoria informali provvisori»'. Nel momento stesso in cui scriveva, sentiva incombere pesantemente su di lui la prospettiva della disapprovazione dell'alta gerarchia accademica: Secondo me, stavo suscitando l'ira di qualche prestigioso professore di qualche fantomatica istituzione della East Coast. L'intera faccenda mi faceva perdere il sonno'.
Cracker era impaziente di far partecipare alla progettazione quante piu persone possibile, suoi pari grado: Mantenere aperta l'informazione sull'elaborazione tecnica significava anche mantenere aperta la socializzazione del progetto. Chiunque volesse unirsi al gruppo era benvenuto'.
Vint Cerf, uno dei primi partecipanti al gruppo informale sull'uso della rete (e ora vicepresidente di Google), cosi riassume l'approccio e il contesto: Pensate che i progettisti originali dei protocolli a livello dei computer «host» erano per lo piu studenti specializzandi. Adottammo un atteggiamento umile di invito aperto e uno slogan che Dave Clark sintetizzò infine in «consenso provvisorio e codice funzionante» - il che significa che in realtà non si fa un calcolo esatto dei voti, si cerca soltanto di valutare l'esistenza di un consenso su un'opinione comune all'interno del gruppo per approvare gli standard proposti'.
L'ESSENZA
DI
INTERNET
33 Il documento RFC 3, pubblicato nell'aprile 1969, elaborava le caratteristiche e gli obiettivi degli RFC (notare che in questo testo la parola «host» si riferisce a un computer collegato): Sono due i motivi per cui si fa riferimento esplicito a questi standard (o alla loro mancanza). Primo, si tende ad attribuire a un'affermazione scritta un'immediata autorevolezza, e noi speriamo di promuovere uno scambio e una discussione di idee per nulla autorevoli. Secondo, c'è una naturale esitazione a pubblicare uno scritto in uno stile non raffinato, e noi speriamo di rimuovere questo blocco'.
L'RFC 3 continua in questa(vena,_antigerarchica, affermando il principio che nessun testo dovrebbe essere considerato autqrevQle e che non esiste ùnà versione corretta definitiva. Questo è un elemento di cardinale importanza della « beta perpetua» descritta nella prossima sezione. Era anche implicito che l'autorevolezza derivasse dal merito piu che da una gerarchia fissa. L'RFC di Crocker, sebbene scritto in circostanze modeste, introdusse il tono aperto e invitante della cultura di Internet del futuro mezzo secolo e diede inizio al processo di elaborazione della definizione dei protocolli che regolano di fatto tutti gli scambi di dati sul pianeta. Dopo l'RFC di Crocker ne sono stati pubblicati altri seimila circa che mantengono un approccio aperto e collaborativo tra i circoli di tecnici di Internet. Un tipico esempio della meritocrazia degli RFC fu una generazione di programmatori disonesti del MIT attivi tra gli ultimi anni Cinquanta e la fine degli anni Sessanta, che a loro volta crearono la cultura degli «hacker», i pirati informatici che ebbero molta influenza su ciò che segui. Il primo risultato delle fatiche degli specializzandi fu l'NcP, i protocolli di controllo della rete che regolavano le comunicazioni tra i computer su Internet. Tuttavia l'NCP fu semplicemente il primo software che consenti le comunicazioni su ARPANET. Un protocollo «funzionante su Internet», che potesse connettere insieme macchine e reti diverse doveva ancora venire.
Reti per via radio e satellitare. San Francisco è continuamente presente nella storia dell'era digitale mentre si presta poca attenzione a uno dei luoghi considerati pietre miliari: un pub di nome Zott's. Il locale (battezzato «Locanda alpina» a partire dalla metà degli anni Cinquanta) è una piccola taverna rivestita di pannelli di legno, un punto sto-
34
FASE
I.
LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
rico importante per gli sfaccendati della Silicon Valley. Fondata da Felix Buelna, un messicano arrivato a Santa Clara sulla scia della febbre dell'oro quando l'area si popolò di aspiranti cercatori a metà del 1800, la locanda era stata costruita lungo una pista usata da allevatori di bestiame e da coloni per raggiungere la costa. Il locale divenne una bisca frequentata da una clientela pittoresca e passò dall'uno all'altro di «una lunga serie di bizzarri proprietari»8, secondo la descrizione fatta nella rilevazione ufficiale del National Park Service degli Stati Uniti. Tra i clienti abituali negli anni Ottanta dell'Ottocento c'erano i lavoratori edili assunti per la costruzione dell'Università di Stanford la quale, con i suoi imprenditori e le sue tecnologie, avrebbe dato il via al boom delle imprese dot-com un secolo dopo. La locanda divenne anche il ritrovo fisso degli studenti della nuova università. Nel 1908 i giornalisti dello « Stanford Sequoia» strigliarono i giovani per la loro condotta sregolata, dicendo che il corpo studentesco «si era mostrato al mondo come una comunità di tanti ubriaco-. ni» 9 • Nel gennaio dell'anno successivo, il rettore dell'università scrisse contrariato agli amministratori della contea per chiedere che al locale non fosse rinnovata la licenza di vendita di alcolici poiché era un luogo «oltremodo ignobile, anche per un posto di ristoro, un gran danno per l'università e una vergogna per il San Mateo County» 10 • Eppure la modesta costruzione di legno rimase un punto di riferimento per tutto il xx secolo mentre l'industria digitale gli si sviluppava intorno. All'inizio del 2001 il suo parcheggio accoglieva le costose auto sportive dei giovani milionari della Silicon Valley 11 • Fu dunque appropriato che Zott's, oltre un secolo dopo la sua edificazione, diventasse il palcoscenico di un importante evento nella storia di Internet. Il 27 agosto 1976 un furgone parcheggiò nel giardino del bar di Zott's per eseguire una parte dell'esperimento dello Stanford Research Institute, condotto sotto contratto con l' ARPA, per l'invio di pacchetti via radio. Il gruppo dello SRI prese un terminale di computer dal furgone e lo sistemò su un tavolo di legno nel giardino. Un cavo collegava il terminale al furgone dove un' apparecchiatura radio stabiliva una connessione con la nuova rete a commutazione di pacchetto via radio dell'ARPA, PRNET, che a sua volta era connessa ad ARPANET. La squadra che si trovava da Zott's inviò un messaggio dal termin,,ale a PRNET e di lf a una macchina remota connessa con ARPANET. Questo fu uno degli eventi piu importanti che abbiano mai avuto luogo nel giardino di un bar: era la prima
l.'1·:SSENZA DI INTERNET
35
trasmissione in assoluto di pacchetti di dati fra due reti usando i] nuovo protocollo «Internet» 12 • Le scoperte che resero possibile questa trasmissione derivavano da un precedente progetto dell'Università delle Hawaii del 1970. Norman Abramson, professore di ingegneria elettrica e di informatica, si era trovato ad aver a che fare con una grossa difficoltà, volendo collegare in rete le sette sedi dell'Università delle Hawaii. I problemi erano tre. Primo, i campus erano fisicamente dislocati su quattro isole. Secondo, le linee telefoniche dedicate che connet1evano i centri di ARPANET l'uno all'altro erano troppo costosi per il suo budget. Terzo, la qualità del sistema telefonico hawaiiano era troppo scadente per poter trasmettere dati in rete. Abramson decise che la risposta era l'uso della radio. Quindi dal 1970 l' ARPA cominciò a finanziare il tentativo di Abramson di sviluppare una rete a trasmissione di pacchetti via radio. I segnali radio viaggiano in modo diverso dai segnali elettrici 1rasmessi sulle linee telefoniche. Mentre i segnali telefonici viaggiano da punto a punto in una sequenza ordinata, la radio trasmette in modo indiscriminato a tutti i riceventi all'interno del raggio di trasmissione. I segnali trasmessi nello stesso momento da nodi diversi a un destinatario possono entrare in collisione ed essere distrutti, ma il gruppo di Abramson trovò un'elegante soluzione a questo problema: quando un qualunque nodo inviava un pacchetto ma il nodo ricevente non inviava conferma che fosse arrivato a destinazione, il primo nodo avrebbe rinviato il messaggio dopo aver atteso un periodo di tempo di durata casuale. Poiché tutti i nodi avrebbero atteso per un periodo casuale prima di rispedire, le probabilità che le collisioni si ripetessero erano minime. Quindi la rete si sarebbe rapidamente autocorretta qualora i pacchetti fossero andati perduti. Usando questo metodo, la squadra di Abramson costrui una rete funzionante, battezzata AlohaNet, che connetteva le sedi dell'Università delle Hawaii tra di loro e ad ARPANET. Questo modo di ovviare alle collisioni tra messaggi fu chiamato «metodo Aloha» e I' ARPA lo copiò per costruire la propria rete a trasmissione di pacchetti via radio, PRNETu. La scoperta del metodo Aloha per reti a trasmissione di pacchetti via radio fu particolarmente tempestiva poiché il contesto politico con cui I' ARPA aveva a che fare era diventato un po' piu sfavorevole. Nel 1969, Mike Mansfield, capo della maggioranza al Senato, aveva annunciato l'intenzione di tagliare 400 milioni di dollari dal budget destinato alla ricerca per la difesa 14 , ed era l'autore della Se-
36
FASE
I.
LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
zione 203 del Military Procurement Authorization Act (Decreto di autorizzazione agli approvvigionamenti militari) per l'anno fiscale 1970, denominato «Emendamento Mansfield», che imponeva che tutte le ricerche sovvenzionate avessero un «rapporto diretto ed evidente con uno specifico scopo o operazione militare». La trasmissione di pacchetti via radio era appunto quel tipo di progetto. La potenza dei massicci e costosi computer mainframe poteva essere trasmessa sul campo di battaglia su reti via radio, via cavo e, come l'ARPA stava cominciando a dimostrare, via satellite 15 • Il lancio dello Sputnik nell'ottobre 1957 aveva costretto gli Stati Uniti ad accelerare clamorosamente il programma spaziale. Explorer I fu il primo satellite statunitense che riusci a entrare in orbita con successo il 31 gennaio 1958. Entro gli anni Settanta il programma spaziale aveva fatto notevoli progressi. Ad esempio, tra il gennaio 1971 e il maggio 1975 fu lanciata da Cape Canaveral una serie di satelliti commerciali di telecomunicazioni « Intelsat IV», ciascuno dei quali era quaranta volte piu pesante dell'Explorer !1 6 • Tuttavia, anche se era stata la corsa spaziale a sollecitare questa accelerazione tecnologica satellitare degli Stati Uniti, fu la corsa agli armamenti nucleari a creare in parte le condizioni perché ARPANET si connettesse al suo primo nodo internazionale satellitare. Nel 1957 gli Stati Uniti avevano condotto il test «Rainier», la prima esplosione nucleare sotterranea. Questa fu avvertita da stazioni sismiche di tutto il mondo, dimostrando la validità della sismologia nella rilevazione di esperimenti nucleari 11 • Il trattato sulla messa al bando parziale dei test del 1963 bandi i test nucleari all'aperto a favore di quelli sotterranei, piu sicuri, e rese estremamente importante una rapida elaborazione dei dati sismici. Nel 1968 gli Stati Uniti e la Norvegia strinsero un accordo di collaborazione per costruire un grande centro di rilevamento sismico a Kjeller, vicino a Oslo. La stazione, ultimata nel 1970 e battezzata NORSAR, cominciò a inviare dati al Centro di analisi di dati sismici in Virginia tramite la stazione satellitare Nordic situata a Tanum, in Svezia18 • L'ARPA decise di sfruttare il collegamento satellitare originale di N0RSAR;. collegando il centro N0RSAR ad ARPANET19 nel giugno 1973. Lo University College di Londra (ucL) fu collegato ad ARPANET il mese seguente tramite una linea terrestre di collegamento con N0RSAR 20 • La connessione con ARPANET all'ucL fu usata da ricercatori di tutta la Gran Bretagna che lavoravano su argomenti diversi tra cui la progettazione computerizzata e l' analisi delle reti2 1 •
L'ESSENZA
DI
INTERNET
37
L'interesse internazionale per la rete a commutazione di pacchetto stava crescendo e Robert Kahn, che ora lavorava all' ARPA, era convinto che la rete satellitare fosse in grado di reggere la connessione tra le reti statunitensi e quelle internazionali22 • L'ARPA cominciò a esaminare la possibilità di creare una rete satellitare atlantica. Nel 1974 le Poste del Regno Unito diedero il loro assenso per coprire i costi per la parte britannica di una connessione satellitare con gli Stati Uniti, e nel settembre 1975 l'ARPA iniziò SATNET, il programma di collegamento atlantico tramite reti, appoggiandosi negli Stati Uniti e in Gran Bretagna alle stazioni terrestri dei satelliti commerciali Intelsat IV. Verso la fine del 1977 anche il ministero della Difesa norvegese si collegò tramite una stazione terrestre indipendente a Tanum. Entro il 1979 l'accesso in Gran Bretagna ad ARPANET fu fornito quasi esclusivamente tramite SATNET. La connessione terrestre via Tanum fu eliminata alla fine dell'anno. Quindi entro la metà degli anni Settanta l' ARPA aveva costruito tre reti funzionanti: f.\RPANET, PRNET e SATNET via cavo, via radio e via satellite. Ora restava da connettere in rete le diverse reti. Entro il 1973 fu richiesto un nuovo protocollo per creare un'Internet di collegamento fra ARPANET, PRNET e SATNET. Dopo aver organizzato la Conferenza internazionale sulla comunicazione computerizzata in cui ARPANET era stata presentata a Washington, Robert Kahn era entrato a far parte dell' ARPA (ora ribattezzata DARPA) dove, seguendo alcuni progetti non correlati, riprese il suo lavoro su una rete di comunicazione basata sulla commutazione di pacchetto. Nella primavera del 1973, contattò Vint Cerf, del gruppo di specializzandi che avevano elaborato il protocollo NCP per ARPANET, per spiegargli la necessità di un nuovo protocollo adatto a una connessione tra reti che consentisse ai computer di comunicare insieme tramite reti via cavo, via radio e via satellite23 • Cerf aveva appena ricevuto un incarico di insegnamento all'Università di Stanford e tenne una serie di seminari per districare il problema. Mise insieme un numero di ricercatori che in seguito avrebbero occupato delle posizioni chiave nell'industria delle reti di telecomunicazioni e nell'industria informatica. Tra i partecipanti c'era Robert Metcalfe, del Centro di ricerca di Palo Alto (PARC) della Xerox, e Gérad Le Lann, che si trovava per un periodo sabbatico al laboratorio di Cerf e che aveva lavorato alla rete Cicladi, il progetto francese di una rete a commutazione di pacchetto. Il gruppo
38
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
di Cerf mantenne un atteggiamento aperto invitando la partecipazione dall'esterno e continuando a pubblicare i documenti RFC. I ricercatori furono influenzati dall'esempio della Cicladi dove era stato adottato un approccio centrifugo in cui la trasmissione dati non era regolata dalle apparecchiature della rete di collegamento bensi dai computer periferici che inviavano e ricevevano i dati24. Robert Metcalfe stava lavorando a qualcosa di analogo a Xerox PAR.e, dove era stato appena presentato un nuovo computer rivoluzionario, battezzato Alto, che aveva un mouse, un display grafico, un desktop e un sistema di finestre e cartelle per archiviare i documenti. Questa macchina anticipava il futuro di almeno vent'anni e rappresentava un modello di cambiamento nell'uso dell'informatica che i dirigenti della Xerox, clamorosamente, non seppero capitalizzare25 • Metcalfe stava lavorando a un network per collegare i molti computer Alto di un ufficio e stava sviluppando la tecnologia « E thernet » per una rete di area locale (LAN). Spazientiti dall'approccio del consenso provvisorio adottato da Cerf, Le Lann e altri, decisero di procedere per conto proprio. Nel 1973, Metcalfe aveva perfezionato il metodo hawaiiano Aloha nella sua tesi di dottorato e ora applicò quei miglioramenti matematici all'elaborazione di un sistema chiamato informalmente\Alto Aloha che divenne noto come PUP 26 .' PUP adottò lo stesso approccio centrifugo di datagrammi della Cicladi. Il suo network era senza cervello e consisteva in realtà in un semplice sistema di cavi. A differenza di ARPANET, dove le macchine IMP controllavano molte funzioni dell'interconnessione, la rete PUP non aveva la capacità di controllare la trasmissione o il flusso dei dati, né di verificare la consegna né di ritrasmettere i pacchetti perduti o consegnati parzialmente. Erano invece i protocolli del software installato sui computer ospiti che controllavano la rete. Cosi osservava un successivo memorandum di PAR.e sui dati caratteristici di PUP: La comunicazione PUP avviene da punto-a-punto a livello di pacchetto. L'interconnessione di reti è richiesta solo per poter trasportare dalla fonte a destinazione i PUP indirizzati autonomamente. Per l'uso dei livelli piu alti di protocollo sono esclusivamente responsabili i processi che avvengono nella fase terminale della comunicazione".
Quindi il controllo sul funzionamento del network era trasferito dall'infrastruttura di collegamento alle apparecchiature che facevano concretamente parte della rete. Si trattava di un approccio centrifugo che corrispondeva ai reqùisiti della connessione di reti che i'ARPA aveva in mente.
L'ESSENZA DI INTERNET
39
L'NCP che controllava le comunicazioni sulla linea terrestre originale di ARPANET non era adatto a reti via radio e satellitari. Invece un nuovo protocollo per l'interconnessione delle reti avrebbe assegnato a ciascun computer ospite una responsabilità molto maggiore sul controllo della rete. Il nuovo protocollo, funzionante su ogni computer ospite connesso alla rete, non solo avrebbe creat_o connessioni tra gli ospiti, ma avrebbe eseguito i compiti che prima erano stati affidati agli ÙVIP dedicati: vèrificare che la consegna dei pacchetti andasse a buon Hne, ritrasmetterli laddove fosse necessario e controllare l'andamento del flusso dati. In poche parole, per far si che i dati fluissero attraverso un'architettura di rete che includeva connessioni di tipo terrestre, satellitare e radio, un nuovo protocollo avrebbe dovuto avere un approccio molto piu flessibile al controllo della comunicazione. Nel maggio 1974, Cerf e Kahn pubblicarono un abbozzo del nuovo protocollo di controllo di trasmissione (TcP):
Un protocollo semplice ma molto potente e flessibile che tiene conto delle variazioni di ogni singolo pacchetto in rete in rapporto alle sue dimensioni, alla mancata trasmissione, alla sequenzialità [e] al controllo del flusso 28 •
Questo protocollo operativo su un'interconnessione di reti è, in senso tecnico, l'essenza di Internet e nelle sue priorità e funzioni si evidenziano le caratteristiche fondamentali del nuovo mezzo. Il TCP è centrifugo per necessità, come osserva uno dei suoi progettisti: Volevamo il minimo possibile al centro. Tra le altre ragioni, sapevamo benissimo che è molto piti facile scalare un sistema che non abbia strozzature nel mezzo".
L'entusiasmo per l'approccio centrifugo che si affidava ai computer host abbandonando gli IMP può essere dovuto in parte a motivi sociali piu che tecnici. Gli apparecchi IMP, che connettevano ARPANET ai computer host di ogni centro incluso sulla rete, erano controllati dalla BBN, il principale fornitore dell' ARPA, il che dava alla BBN il controllo sulla rete stessa. Dai loro uffici centrali gli ingegneri della BBN erano in grado di eseguire a distanza aggiornamenti e riparazioni e di monitorare l'uso degli IMP su tutta la rete. Sempre di piu i ricercatori preferivano l'idea di una rete senza cervello controllata da una comunità di computer che usavano un protocollo comune senza che gli IMP si frapponessero tra l'host e il network> 0 • Ironicamente queste macchine erano state introdotte in origine nel r 969 non per controllare la rete ma per convincere i ricercatori finanziati dall' ARPA che la connessione ad ARPANET
FASE
I.
LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
non avrebbe costituito un fardello sulla potenza di elaborazione dei loro computer host. La tendenza a rimuovere gli IMP soltanto a cinque anni di distanza era l'indicazione di quanta strada avesse fatto l'uso del network. Mentre per la rete originale decentralizzata di Paul Baran la capacità di sopravvivenza era messa al di sopra di ogni altra considerazione, per il TCP la robustezza era prioritaria sull'affidabilità e il controllo. La preoècupazione per la fatturazione e la contabilità delle entrate, che sarebbe stata in cima ai pensieri dei progettisti commerciali, era invece del tutto assente dal protocollo dell' ARPA operativo su Internet3 1 • Il TCP era anche eterogeneo per natura. Era progettato in modo che macchine su reti diverse impostate su tecnologie diverse potessero comunicare senza difficoltà come se fossero sulla stessa rete. Varie reti erano connesse tramite apparecchiature chiamate «gateway» che tenevano elenchi di instradamentò con gli indirizzi dei computer sulle proprie reti loca!i. Il TCP subi riumero-se revisioni e, dopo una riunione nel gennaio 1978 tra Cerf e due ricercatori, Jon Poste! e Danny Cohen, alla Università della California del Sud, fu diviso in due parti per ottimizzare le funzioni dei computer gateway. Il TCP sarebbe stato applicato alle comunicazioni tra computer mentre un ulteriore protocollo di Internet (IP) sarebbe stato operativo per le connessioni Internet tra reti. La combinazione di TCP e IP avrebbe evitato che i computer gateway ripetessero le funzioni già espletate dai computer host all'interno delle reti locali. Restava solo da assicurarsi che la struttura di Internet funzionasse concretamente nelle condizioni reali mondiali. Cerf, che era entrato a far parte dell'ARPA nel 1976, supervisionò una serie di collaudi pratici del funzionamento di Internet. Il 22 novembre 1977 ebbe luogo un test particolarmente ambizioso. Mentre il furgone dello SRI attrezzato per la radiotrasmissione di pacchetti viaggiava su un'autostrada della California, la sua apparecchiatura radio trasmetteva pacchetti di dati tramite PRNET a una macchina gateway connessa ad ARPANET. Dopo aver attraversato ARPANET via cavo, i pacchetti inviati dal furgone raggiunsero una macchina gateway sulla East Coast degli Stati Uniti che era connessa a SATNET. Di qui i pacchetti furono trasmessi via satellite a Goonhilly Downs nel Regno Unito e infine ritrasmessi in California tramite ARPANET. Per monitorare la fedeltà della trasmissione in rete, nel furgone c'era uno schermo su cui apparivano monoscopi generati dalla ricezione dei dati. Se vi erano errori di trasmissione, questi sarebbero stati immediatamente rivelati dalle alterazioni nel
L'ESSENZA DI INTERNET
41
monoscopio. Ma il sistema funzionò cosi bene che ogni volta che il segnale era bloccato da ponti o altri oggetti che le onde radio del furgone non riuscivano a penetrare, il monoscopio si interrompeva soltanto e poi riappariva al ritorno del segnale. Non ci furono errori32 • Questo test fu condotto su tre reti e due continenti. Cerf ricorda, «i pacchetti viaggiarono per 94 ooo miglia andata e ritorno ... Neanche un bit andò perduto! »33 • Fu fatta un'altra prova trasportando dei computer connessi in rete su un velivolo del Comando aereo strategico per simulare condizioni di guerra in cui le trasmissioni di pacchetti via radio sul campo di battaglia potevano comunicare tra di loro e a terra usando sistemi aviotrasportati per ricucire insieme frammenti di Internet che erano stati spezzettati da un attacco nucleare'4.
Ecco la prova che era possibile stabilire un'interconnessione tra reti radio, satellitari e terrestri su tutto il globo e in circostanze avverse. Un osservatore ottimista avrebbe potuto pensare che ora, dopo le prove offerte, le compagnie telefoniche avrebbero abbracciato il protocollo TCP/IP e diffuso Internet tra le masse. Invece l'industria della telefonia si affrettò a sviluppare i propri standard, ansiosa di mantenere il controllo centrale rispetto alla rete. La differenza dei protocolli TCP/IP di Internet dall'alternativa presentata dalle compagnie telefoniche e il fatto che alla fine ebbero la meglio su queste ultime la dice lunga sulle caratteristiche di Internet e sulla natura delle imprese che si rivelano piu adatte a prosperare sulla rete.
L'idea centrifuga la vince su quella centripeta (TCP e x.25 a confronto). I tentativi dell' ARPA di utilizzare la rete erano, come già quelli precedenti della RAND, in totale disaccordo con l'ethos dell'industria telefonica. I motivi di questo conflitto affondavano nelle origini stesse dell'industria. Nel 1877 Alexander Graham Bell ottenne un secondo brevetto per il telefono e fondò la Bell T elephone Company. Per un breve periodo soltanto la Bell Telephone e i suoi concessionari poterono installare legalmente sistemi telefonici negli Stati Uniti. Quando il brevetto giunse a scadenza al termine del 1893, una folla di concorrenti invase il mercato e tra il 1894 e il 1904, oltre 6000 compagnie telefoniche indipendenti divennero operative nel paese35 producendo un duplice effetto: primo, una proliferazione vertiginosa di sistemi telefonici in tutti gli Stati
42
FASE
I.
LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
Uniti, secondo, un guazzabuglio caotico di reti telefoniche incompatibili. Anche se gli abbonati disponevano di un nuovo collegamento telefonico, non erano in grado di comunicare con persone che non usavano il loro stesso sistema. Nella relazione annuale del 1908 dell'AT&T (nome assunto dalla Bell dopo il 1899 quando fu acquisita da una società affiliata, I' AT&T), il presidente della società, Theodore Vail, ammoni che soltanto con un servizio universale e coerente si poteva garantire una telefonia affidabile 36 • La soluzione proposta dall'azienda fu il monopolio e il suo slogan di mercato, diffuso nel 1908, diceva: «una politica, un sistema, un servizio universale» 37 • La tesi di Vail prevalse e nel 1913 l'AT&T divenne un monopolio approvato dal governo in base al regolamento della Commissione federale per le comunicazioni (Fcc). Da allora in poi, il controllo dell' AT&T sulla rete di telecomunicazioni degli Stati Uniti fu cosi assoluto che, fino alla fine degli anni Sessanta, ai cittadini statunitensi era persino proibito apportare qualunque modifica ai loro apparecchi telefonici. Mentre il Bell Labs, centro di ricerca dell'AT&T, era un.a fucina di innovazione, l'azienda non nutriva alcun interesse strategico a trasformare la sua rete essendo fermamente ancorata all'ortodossia del controllo centrale e sapendo per lunga esperienza che le telefonate a commutazione di circuito, la tecnologia brevettata da Alexander Graham Beli negli anni Settanta dell'Ottocento, funzionava cosi com'era. Di conseguenza Paul Baran era stato snobbato a metà degli anni Sessanta quando aveva prospettato ali' AT&T la possibilità di applicare l'idea della rete a commutazione di pacchetto che aveva sviluppato alla RAND. Nel 1968, i'ARPA si aspettava che il successo della dimostrazione di quattro nodi funzionanti in una rete di dati avrebbe convinto una compagnia telefonica che il network digitale aveva dei vantaggi. Il documento del piano originale del progetto ARPANET includeva l'obiettivo ottimistico di utilizzo della tecnologia da parte di un'azienda di servizio pubblico per fornire «la trasmissione digitale di messaggi come servizio a pagamento»38. Ma anche nel 1975, dopo che la validità della teoria era stata dimostrata e la rete distribuita a commutazione di pacchetto era stata collaudata estesamente e con successo, a spese del contribuente, con il nome di ARPANET, l'AT&T rifiutò di approfondire l'idea di Internet. Poco tempo dopo, nella seconda metà degli anni Settanta, le compagnie di telecomunicazioni in Europa, Canada, Giappone e Stati Uniti cominciarono ad apprezzare il potenziale delle reti di-
L'ESSENZA
DI
INTERNET
43
gitali a commutazione di pacchetto e ritennero che non fosse piu opportuno ignorarle. A cavallo tra gli anni Sessanta e Settanta furono installate alcune reti pubbliche di dati, come la Broadband Exchange Service, un servizio di commutazione a banda larga, in Canada nel 196939 , e molte compagnie telefoniche trovarono stimolante la rivoluzione della rete digitale, costrette anche a giungere a questa conclusione dall'industria dei computer. Mentre ARPANET usava degli standard aperti, non di proprietà riservata, a cui le macchine di qualunque costruttore potevano connettersi, i produttori di computer commerciali cominciarono a offrire apparecchiature in esclusiva e reti incompatibili con le macchine fornite dai loro concorrenti. Quindi le compagnie telefoniche non sarebbero state in grado di scegliere i fornitori sulla base di prezzi competitivi se avessero creato una rete usando attrezzature esclusive dell'rnM, della Digita! Equipment Corporation (DEC) o la tecnologia di qualche altro fornitore. Di conseguenza, proprio nella fase in cui si stavano interessando alle reti di dati, le aziende della telefonia temevano di rimanere vincolate alle apparecchiature offerte dai produttori. I giganti delle telecomunicazioni si resero conto che la soluzione era di creare una rete a standard aperti le cui attrezzature potevano essere prodotte da una pluralità di fornitori ma sulle quali avrebbero potuto mantenere il rigido controllo centrale che avevano sempre esercitato sulle reti telefoniche e telegrafiche tradizionali. Sebbene cercassero di evitare una monopolizzazione nella produzione di macchine per il network, molte compagnie telefoniche erano esse stesse dei monopoli. Fuori degli Stati Uniti i servizi di telecomunicazioni erano spesso forniti o da monopoli regolamentati, sul modello dell' AT&T, o da agenzie dei cosiddetti PPTS, ministeri statali delle poste, telegrafo e telefonia, o da compagnie nazionalizzate. All'interno degli Stati Uniti, mentre l'ARPA e i ricercatori da essa sovvenzionati per studiare l'utilizzo della rete stavano mutando rotta nella direzione di un uso multiplo di reti, di controllo decentralizzato e di standard aperti, l' AT&T rimaneva arroccata sulle idee di Vail che avevano contribuito a farne una della maggiori aziende al mondo. Alla fine degli anni Settanta, J. C. R. Licklider aveva avvertito che reti diverse non sarebbero state in grado di comunicare l'una con l'altra a meno che non fossero stati introdotti protocolli standard comuni40 • E questo era infatti ciò che cominciava a verificarsi. Nel periodo dalla metà degli anni Settanta fino alla fine del decennio successivo, che fu di capitale importanza per l'espansione
44
FASE
I.
LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
dell'utilizzo della rete alla fascia pubblica, I' ARPA e i suoi alleati combatterono la guerra degli standard contro l'industria delle telecomunicazioni41. A rappresentare gli interessi dell'industria telefonica c'era il Comitato consultivo internazionale per la telegrafia e telefonia (ccITT), un ente dell'Unione internazionale per le telecomunicazioni (ITU). All'interno del CCITT, un gruppo cominciò nel 1975 a lavorare agli standard e il risultato, il protocollo x.25, fu adottato dal Comitato nel settembre dell'anno seguente. Nonostante cominciassero a rendersi conto che le reti di dati erano un mercato emergente, le compagnie telefoniche non avevano abbracciato completamente l'idea della rete distribuita, che era il nucleo vitale del lavoro di Baran alla RAND all'inizio degli anni Sessanta, né avevano aderito all'approccio dell'ARPA favorevole alla diversità. In primo piano tra le considerazioni di Baran c'era stata l'esigenza di creare una robusta infrastruttura per le comunicazioni usando attrezzature inaffidabili ma ridondanti, autocicatrizzanti. Le compagnie telefoniche erano dell'opinione che le reti digitali, come quelle analogiche per il telefono e il tekgrafo prima di esse, potessero offrire un servizio affidabile soltanto se ogni aspetto della rete fosse stato sotto il controllo della compagnia di gestione 42 • La necessità imperativa dell' ARPA era di consentire «un'ampia gamma di interazioni» tra un vario assortimento di computer incompatibili e di reti che avevano scopi diversi 43 • Mentre il TCP/IP consentiva la diversità, lo standard x.25 richiedeva coerenza e conformità. Al contrario, il TCP/IP, come nella rete francese Cicladi, usava pacchetti di «datagrammi», consistenti in pacchetti semplici, basilari che possono essere combinati a seconda della necessità dai computer host per scalare in piu o in meno il livello di complessità delle loro comunicazioni. Invece x.25 era stato costruito per fornire in tutti i casi - sia che fosse necessario o meno - una comunicazione di alta qualità costante, il che lo rendeva inadatto a molti usi., Questa distinzione tra TCP/IP, che usa i datagrammi, e x.25, che li rifiuta a favore di comunicazioni regolari e rigidamente controllate, era una divisione ideologica44 tra due generazioni di ingegneri, da un lato centripeti e dall'altro centrifughi, e non solo tecnica. Vint Cerf, uno dei maggiori progettisti del TCP, ricorda di avere offerto il TCP/IP al CCITT ma di essere stato respinto perché il protocollo proveniva dal dipartimento della Difesa e perché «pensavano di non poter "vendere" i datagrammi» 45 • Il TCP/ IP non soltanto si adattava a diverse apparecchiature ma anche a differenti tipi di rete. Poteva essere usato all'interno di una rete
L'ESSENZA DI INTERNET
45 o per connettere molte reti o per fare entrambe le cose. Ciò non serviva alle compagnie telefoniche il cui interesse era rivolto alle reti nazionali di dati pubblici. Il vario assortimento di reti di diversa grandezza, le strutture e gli scopi che il TCP/rP era in grado di servire, cosa che infine fece Internet46, stavano al di fuori della loro visione. Secondo Cerf, il TCP/rP «la spuntò alla fine perché era cosi generale» 47 • In definitiva, l'omogeneo x.25, espressione della tendenza centripeta dell'industria telefonica, fu sconfitto dal TCP/ IP, che era l'offerta aperta, diversa e disordinata della comunità dei ricercatori. A mano a mano che il TcP/IP si estendeva a tutto il globo, le comunicazioni cominciarono ad assumere quel carattere centrifugo che in precedenza era stato riservato esclusivamente ai partecipanti di ARPANET. Inoltre emergevano nuove occasioni di creare comunità segrete, amorfe che si stringevano insieme piu per un interesse comune che non per la vicinanza. Il balzo della crescita registrato nella prima fase di Internet alla fine degli anni Ottanta fu dovuto in parte alla capacità del TcP/rP di funzionare sia a livelli molto grandi che molto piccolL un elemento questo che si rivelò di grande fortuna per lo sviluppo di Internet.
s. CR0CKER, How the Internet got its rules, in «The New York Times», 6 aprile 2009; RFC (Richiesta di commenti), 7 aprile 1963. Vedi http://www.ietf.org/rfc/rfcooor. txt (ultimo accesso 21 ottobre 2008). ' J. NAUGHT0N, A Brie/ History o/ the Future: From Radio Days to Internet Years in a Li/e Time, Overlook Press, Woodstock (NY) 2000, pp. 134-35. 3 s. CROCKER, How the Internet got its rules cit. 1
ID.,
4
Ibid.
5
S. Cracker, e-mail all'autore, 19 aprile 2009. V. Cerf, e-mail all'autore, aprile 2009. s. CROCKER, RFC 3, aprile 1969. Vedi http://www.faqs.org/rfcs/rfc3.html (ultimo accesso 23 aprile 2009). Historic American Buildings Suroey, HABS n. CA-2139, febbraio 1983. Editoriale, in «Stanford Sequoia», febbraio 1908, cit. in o. L. ELLIOTT, Stanford University: The First Twenty-five Years, Stanford University Press, New York 1939, p. 387. Ibid., p. 388. s. STAIGER, Echoes o/ Alpine Inn's early days, Palo Alto Online, 24 gennaio 2001. Vedi http://www. paloaltoonline .com/weekly/morgue/spectrum/2001_J an._24. HISTRY 24. html (ultimo accesso 22 aprile 2009). D. NIELS0N, The SRI Van and Computer Internetworking, in «Core», voi. III, febbraio
6 7
8
9
10 11
12
2002, Il. I, 13 14
15
p.
2.
v. CERF, Packet Satellite Technology Re/erence Sources, RFC 829, novembre 1982, p. 1. J. P. MARTINO, Science Funding: Politics and Porkbarrel, Transaction Publishers, New Brunswick (NJ) 1992, p. 143. Intervista a V. Cerf diJ. E. O'Neill cit.
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE 16
Intelsat IV: /i/th generation commercia! communications satellite, Boeing. Vedi http://
www.boeing.com/defense-space/ space/bss/fac tsheets/ 3 76/in telsat_iv/in telsa t_iv. h tml (ultimo accesso 24 aprile 2009). Explorer rand Jupiter-c Data Sheet, Department of Astronautics, National Air and Space Museum, Smithsonian Institution. Vedi http:// history.nasa.gov/sputnik/expinfo.html (ultimo accesso 24 aprile 2009). 17 s. STEIN e M. WYSESSION, An Introduction to Seismology, Earthquakes, and Earth Structure, Blackwell, Malden (MA) 2003, p. 26. 18 NORSAR and the Internet, sito web della NORSAR. Vedi http://www.norsar.no/pc-5-30NORSAR-and-the-Internet.aspx (ultimo accesso 14 agosto 2009); P. KIRSTEIN, Early Experiences with AJIPANET and INTERNET in the UK, 28 luglio 1998. Vedi http://nrg. cs.ucl.ac.uk/mjh/kirstein-arpanet.pdf (ultimo accesso 2 r aprile 2009), pp. 2, 5. 19 V. Cerf, e-mail all'autore, 15 agosto 2009. 20 Ibid.; P. KIRSTEIN, Early experiences with ARPANETand INTERNETcit., p. I. 21 P. KIRSTEIN, UK Experiences with the AllPA Computer Network, in K. G. BEAUCHAMP (a cura di), Exploitation o/ Seismograph Networks, Noordhoff International Publishing, Leiden 1975, pp. 72-74. 22 R. KAIIN, The Introduction o/ Packet Satellite Communications, National Telecommunications Conference, Washington, 27-29 novembre 1979, p. 2. 23 V. CERF, How the Internet came to be, in B. ABOBA (a cura di), The online user's encyclopedia, novembre 199 3. Vedihttp://www.nctvalley.com/archives/mirrors/cerfhow-inet.html (ultimo accesso 9 giugno 2009). 24 L. POUZIN, Presentation and Major Design Aspects o/ the C:YCLADES Computer Network, in Data Communications and Data Networks: Analysis and Design, atti del III Simposio dell'ACM (Association for Computing Machinery), 1973; v. CERF e R. E. KAIIN, A Protocol/or Packet Network Intercommunication, in «IEEE Transactions on Communications», voi. XXII, maggio 1974, n. 5. 25 D. K. SMITII e R. c. ALEXANDER, Fumbling the Future, Morrow, New York 1988. 26 J. AIJIJATE, Inventini the Internet, MIT Press, Cambridge (MA) - London 2000, p. 126. 27 E. TAFT e B. METCALFE, Pup specifications, memorandum interno tra uffici, 30 giugno 1978, p. r. Vedi http://www.bitsavers.org/pdf/xerox/alto/pupSpec.pdf (ultimo accesso 1 ° dicembre 2009). 28 v. CERF e R. E. KAIIN, A Protocol /or Pacl.èel Network Intercommunication cit., p. r 1. 29 S. Crocker, e-mail all'autore, 15 aprile 2009. 30 J. AIJIJATE, Inventini the Internet cit., p. 127, n. 13. 31 D. C:LARK, The Desi/!,n Philosophy o/ the DARl'A Internet Protocols, in «ACM SIGCOMM Computer Communication Rcvicw», voi. XVIII, agosto 1988, n. 4, p. 2. 32 D. NIEI.SON, The SRI Van and Computer Intemetworking cit., p. 4. 33 v. C:ERF, How the Internet Came to Be cit. 34 Intervista a V. Cerf diJ. E. O'Neill cit. " A brief history: origins, AT&T. Vedi http://www.corp.att.com/history/historyr.html (ultimo accesso 15 maggio 2008). 36 Annua! report o/ the directors o/ the american Telephone & Telegraph Company to the stockholders /or the year ending december 3 r, r 908 (Relazione finanziaria per l'anno 1908 dei dirigenti dell'AT&T agli azionisti), p. 21. Vedi http://www.porticus.org/bell/ pdf/1908ATTar_Complete.pdf (ultimo accesso 15 giugno 2008). 37 Slogan pubblicitario della Bell, 1908. Vedi http://www.corp.att.com/history/milestone _1908.html (ultimo accesso 15 maggio 2008). 38 L. Roberts a E. Rechtin, Interactive computer network communication system cit., p. 2. 39 J. R. HALSEY, L. E. r-IARDY e L. F. POWNING, Public Data Networks: Their Evolution, Interfaces, and Status, in «IBM SystemJournal», voi. XVIII, 1979, n. 2, p. 224. ' 0 J. c. R. LICKLIDER, Computers and Government, in M. DERTouzos e J. MOSES, The Computer Age: A Twenty-year View, MIT Press, Cambridge (MA) - London 1980, p. 109. 41 Per un'accurata descrizione, si veda J. AIJIJATE, Inventing the Internet cit., pp. 150-76.
L'ESSENZA DI INTERNET
47
Ibid., pp. I 60-6 I. " Resource sharing computer networks cit., p. r. 44 J. ABBATE, Inventing the Internet cit., p. r6r. 42
45 V. Cerf, e-mail all'autore, r8 aprile 2009. " Si veda, ad esempio, l'aumento esponenziale di connessioni durante il progetto MERIT che consenti al campus e ad altre reti di collegarsi nei primi anni Novanta: MERIT's history: the NSFNETbackbone project, I987-I995. Vedi http://www.livinginternet.com/ doc/merit.edu/phenom.html (ultimo accesso 5 maggio 2009). Per consultare i dati statistici di MERIT, r 0 settembre 1997, vedi http://www.ccwhois.org/ccwhois/cctld/ merit.history .hosts. txt (ultimo accesso 3 maggio 2009). 47 V. Cerf, e-mail all'autore, aprile 2009.
IV.
I computer diventano economici, veloci e diffusi
Nel momento stesso in cui lo Sputnik I si innalzava in orbita nel 19 5 7, la traiettoria veniva rilevata da un sistema radar all' avanguardia, il Millstone UHF, che avevano appena cominciato a usare negli Stati Uniti 1, con una potenza di trasmissione senza precedenti, 2,5 megawatt, e un'antenna del diametro di 25,6 metri installata su una torre alta 26,8 metri. L'Unione Sovietica aveva vinto la corsa nello spazio però la tecnologia americana stava progredendo silenziosamente in una direzione diversa ma potenzialmente piu importante. Nel 1950, sette anni prima del lancio dello Sputnik, gli Stati Uniti avevano cominciato a investigare la possibilità di un uso combinato di radar e computer in un modo nuovo e straordinariamente diverso. In quell'anno, un gruppo scelto del Comitato di consulenza scientifica dell'aeronautica militare degli Stati Uniti, presieduto da George V alley, giunse alla conclusione che il sistema di difesa aerea su tutto il territorio statunitense sarebbe stato efficace soltanto contro il dieci per cento degli attacchi sovietici2, un dato particolarmente preoccupante a fronte di due recenti sviluppi della tecnologia sovietica. Nell'agosto 1949, i russi avevano annunciato il primo test nucleare, «Primo Lampo», nella località Semipalatinsk del Kazakistan. Poi durante la guerra in Corea, combattuta dal giugno 1950 al luglio 1953, sia gli Stati Uniti sia la Russia schierarono nuovi aviogetti, lo statunitense Sabre us F-86 e il sovietico MIG 15, in grado di volare a velocità transonica che rendeva impossibile una, lettura affidabile dei segnali radar, e forse ben presto sarebbe stato ugualmente difficile rilevare i bombardieri strategici. Occorreva cambiare la difesa aerea e i computer erano la risposta. Il gruppo di Valley prese in considerazione misure radicali per potenziare la difesa aerea. Una prima idea fu quella di installare una serie di piccoli radar, dislocati lungo i confini della nazione, che avrebbero inviato dati a un sistema informatico centrale. Un'altra
I COMPUTER DIVENTANO ECONOMICI, VELOCI E DIFFUSI
49
fu di istituire un laboratorio di ricerca al MIT per studiare soluzioni di difesa aerea. Entrambe le proposte si rivelarono cruciali per lo sviluppo di Internet. Il Lincoln Laboratory del MIT sarebbe diventato un punto di forza fondamentale nell'evoluzione dell'uso moderno dell'informatica e delle reti, annoverando tra i suoi primi collaboratori i protagonisti emeriti della storia di Internet: Frank Heart, Kenneth Olsen, Wesley Clark, Lawrence Roberts, Severo Ornstein, Robert Taylor e lo stesso J. C. R. Licklider, che aveva fatto parte del gruppo di studio di Valley sulla difesa aerea e della commissione del MIT che aveva deliberato la creazione del Lincoln. Il Lincoln Laboratory si dedicò alla realizzazione dell'idea avanzata dal gruppo di Valley di creare una serie di radar che coprissero tutta la nazione e fossero connessi a un computer. Il programma SAGE (Semi-Automatic Ground Environment) fu iniziato nel 1954 con l'obiettivo di rilevare e intercettare aerei nemici ad alta velocità, raccogliendo in tempo reale i segnali di una serie di radar sparsi in tutta la nazione, combinando e analizzando istantaneamente i dati ricevuti e mostrando i risultati sugli schermi in modo tale che fossero rapidamente comprensibili agli operatori umani. Ogni singola parte di questo processo era rivoluzionaria. La costruzione di questo sistema di sorveglianza introduceva una rivoluzione nell'uso delle reti, dell'informatica e dell'interazione dell'utente - i tre campi il cui progresso avrebbe reso possibile Internet. SAGE fu un'impresa veramente gigantesca che richiese l'impegno di 7000 programmatori nei vari stadi di lavorazione. Ciascuno dei suoi 24 enormi centri direttivi era collegato con linee telefoniche interurbane a oltre un centinaio di elementi interconnessi della difesa aerea, richiedendo un sistema integrato di proporzioni fino allora inimmaginabili. SAGE riceveva dati da sensori in tutto il Nord America, incluse le stazioni meteorologiche, i radar terrestri e navali. Il suo funzionamento in tempo reale significò che i ricercatori del Lincoln Laboratory che lavoravano al progetto divennero esperti mondiali nel campo delle comunicazioni informatiche ad alta velocità' e molti di loro furono in seguito assunti alla BEN o si dedicarono ai progetti di ARPANET.
I computer diventano accessibili e facili da usare. Quando fu presentata inizialmente la proposta di una rete di radar connessi a un sistema informatico, la squadra di Valley non
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
aveva le idee chiare su come combinare il funzionamento di antenne radar con un sistema di computer o sul tipo di elaboratori da utilizzare. Nei primi anni Cinquanta, i computer erano grosse macchine industriali usate per fare calcoli, del tutto inadatte al compito che il gruppo di Valley aveva proposto. Ad esempio, fin dagli anni Ottanta dell'Ottocento l'rnM aveva elaborato su scala industriale i tabulati dei censimenti per il governo degli Stati Uniti e il fondatore dell'azienda, Herman Hollerith, aveva registrato il suo primo brevetto sull' « arte di compilare statistiche» 4. Il progetto SAGE richiedeva sistemi che andavano ben oltre una semplice tabulazione. I computer SAGE avrebbero dovuto essere agili e reattivi, ossia l'esatto contrario delle macchine che rappresentavano la stato dell'arte negli anni Cinquanta. Poiché l'apparecchiatura e il tempo di funzionamento avevano costi molto elevati, i computer di grandi dimensioni avevano un sistema di «esecuzione batch» per ricevere istruzioni in modo ordinato. Invece di un singolo operatore che passava ordini direttamente a un computer, c'era una fila di clienti, con i loro programmi per l'elaborazione informatica, che presentavano le codifiche delle istruzioni su pile di schede forate. Gli amministratori specializzati erano i sacerdoti che trasferivano le schede sulla macchina. Gli utenti, che in realtà non interagivano mai direttamente con la macchina, ricevevano in formato stampa le risposte che il computer forniva alle loro schede dopo alcune ore o forse dopo alcuni giorni. Questo era il modello di informatizzazione dell'era industriale in cui il punto focale non erano gli utenti del computer bensi le macchine stesse e chi le amministrava, un sistema assolutamente inadatto al SAGE. Occorreva trovare un nuovo modello interattivo con i computer. La risposta, o almeno una prima risposta, fu un insolito elaboratore chiamato Whirlwind, cioè turbine. All'inizio era un progetto della Marina degli Stati Uniti costruito come simulatore di volo che affidava al pilota il controllo diretto del sistema 5 • Si trattava quindi di uno dei primi computer interattivi con cui l'operatore interagiva direttamente, leggendo le risposte alle istruzioni a mano a mano che apparivano sullo schermo. Whirlwind fu rilevato dall'aeronautica militare e perfezionato al Lincoln Laboratory nei primi anni Cinquanta. Il risultato fu i' AN/FsQ-7, noto come Whirlwind II. L'rnM si aggiudicò il contratto per la costruzione dei 24 AN/FSQ-7 richiesti per il sistema SAGE; ciascuna di queste apparecchiature, una volta completata, pesava 250 tonnellate, consumava 3000 kilowatt e contava oltre 49 ooo tubi a vuoto.
I COMPUTER DIVENTANO ECONOMICI, VELOCI E DIFFUSI
51
Tra il 1952 e il 1955, J. C. R. Licklider fece parte del «gruppo di presentazione» di SAGE al Lincoln Laboratory6. Il dilemma era come rendere comprensibili le informazioni agli operatori affinché potessero rispondere in modo diretto e veloce. Nel 1963, quando il sistema operativo di SAGE divenne funzionante, l'opèratore era in grado di osservare in tempo reale sul monitor del suo terminale le rotte di numerosi aerei. Senza dover scrivere alcun codice o punzonare alcuna scheda, gli operatori potevano selezionare diversi dati sullo schermo manovrando a mano un «light gun», una pistola ottica, e ordinare a un caccia di intercettare gli aerei non identificati. I computer di SAGE introdussero una rivoluzione informatica. SAGE stimolò un periodo di transizione nelle scienze telematiche tra la metà degli anni Cinquanta e i primi anni Sessanta. Wesley Clark e Ken Olsen, rispettivamente il progettista e l'ingegnere di Whirlwind, costruirono due computer rivoluzionari al Lincoln Lab del MIT. Completato il TX-o nell'aprile 1956, il lavoro prosegui sul piu potente TX-2 7 • Le macchine TX furono i primi computer a transistor al mondo ed erano interattivi mentre i sistemi precedenti non lo erano. Il TX-o dava un immediato feedback al suo operatore tramite un display circolare di vetro, delle spie luminose e un altoparlante che emetteva un suono a seconda delle istruzioni che la macchina stava elaborando. Usando una specie di macchina da scrivere, la «flexowriter», l'operatore punzonava istruzioni su nastro introducendole poi direttamente sul lettore del Tx-o; riusciva in tal modo a osservare il programma in azione e rilevare in tempo reale gli errori che potevano verificarsi. Nel 1957, Ken Olsen e un collega, Harlan Anderson, lasciarono il Lincoln Laboratory per fondare una società chiamata Digitai Equipment Corporation. La DEC trasferi la rivoluzione tecnologica di Whirlwind II e dei Tx nel ramo commerciale e nel 1960 usd con ii PDP-1, il primo computer interattivo al mondo immesso sul mercato al prezzo di soli r 20 ooo dollari, una frazione del costo delle macchine IBM di allora8 • Da quel momento in poi i computer co11tinuarono a diminuire di dimensioni~ diprezzo. Entro il 1965, la DEC proponeva l'ancor piu potente PDP-8 al costo di soli 18 ooo dollari. Queste macchine segnarono la fine dell '« esecuzione batch» preannunciando un futuro in cui gli individui sarebbero diventati unici proprietari di un proprio computer personale. Quindi negli stessi anni in cui Baran e Davies stavano lavorando alla rete a commutazione di pacchetto per la RAND e l'NPL, le mac-
52
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
chine che sarebbero state connesse ai network nati dalle loro idee stavano a loro volta subendo delle metamorfosi. In un laboratorio accanto a quello di Wesley Clark al MIT, a metà degli anni Cinquanta, c'era}. C. R. Licklider, il quale si era avvicinato alla cibernetica sotto l'influenza di Norbert Wiener e stava cercando di sviluppare modelli elettronici dei processi cerebrali. Ma ben presto diventò evidente che due ostacoli limitavano il suo lavoro: primo, i calcoli matematici richiesti dalla sua ricerca erano cosi complessi che solo con l'aiuto di un potentissimo computer si potevano eseguire; secondo, Licklider si era reso conto, monitorando l'utilizzo del suo tempo per un certo periodo del 1957, che per 1'85 per cento eseguiva lavori d'ufficio, «in preparazione al pensare», e soltanto per il restante 15 per cento si dedicava al vero problema9 • Quando, in seguito a un incontro fortuito con Wesley Clark, venne a conoscenza del TX-2 e dell'informatica interattiva, prese forma nella sua mente l'idea di una divisione del lavoro tra computer e uomo legati in un rapporto simbiotico: le macchine potevano eseguire i lavori d'ufficio meglio degli ·umani che si sarebbero dunque affrancati da questi compiti per poter pensare e prendere decisioni. L'85 per cento di tempo speso in preparazione del lavoro sarebbe stato ridotto drasticamente. Ben presto Licklider sarebbe riuscito a far progredire questa idea. Bolt e Beranek, due dei fondatori della BBN, conoscevano Licklider di fama dal tempo in cui avevano lavorato al MIT sulla psicoacustica. Nel 1957 la BBN assunse Licklider come vicepresidente e il suo arrivo segnò l'inizio di uno spostamento del centro di interessi della BBN quando il nuovo arrivato disse a Beranek di aver bisogno di un computer digitale. In passato la BBN aveva usato computer analogici per i lavori di acustica e nel 1957 un computer digitale aveva un prezzo molto superiore a quello di macchinari acquistati dall'azienda per qualunque altro progetto e, inoltre, Licklider aveva ammesso di non avere uno scopo specifico per l'uso della macchina. Ma Beranek si fece convincere a procedere all'acquisto dall'opinione di Licklider che « se la BBN vuole diventare un'azienda importante, il suo futuro deve essere nell'informatica» 10 • E aveva ragione. Era trascorso poco piu di un decennio quando la BBN si aggiudicò l'appalto per costruire le macchine IMP per ARPANET e alcuni anni dopo uno dei suoi ingegneri avrebbe inventato la posta elettronica. A conferma del ruolo cruciale di alcune figure nel piccolo mondo-dell'informatica, basti dire che fu lo stesso Wesley Clark,
COMPUTER DIVENTANO ECONOMICI, VELOCI E DIFFUSI
53 il progettista delle TX che aveva segnalato i computer interattivi a I .icklider, a proporre l'uso della macchine IMP su ARPANET. Quindi quando Lkklider arrivò all' ARPA nel 1962, era convinto dell'importanza dell'informatica e spostò l'interesse dell'agenzia dall'uso dei computer per simulazioni belliche e studi sulla funzionalità dei sistemi di comando a nuovi obiettivi di ricerca sulla ripartizione del tempo, sulla grafica e sull'uso della rete 11 , cambiando nel contempo il nome del suo ufficio da Command and Control Research (Ricerca per il comando e il controllo) a Information Processing Techniques Office (IPTO). In tal modo, da Whirlwind e SAGE e, successivamente, attraverso il finanziamento da parte dell' ARPA di importanti programmi di ricerca, un'esigenza militare di difesa aerea e di comando e controllo strategico diede origine a una piu vasta sperimentazione su come migliorare l'interattività tra esseri umani e computer. I
Il mondo rimase stupefatto quando il 9 gennaio 2007 fu immesso sul mercato l'iPhone la cui interfaccia grafica dell'utente (GUI), rassicurante e istantaneamente comprensibile e attraente, forniva alla gente non solo connettività ma anche utilizzabilità. Eppure soltanto quarant'anni prima i computer erano oggetti alieni, in numero esiguo, e molto remoti dall'operaio medio di un'industria. Ancora in epoca relativamente recente come il 1975, la prima generazione di personal computer (Pc) non aveva uno schermo vide.o e comunicava con gli utenti grazie a una serie di spie luminose intermittenti. Eppure già nel 1965 Licklider proponeva questa visione di un uso interattivo del computer: Un uomo alla scrivania scrive o traccia un disegno su una superficie con una stilo, e in tal modo comunica con µn processore di informazioni programmato e dotato di un'ampia memoria. E l'immagine mentale della risposta immediata, visibile ali' oscilloscopio, attraverso la quale il computer riconosce il comando e mostra le conseguenze della sua esecuzione".
Nel momento in cui scriveva, i sistemi di cui parlava cominciavano appena a sembrare realizzabili. Douglas Engelbart, un ingegnere lungimirante dello Stanford Research Institute, stava leggendo le teorie cibernetiche di Norbert Wiener e Ross Ashby ed era convinto che l'intelletto umano potesse essere potenziato con la tecnologia informatica 13 • Engelbart aveva fondato l' Augmented Human Intellect Research Center, il Centro di ricerca per il potenziamento dell'intelletto umano, per studiare strumenti informatici che potessero fornire agli utenti «una miglior compren-
54
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
sione di una situazione che si era rivelata in precedenza troppo complessa»'4. Esplorò nuovi modi di «concettualizzare, visualizzare e organizzare materiali da elaborare e ... metodi di lavoro sia individuale che in collaborazione» 15 • Assegnò a ciascuno dei membri della sua squadra la console di un computer dedicato, un fatto del tutto inusuale nell'era dell'esecuzione batch, con la direttiva di eseguire ogni aspetto del proprio lavoro su computer, creando gli strumenti di cui avevano bisogno a mano a mano che· procedevano. Il risultato fu l'«oN-Line System» (NLS), un sistema in rete veramente rivoluzionario, che introduceva per la prima volta il mouse, il programma di scrittura, la video teleconferenza, l'uso di finestre multiple per programmi diversi e i documenti in collaborazione. Tutti questi aspetti furono incorporati in una GUI intuitiva e facile da capire. Engelbart fece una dimostrazione dell'NLS davanti a un pubblico di migliaia di persone alla Fall Joint Computer Conference del 1968. Tutti rimasero sbalorditi e la dimostrazione di Engelbart divenne nota come «la madre di tutte le demo». Il computer moderno cominciava a farsi strada. · «Spacewar! » e Sketchpad.
Alla fine degli anni Cinquanta, il Research Laboratory of Electronics (RLE) del MIT era un alveare di innovatori e cani sciolti. Qui, tra i dropout e gli eccentrici, cominciò a svilupparsi una nuova cultura in assoluto contrasto con la mentalità burocratica dell'rnM e la propensione al controllo centripeto delle compagniE telefoniche. Questi personaggi si descrivevano come «hacker». Mentre nel resto del MIT il termine «hack» era usato per definire uno scherzo elaborato, nel gergo dei soci del Tech Model Railroad Club (TMRC), il Club di fermodellismo del MIT, «hack» definiva una brillante idea innovativa per risolvere un problema ingegneristico. Il Club era un punto d'incontro fondamentale per innovatori appassionati di tecnologia e vantava un imponente modello di ferrovia in scala al di sotto del quale la sottocommissione del Club per la segnaletica e l'energia aveva montato un assortimento di attrezzature di una complessità sconcertante. Nel 1954 fucostruito un sistema di controllo che consentiva di dirigere cinque trenini contemporaneamente attraverso trenta settori diversi del tracciato ferroviario variando semplicemente il voltaggio e la polarità elettrica della corrente che attraversava i binari 16 • Questo
I
COMPUTER DIVENTANO ECONOMICI, VELOCI E DIFFUSI
55
sistema straordinariamente complicato era stato costruito usando relè elettromeccanici, attrezzature telefoniche e una varietà di pezzi procacciati dal ramo segreto del Club, il «Midnight Requisitioning Committee», il Comitato notturno di requisizione, che andava a trafugare i pezzi necessari da ogni parte del MIT 17 • Molti dei membri del TMRC erano anche studenti del Research LaboraLory of Electronics e si dedicavano al computer con lo stesso atteggiamento con cui si erano appassionati al tracciato ferroviario costruito nella sala del loro Club: qualcosa da studiare e perfezionare in modo ossessivo. Nel 1959 l'RLE ricevette un TX-o in dono dal Lincoln Lab. Questo fu il primo computer per singoli individui che gli studenti del laboratorio avessero mai avuto a disposizione. Il feedback non veniva trasmesso da un amministratore dopo ore o anche giorni di attesa bensi arrivava immediatamente e direttamente dal computer all'utente. Questo fu l'inizio dell'utilizzo interattivo del computer. Nell'era del mainframe dell'mM e dell'esecuzione batch, era una boccata di aria fresca che stimolò una nuova e vibrante cultura informatica. L'arrivo di questo computer interattivo favori un'ondata di innovazioni proposte dagli utenti che avrebbe infine caratterizzato gran parte della cultura basata sull'uso del persona! computer. A differenza della burocrazia che circondava l'mM 740 al MIT, il computer TX-o e il successivo PDP-I avevano un sistema che consentiva un «funzionamento fai-da-te» 18 • Poiché i laureati che usavano il Tx-o per legittimi lavori di ricerca disponevano di fasce orarie preferenziali, gli hacker usavano la macchina nelle ore in cui non serviva a nessuno, spesso lavorando per trenta ore tirate in sessioni maniacali di codificazione 19 • Come raccontò John McKenzie, che dirigeva l'RLE, «Praticamente tutto il software del sistema fu creato su base volontaria da utenti che non facevano parte del personale del Tx-o quando scrissero i loro programmi» 20 • Il Tx-o e il PDP-1, sebbene notevoli per la loro interattività, erano tuttavia dei computer modesti. La tecnologia a questo livello. intermedio richiedeva che la programmazione facesse il massimo con le risorse informatiche disponibili. Gli hacker si vantavano della loro efficienza creativa, della loro abilità di demolire e ridurre il numero e la lunghezza delle istruzioni al minimo, il che produsse due particolari caratteristiche che prevalgono oggi nei forum di discussione in Internet: primo, una meritocrazia darwiniana21 , e secondo, un desiderio di capire e ottimizzare la codifica che preclude qualunque idea di finalizzazione. Nessun programma fu mai
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE ultimato perché poteva essere sempre migliorato. Entrambe le caratteristiche furono ben illustrate dal dodicenne Peter Deutsch, il cui padre era un professore del MIT, e che regolarmente passava del tempo all'RLE a lavorare sul TX-o. Deutsch era un programmatore di talento che si guadagnò il rispetto degli hacker e, come rileva il cronista della loro storia, Steve Levy, «grazie alla sua conoscenza dell'informatica si meritò di essere trattato alla pari»22 • Quando il professor Jack Dennis creò un programma assemblatore per il TX-o, la sua codificazione fu poi fatta a pezzi e migliorata dagli hacker 23 , una cosa che mise in discussione i presupposti di base del mondo accademico su chi potesse intervenire per migliorare le codifiche di chi. Ma ancor piu notevole era il fatto che uno degli hacker_ fosse un dodicenne che casualmente trascorreva il suo tempo libero nel laboratorio. La cultura che si stava evolvendo intorno a queste macchine si era. liberata quasi del tutto della gerarchia uf-, fidale. Questa tendenza si sarebbe diffusa con il trasferimento di personale del MIT ad altre istituzioni, come lo Stanford Artificial Intelligence Lab (SAIL), con un impatto significativo sullo sviluppo della cultura predominante attraverso Google, Y ahoo e altre compagnie di Internet. Nel I 962 gli hacker produssero uno dei primi videogiochi al mondo, dal nome Spacewar!, guerra spaziale. Ispirandosi a libri d' avventure spaziali di bassa lega ma di largo consumo e a certa cinematografia giapponese popolata di mostri e con una tipica «assenza intenzionale di trama, personaggi o significat0>>24, il gioco mostrava il duello di due navi spaziali, una bianca e una nera, controllate da due giocatori i quali usavano ciascuno una leva di co~ mando, i due primi joystick al mondo per un videogioco, costruiti con pezzi di ricambio nella sala del Club di fermodellisma2 5 • Questa fu l'alba di una nuova era di interattività con il computer e occorsero sei anni prima della dimostrazione pubblica del mouse di Engelbart. L'anno successivo, nel 1963, il computer interattivo raggiunse un altro successo. Un giovane scienziato informatico di nome Ivan Sutherland, che presto sarebbe stato chiamato da Licklider a succedergli all' ARPA, stava concludendo la tesi di dottorato al Lincoln Laboratory del MIT. Sutherland capi che un normale uso del computer era «rallentato dall'esigenza di ridurre tutte le comunicazioni a frasi scritte che possono essere dattilografate». Fino a ora, sostenne, « abbiamo scritto lettere ai nostri computer piu che consultarci con essi» 26 • Sutherland stava usando il TX-2, fratello maggiore del Tx-o, quando sviluppò «Sketchpad»,
I
COMPUTER DIVENTANO ECONOMICI, VELOCI E DIFFUSI
57
1m programma di grafica che consentiva all'utente di disegnare di-
rettamente sullo schermo video con una «light pen», una penna ottica. La tesi di dottorato in cui egli descrive questo programma sarebbe stata considerata una delle tesi di informatica piu importanti che siano mai state scritte27 • Questi sviluppi, il videogioco Spacewar!, il programma di gra(ica Sketchpad e l'oN-Line System di Engelbart posero le fondamenta per i computer che potevano essere utilizzati dalla gente comune. Alcuni collaboratori di Engelbart andarono a lavorare allo Xerox PARC e alla Appie Computer, dove trasferirono le loro conoscenze del GUI e del computer interattivo a un pubblico commerciale. A metà degli anni Settanta la Xerox creò un'interfaccia grafica dell'utente con un mouse e delle icone per il suo computer sperimentale Alto e infine, nel 1981, lanciò sul mercato il derivato commerciale di Alto, lo Xerox Star. Il primo computer di largo consumo con un GUI fu il Macintosh della Apple del 1984. Altri l'C come I' Atari e I' Amiga, e alcuni PC dell'rnM che usavano il nos (Disk Operating System), si dotarono di un GUI dal 1985. La prima versione di Windows della Microsoft usd nel novembre 1985. Tuttavia, sebbene l'utilizzabilità dei computer stesse aumentando sempre piu, prima degli anni Ottanta non furono ancora «personali» né compatti né economici. Anche tutto questo stava per cambiare. Un computer alla portata di tutti.
L'invenzione del transistor ai Laboratori Bell nel 1947 affrancò l'informatica dai grandi inaffidabili tubi a vuoto su cui si basavano i primi computer digitali. Tuttavia la nuova tecnologia richiedeva ancora il lavoro manuale di tecnici che saldassero insieme migliaia di transistor, fili e altri componenti necessari per costruire delle macchine complicate. Poi nel 1958 un ingegnere della Texas Instruments,Jack Kilby, fece una cosa che avrebbe rivoluzionato non soltanto il computer ma la produzione di tutti i congegni elettronici del pianeta. Costruf un piccolo transistor e un circuito su un singolo pezzo di germanio, un elemento simile al silicio, disegnando i circuiti sul metallo stesso tramite un processo di diffusione. Questo congegno, fatto di un solo materiale, fu il primo circuito integrato al mondo: Kilby si rese conto che la difficoltà e il costo insiti nella costruzione di piccoli congegni come gli apparecchi acu-
FASE
I.
LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
stici e i calcolatori si sarebbero ridotti di ordine di grandezza se i loro circuiti fossero costruiti, come dice il suo brevetto, «usan- •do solo un materiale per tutti gli elementi del circuito»28 • La sua invenzione stimolò un clamoroso processo di miniaturizzazione e di sofisticazione nell'elettronica e un precipitoso calo dei prezzi. In seguito, nel 1971, a poco piu di un decennio dall'enorme passo avanti compiuto da Kilby, una giovane società, l'Intel, adottò la tecnica del circuito integrato per costruire il primo microprocessore al mondo, riuscendo a stipare un intero computer su di un singolo pezzo di silicio della grandezza di un francobollo. La Intel era stata fondata da Robert Noyce (un ingegnere che aveva inventato anche lui il circuito integrato quasi contemporaneamente aJack Kilby) insieme a un collega di nome Gordon Moore 29 • Anche se la Intel aveva immesso sul mercato il suo microprocessore «4004» pubblicizzandolo come un «computer micro-programmabile su un chip>>3°, i pezzi grossi dell'industria informatica, noti come il «Big Bunch», il grande mucchio, lo liquidarono come un dispositivo per far funzionare i semafori e i registratori di cassa 31 • BUNCH era l'acronimo dei nomi dei giganti informatici dell'era prePC: Burroughs, Univac, NCR Corporation, Contro! Data Corporation e Honeywell. Il 4004 rappresentò l'inizio della loro fine poiché, sebbene avesse le dimensioni di un francobollo, possedeva la stessa capacità di elaborazione del calcolatore ENIAC in dotazione all'esercito degli Stati Uniti, che era stato soprannominato il «cervello gigante» quando fu introdotto nel 1946 32 • L'ENIAC era stato la piu grande macchina elettronica del pianeta, con un sistema di 17 468 tubi a vuoto che era in grado di portare a termine in soli trenta minuti dei calcoli balistici la cui esecuzione su di un calcolatore manuale avrebbe richiesto dodici ore 33 • Ora l'Intel 4004 segnava l'inizio di una tendenza centrifuga che avrebbe trasferito la potenza informatica da alcuni computer industriali di grandi dimensioni, derivati dall'ENIAC, a migliaia di piccoli computer negli uffici e nelle case di dilettanti entusiasti in tutti gli Stati Uniti. Il momento del cambiamento giunse quando l' «Altair 8800» fu annunciato sulla copertina del numero di gennaio 1975 di «Popular Electronics ». L 'Altair fu il primo cosiddetto persona! computer e fu costruito basandosi sul 4004 della Intel. Era abbastanza piccolo da poter stare su una scrivania e costava soltanto 397 dollari (equivalenti a oltre 1500 dollari del 2009). Prima di creare l'Altair, il suo progettista, Ed Roberts, aveva inviato a un amico un messaggio in cui parlava di
I COMPUTER DIVENTANO ECONOMICI, VELOCI E DIFFUSI
59
costruire un computer per le mass(;. Qualcosa che avrebbe eliminato per sempre i Sacerdoti Informatici. Sarebbe stata usata la nuova tecnologia del microprocessore per offrire un computer al mondo e l'apparecchio sarebbe stato cosi economico che nessuno avrebbe potuto fare a meno di comprarlo".
L'articolo che lo annunciava su «Popular Electronics» cominciava con queste parole: «L'era dell'uso di un computer personale in ogni casa ... è arrivata» 35 • E in effetti fu cosi. Da allora in poi, il mercato fu invaso dai microprocessori. Nel 1975 la MOS Technology fece uscire il processore 6502 la cui variante 651 o sarebbe stata usata nel popolare« Commodore 64 ». Nel 1978 la Intel produsse il processore 8086 che sarebbe stato usato sui PC dell'rnM con il sistema nos della Microsoft. L'anno seguente la Motorola usci con il processore 68000 usato sui computer Appie, Amiga e Atari. Quindi entro la fine degli anni Settanta c'erano tre aziende in concorrenza per la vendita di microprocessori a una zelante comunità di dilettanti entusiasti. L'arrivo dell'Altair con il 4004 dell'Intel segnò la fine dell'egemonia del Big Bunch nell'industria dell'informatica. • Tuttavia il suo impatto non fu necessariamente immediato all'inizio. La macchina in sé non aveva un aspetto che facesse colpo, racchiusa in una cassa blu con luci e interruttori su un lato. L'utente la programmava e l'interpretava tramite le luci e gli interruttori. Non aveva monitor né tastiera né mouse. Però anche se il suo aspetto esteriore non rivelava la sua natura rivoluzionaria, i fanatici ben informati la notarono. All'Università di Harvard, un certo Bill Gates e un certo Paul Allen furono colti da una tal frenesia all'uscita dell' Altair da sviluppare una versione del linguaggio di programmazione BASIC per la macchina ancor prima di vederla fisicamente da vicino. La MITS, la società di Ed Roberts, aveva scommesso il suo futuro sulla vendita di soli duecento computer Altair. Alla sua uscita, la macchina fu venduta in migliaia di esemplari. Per capitalizzare l'inatteso entusiasmo, la compagnia organizzò la World Altair Computer Convention, una Riunione mondiale sul computer Altair, all' Airport Marina Hotel, dal 26 al 28 marzo 1976. Ma all'apertura della manifestazione Ed Roberts rimase sbigottito alla scoperta che un'azienda concorrente pubblicizzava un accessorio aggiuntivo di hardware che avrebbe ampliato le funzioni dell' Altair a un prezzo inferiore a quello della componente che egli vendeva. Uno degli aspetti caratteristici dell' Altair era di essere tecnicamente aperto a un potenziamen-
60
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
to e di poter contenere schede di espansione per incrementare le sua capacità36 • L'apertura dell'Altair aveva generato competizione e la MITS, introducendo l'era del persona! computer, era divenuta la prima vittima di un «clone», o copia, dell'hardware del PC. La scheda d'espansione della concorrenza era stata progettata da Bob Marsh, che era frequentatore fisso di un nuovo circolo dal nome Homebrew Computer Club, il Club del computer fatto-in-casa; fondato pochi mesi dopo l'uscita sul mercato dell'Altair, il Club era diventato un punto di riunione informale ma fisso dove gli appassionati di computer della Silicon Valley si incontravano a scambiarsi idee. Il circolo raccoglieva elementi del movimento studentesco radicale, attivisti informatici e hobbisti elettronici della comunità di Berkeley. I gruppi hippy della California avevano capito in fretta che il computer era uno strumento utile all'acquisizione di potere. Già nel 1972, un gruppo dal nome People's Computer Company, la Compagnia di computer del popolo, pubblicò un appello appassionato sulla copertina, disegnata a mano con la matita, del suo primo bollettino d'informazioni: I computer sono per lo piu utilizzati contro il popolo invece che per il popolo; sono usati per controllare la gente invece di affrancarla; è ora di cambiare tutto questo - dobbiamo creare una Compagnia di Computer del Popolo".
L'anno seguente, un gruppo hippy dal nome Loving Grace Cybernetics (Cibernetica della grazia divina) avviò un esperimento sociale chiamato «Memoria del computer» che introdusse una prima forma di uso sociale della rete ai residenti di Berkeley, in California. Il gruppo installò dei terminali informatici con videoschermo e tastiera all'entrata di un noto negozio di dischi e di altri luoghi della città. I terminali erano connessi a un sistema di computer che consentiva agli utenti di lasciare messaggi che tutti potevano leggere. Gli hippy credevano che questo servisse a «imbrigliare il potere del computer per metterlo a servizio della comunità»38 e crearono un «mercato delle pulci dell'informazione» 39 . Analogamente al People's Computer Company dell'anno prima, questo esperimento di uso sociale del computer aveva lo scopo di liberare la telematica « dalla stretta presa di pochi per rimetterla al posto giusto come ricchezza della comunità che condivide le informazioni»40 • Il Club del fatto-in-casa fu fondato da due persone che avevano fatto parte della People's Computer Company e i suoi manifesti annunciavano:
I COMPUTER DIVENTANO ECONOMICI, VELOCI E DIFFUSI
6r
Venite a una riunione di persone con interessi simili. Scambiate informazioni e idee, parlate di ciò che vi interessa, aiutate chi lavora a un progetto, qualunque cosa ... 41 •
I presenti avrebbero mostrato le loro opere, che potevano essere espansioni per aggiungere nuove funzioni all' Altair, la realizzazione di un nuovo microprocessore oppure sistemi del tutto nuovi. In modo analogo al gruppo informale sull'uso della rete degli specializzandi che avevano sviluppato i protocolli di ARPANET, i frequentatori del fatto-in-casa appartenevamo a un ambiente in cui predominava un modo di lavorare collaborativo. Come ricordò Steve Wozniak, l'inventore del primo computer della Apple, «l'idea ... era "Aiuta gli altri"» 42 • Ci si trovava tra persone alla pari che si scam_piayano vicendevolmente giudizi sull'hardware dell'uno_e dell'altro e sulle modifiche apportate all'eleganza dei progetti, alla loro efficienza e stabilità. Come gli hacker dell'RLE del MIT si erano gloriati dell'efficacia delle loro codifiche, cosi i frequentatori del fatto-in-casa si pavoneggiavano dei perfezionamenti apportati all'hardware e facevano circolare software e schemi. Nel giro di pochi mesi il Club poteva contare sulla presenza fissa di centinaia di membri che si riunivano nell'auditorium dello Stanford Linear Accelera tor (sLAc). Steve Wozniak presentò il primo computer della Apple al fattoin-casa come se fosse una nuova modifica: Apple I e II furono progettati puramente come hobby, per divertimento, non per essere il prodotto di un'azienda. Erano oggetti da portare al club, da mettere sul tavolo ... e far vedere com'erano fatti: guardate qua, utilizza pochissimi chips. Ha un videoschermo ... Gli schemi di Apple I furono fatti circolare liberamente e io andavo ;:inche a casa della gente per aiutarli a costruirsene uno".
Il personal computer raggiunse la maggiore età nel 1977 quando laj\.pple fece uscire Apple II alla West Coast ComputeiFaire. Mentre in precedenza i PC erano stati messi in vendita in componenti staccate che gli appassionati dovevano ~ssemblare, il nuovo Apple II poteva essere acquistato in forma di unità già pronta. Era un computer destinato ai consumatori, facile da installare e usare. A differenza di alcuni costruttori di personal computer che avevano scelto di mantenere il segreto sui sistemi di software, la Apple distribui una guida di istruzioni con una descrizione dettagliata dell'intero codice sorgente e degli schemi della macchina44 • La si poteva adattare facilmente per soddisfare esigenze diverse ed era possibile programmare del software aggiuntivo. La Apple
62
FASE I. LA RETE DISTRIBUITA E LE IDEE CENTRIFUGHE
non aveva affatto previsto ciò che sarebbe successo45 , che i suoi computer sarebbero diventati piattaforme di sviluppo spontaneo da parte degli utenti. Nella primavera del 1978 uno studente di Harvard, Dan Bricklin, iscritto a un master in scienze commerciali, meditò sull'idea di un magico pezzo di carta in cui, cambiando il numero all'inizio di una serie di calcoli, tutti gli altri numeri si sarebbero automaticamente aggiornati".
Insieme a un amico, Bob Frankston, Bricklin sviluppò e commercializzò un nuovo software di contabilità finanziaria per Apple II, a cui fu dato il nome VisiCalc, che riscosse un enorme successo tra le piccole aziende le quali non potevano permettersi di pagare il time-sharing su un computer mainframe a distanza o per la concessione in uso di un proprio minicomputer. Cominciò a emergere un nuovo mercato per i personal computer a mano a mano che un nuovo tipo di consumatore cominciava ad acquistare un PC per usare il Visi Cale e altro software piuttosto che tentare modifiche e armeggiamenti vari sulla macchina stessa al Club del fatto-in-casa e in altri circoli analoghi. Apple II era diventato inaspettatamente un successo commerciale per il semplice fatto di essere una piattaforma su cui poter sviluppare nuove applicazioni. I frequentatori delle riunioni del fatto-in-casa erano consapevoli di essere all' avanguardia di una rivoluzione. A seguito del successo di Apple II e del VisiCalc, l'aspetto rivoluzionario del persona! computer divenne evidente anche alla IBM, il bastione dell'informatica industriale. Il suo ingresso sul mercato del PC segnalò che era giunto il momento della commercializzazione e il modo in cui vi entrò innescò un' esplosione commerciale. Il 12 agosto 1981, l'rnM cominciò a vendere il suo primo PC, denominato «5150», e iniziò un processo che avrebbe scalzato per sempre il suo predominio nel campo dell'informatica. La compagnia aveva fretta di entrare nel mercato dei PC e quindi abbandonò il normale processo di sviluppo che l'rnM seguiva da decenni. Invece di sviluppare all'interno della compagnia un hardware e una codifica di proprietà dell'azienda, una piccola squadra costrui il nuovo sistema usando la tecnologia già pronta e collaudata da altre industrie. Anzi, si spinse oltre. Adeguandosi allo spirito dell'era dell'informatica personale, decise di costruire l'architettura della sua macchina interamente aperta e, cercando di capitalizzare sulla creatività degli utenti e sulla cultura dell'hobby dell'informatica che circondavano il nuovo mercato dell'uso personale del compu-
I
COMPUTER DIVENTANO ECONOMICI, VELOCI E DIFFUSI
Ler, l'rnM pubblicò il codice sorgente dell'intero sistema del suo PC. Poi, nel novembre 1980, firmò un contratto con una piccola compagnia di software, la Microsoft, che doveva fornire il oos, il software necessario per gestire i PC dell'rnM e interpretare gli input degli utenti (in altre parole, un / e fu per secoli il caposaldo della Chiesa romana. Nel 1546, quasi 1200 anni dopo che Girolamo aveva iniziato a tradurla, la Vulgata fu consacrata come l'unica vera Bibbia della Chiesa da un editto del Concilio di Trento che dichiarò a proposito del testo sacro, «nessuno, per nessuna ragione, può avere l'audacia o la presunzione di respingerla»•; ossia la massima autorità della Chiesa sosteneva questa particolare versione della Bibbia e nessuno, se non un temerario, avrebbe potuto pensare di allontanarsi da essa. Tuttavia, mancando una tecnologia appropriata, fu impossibile trasmettere informazioni con accuratezza, nell'arco di un millennio e attraverso l'intera Cristianità, affidandosi alla
IL WEB 2.0 E IL RITORNO ALLA TRADIZIONE ORALE
1 59
trascrizione manuale. Persino un testo importante come la Bibbia, il cui contenuto costituiva il pilastro della fede di un continente e di cui si prese cura un'autorità ecclesiastica centralizzata e una schiera di monaci dalla ferrea disciplina, subi gli errori umani di generazioni. prima dell'invenzione della stampa la riproduzione dell'informazione era inaffidabile e gli abbellimenti erano prassi comune. Quindi, nonostante l'editto del Concilio di Trento, lo studioso Erasmo da Rotterdam lamentò il fatto che esistessero tante versioni diverse della Vulgata di Girolamo quante erano le copie della Bibbia 9 • Solo l'invenzione della stampa a caratteri mobili inchiostrati poté assicurare una fedele riproduzione del testo dalla metà circa del r 400 in poi, avendo il procedimento tipografico di Gutenberg introdotto un periodo di immutabilità dell'informazione che si estese fino al xx secolo. Tecnologie come la radiodiffusione commerciale a partire dagli anni Venti del Novecento e la televisione dagli anni Trenta in poi hanno solo protratto lo status quo dell'immutabilità dell'informazione iniziata con Gutenberg. Internet è tuttavia diversa dalla macchina tipografica, dalla radio e dalla televisione poiché la sua stessa essenza, la tecnologia che ne sorregge il funzionamento, era stata pensata per aprirsi a ulteriori aggiustamenti da parte degli utenti. Anche i protocolli che governano le comunicazioni dei computer e delle reti erano progettati per essere plastici e duttili. Secondo Steve Crocker: L'architettura è aperta. Noi avevamo deliberatamente considerato i protocolli come un inizio, non una fine, e li avevamo progettati nella piena consapevolezza che altri avrebbero creato ulteriori protocolli e lo avrebbero potuto fare senza doverne richiedere l'approvazione'".
Il web 2.0 porta questo approccio alla sua logica conclusione: l'informazione e i contenuti su Internet sono plastici e mutevoli, estendibili e modificabili all'infinito da parte degli utenti. Forse'. l'informazione plastica è un ritorno alla normalità. L'era dell'informazione immutabile che va dall'invenzione di Gutenberg alla televisione potrebbe essere stata l'anomalia nell'ampio arco di sviluppo dell'esistenza dell'umanità. Approfondendo l'idea di fondo del web 2.0 nel 2004, Tim O'Reilly delineò un nuovo approccio allo sviluppo del software che esemplificava la plasticità dell'informazione11. Il pubblico a cui stava parlando conosceva bene il ciclo convenzionale di sviluppo del software attraverso una progressione di versioni dalla prima, pre-alfa, alla penultima, beta, che viene distribuita per il collaudo prima dell'uscita della versione fi-
160
FASE III. L'AMBIENTE EMERGENTE
nale. Però ora, disse O'Reilly, il software non dovrebbe mai procedere oltre il penultimo stadio, il beta test, incorporando invece costantemente idee e consigli di miglioramento che provengono dalla comunità globale degli internauti. Grazie al web 2 ,o non ci dovrebbe essere un montaggio finale, una versione definitiva. Gli input dati dal pubblico autonomo degli utenti online servirebbero ad arricchire quei prodotti che rimangono flessibili. Il software, e tanti altri aspetti, rimarrebbero nella fase perpetua del beta test, come la Vulgata di Girolamo nel passato. Il software, i mezzi di comunicazione e l'informazione sarebbero tutti in una certa misura soggetti all'influenza del pubblico. In passato c'erano state indicazioni illusorie che il pubblico potesse acquisire una sua automonia. Alla fine degli anni Sessanta e nella decade dei Settanta, la Tv via cavo sembrò promettere una nuova era di mezzi di comunicazione meno vincolati alle tendenze predominanti e in cui ci sarebbero state piu occasioni di lasciar spazio a voci diverse. J. C. R. Licklider coniò il termine «narrowcasting» (radiodiffusione locale) nel 196J12 per definire un futuro tipo di trasmissione che non si rivolgeva a un pubblico di massa ma a un gruppo specifico di spettatori. Nel 1968, due importanti ricerche, una commissionata dal sindaco di New York e l'altra dal sottosegretario di stato Eugene Rostow per il presidente, segnalarono entrambe una miriade di opportunità e vantaggi che si potevano ricavare dall'espansione della televisione via cavo. In quello stesso anno, anche la FCC si lasciò trascinare dallo stesso entusiasmo nella convinzione che l'installazione di un sistema di televisione via cavo coassiale potesse consentire moltissime cose tra cui « comunicazioni speciali ... per raggiungere particolari quartieri o gruppi etnici ... stazioni a basso costo per candidati politici, pubblicità, spazi di espressione per dilettanti» 0 . In breve, la Tv via cavo sembrava offrire un forma di comunicazione piu centrifuga. Ma le cose non andarono proprio cosi. Dagli anni Quaranta in poi, spuntarono una pluralità di emittenti locali in zone rurali d' America dove si vedeva la televisione tramite un'antenna comunitaria collegata a un cavo; questo sistema consenti agli imprenditori di creare delle piccole stazioni televisive. Poi dalla fine degli anni Sessanta alcune società televisive di maggiori dimensioni cominciarono ad assorbire le piccole emittenti e a dominare il settore. Forse, e non c'è da sorprendersi, gli osservatori sfiduciati accolsero con un certo scetticismo il grosso lancio pubblicitario che accom-
IL WEB 2.0 E IL RITORNO ALLA TRADIZIONE ORALE
161
pagnò il www a metà degli anni Novanta14 • Eppure la rivoluzione del web fu effettiva e i mezzi di comunicazione stavano cambiando; c'erano le prove tangibili. Upubblico online è piu esigente di quello televisivo che si accontenta di esser spettatore passivo di forme di intrattenimento ci:-eat:è da professionisti mediatici o di accettare informazioni preconfezionate da strutture gerarchiche come il governo e i giornali. Durante l'anno 2006, il numero di persone negli Stati Uniti che avevano visitato siti i cui contenuti erano perlopiu inviati da utenti, come YouTube, Wikipedia o Facebook, era aumentato del 100 per cento 15 mentre, nello stesso periodo, il numero di nuovi abbonati a Internet era cresciuto soltanto del 2 per cento. Un sondaggio Pew riportò alla fine del 2007 che il 64 per cento di adolescenti online negli Stati Uniti aveva realizzato e caricato su Internet foto, creazion~ artistiche e video 16 • Dei 50 siti piu popolari al mondo all'inizio del 2009, 24 erano controllati da utenti'7; degli altri 26, 16 erano dei semplici portali o siti di ricerca che offrivano link con altri siti e soltanto 10 erano siti con una struttura da uno-a-molti, non controllati da utenti, come Cnn o Microsoft. Il pubblico degli spettatori che aveva fruito passivamente delle trasmissioni radio e televisive durante la maggior parte del xx secolo, si stava trasformando in un pubblico di proprietari di contenuti. Sul web l'utente era ormai sovrano.
Norme per un'autonomia innovativa e partecipativa. I primi siti web popolari di tipo partecipativo includevano Craigslist, un sito di annunci pubblicitari divisi per categorie che nacque nel 1995 evolvendosi da un notiziario che Craig Newmark faceva circolare regolarmente per posta elettronica con informazioni sugli eventi in calendario a San Francisco. L'e-mail divenne poi un sito web dove chiunque poteva pubblicare notizie d'interesse come avvenimenti imminenti, annunci personali oppure oggetti in vendita. Il sito ha continuato ad ampliarsi fino a superare i 20 miliardi mensili di visite a singole pagine 18 ed è annoverato tra i 50 siti web piu cliccati al mondo. In base ad alcuni calcoli, pare che attragga piu visite di eBay o Amazon, che hanno rispettivamente sedicimila e ventimila dipendenti19 • Gli utenti di Craigslist pubblicizzano autonomamente qualunque cosa, dagli eventi alle macchine di seconda mano agli appuntamenti amorosi2°. Eppure,
162
FASE III. L'AMBIENTE EMERGENTE
nonostante le sue dimensioni, il sito non ebbe bisogno di capitali di rischio perché non aveva costi pubblicitari ed erano sufficienti trenta persone per farlo funzionare. Qual è il segreto del successo di Craigslist? Alla base della sua popolarità ci sono due caratteristiche che si adattano perfettamente alla cultura digitale. La prima è che si tratta di un sito collaborativo fino alle radici. Non solo i suoi utenti vi contribuiscono con inserzioni pubblicitarie, ma in una certa misura ne hanno il controllo sia nelle piccole che nelle grandi cose. Tra le piccole cose ci sono le decisioni sui contenuti del sito: se, ad esempio, un numero sufficiente di persone si esprime negativamente su un annuncio che ritiene debba essere rimosso, questo viene cancellato automaticamente. Ma il pubblico dice la sua anche in materie d'importanza strategica: la decisione di estendere Craigslist a una nuova città, ad esempio, dipende dal numero di richieste perché questo avvenga. Inoltre, siccome il sito non fa campagne pubblicitarie, il tasso di crescita dell'attività nella nuova città accelera a seconda dell'impegno dei cittadini del luogo. La seconda caratteristica del sito è il fatto che si ispira a «valori di autonomia innovativa», come era nelle intenzioni del suo fondatore, ed è diffidente verso la commercializzazione. Le sue sole entrate derivano dalle tariffe per la pubblicazione di offerte di lavoro in dieci città, di elenchi di appartamenti di agenti immobiliari nella città di New York e, laddove sia consentito per legge, di annunci relativi alla prostituzione. Newmark si muove con cautela nel campo della commercializzazione ed espansione: La gente capisce subito se alla base di quello che fai c'è l'onesta intenzione di stabilire un collegamento con la comunità, di creare contatti con altre persone, oppure se stai solo cercando di fare un mucchio di soldi in poco tempo".
Come disse Jim Buckmaster, l'amministratore delegato di Craigslist, in un'intervista: Le compagnie che mirano ad aumentare al massimo le loro entrate devono saturare i loro utenti con tutte le possibili occasioni di produzione di reddito. La nostra azienda non ha alcun interesse a farlo e questo, penso, sia stato uno di motivi del successo di craigslist".
Questa è la lezione che impararono Canter & Siegel, i primi che inviarono sparo commerciale nel 199423 • Avevano infranto le regole fondamentali di condotta su Internet e nel giro di pochi giorni ricevettero minacce di morte 24 • Ignorando le une e le altre, scrissero successivamente:
IL WEB 2 .O E IL RITORNO ALLA TRADIZIONE ORALE
Chi aderisce al mito del cyberspazio come luogo reale, crede anche che questo posto illusorio contenga una comunità con leggi, regole ed etica tutte particolari. Sfortunatamente la percezione dei codici comportamentali del cyberspazio è spesso in conflitto con le leggi [del mondo reale]".
Come poi risultò, anche le regole del mondo reale erano state infrante a un certo punto perché Canter fu radiato dalla Corte Suprema del Tennessee nel 1997 per spamming e altre violazioni. I «valori di autonomia innovativa» sfuggono a una rigida definizione. La fiducia è la parola chiave. Come osservò Kevin Kelly, il fondatore e direttore di « Wired», il valore dei beni materiali è inevitabilmente diminuito via via che l'industrializzazione ne ha facilitato la produzione. Nell'economia digitale sarebbero state altre cose, non materiali, ad assumere valore: Le cose che non si possono riprodurre diventeranno la vera moneta corrente, la vera fonte di ricchezza. Che cosa non si può riprodurre? La fiducia. L'autenticità. L'immediatezza. La presenza. L'esperienza. Le relazioni".
I valori innovativi di Newmark e il livello di controllo esercitato dall'utenza su Craigslist fecero si che il sito diventasse una comunità di utenti che si fidavano del servizio offerto. Larry Brilliant, uno dei fondatori di The Well, defini lo spirito «autentico» di Craigslist27, forse dovuto al fatto che Newmark considera il sito come un'attività collettiva, come «un parlamento nel senso che forniamo un servizio pubblico»28 • I regolari frequentatori del sito, via via che incrementano il loro gruppo, cominciano a godere degli effetti della rete ossia di ciò che si potrebbero definire i benefici comunitari: quanto piu sono gli utenti che pubblicano inserzioni e annunci, tanto piu sono quelli che li leggono e salvaguardano l'utilità del sito rimuovendo lo spam, il che aumenta le aspettative di trovarvi risultati vantaggiosi e quindi attrae nuovi utenti e visite regolari da parte di quelli già esistenti; tutto questo produce a sua volta una scelta di liste piu variegate, dettagliate e competitive, il che attira un maggior numero di utenti. I valori di autonomia innovativa assicurano a Craigslist, che non ha costi pubblicitari, quello che le imprese GBF dot-com non riuscirono a conquistarsi: la fidelizzazione di una comunità di utenti del sito. Di importanza cruciale in tutto questo è l'incremento dei benefici comunitari all'interno di Craigslist grazie ai contributi di utenti individuali e della comunità dei loro pari.
FASE III. L'AMBIENTE EMERGENTE
L'Internet del passaparola. Quando istitui il periodico «Philosophical Transactions of the Royal Society» nel 1665, Henry Oldenburg non solo fondò la prima rivista accademica al mondo ma introdusse anche il procedimento del peer review, cioè la valutazione tra pari, per mantenere alta la qualità degli articoli. Gli autori che volevano pubblicare un loro scritto sulla rivista dovevano sottoporsi alle forche caudine di una recensione fatta da altri accademici della Royal Society. Secondo una formulazione piu recente, il peer review consiste in «una valutazione critica sensata espressa dai propri pari» 29 che praticamente conferisce agli studiosi il potere di approvare o rifiutare nuovi sviluppi nelle loro rispettive aree di competenza30 e che - è opportuno segnalarlo - caratterizza il mondo della pedanteria accademica. Tuttavia questo processo descrive anche il procedimento aperto e democratico che fa filtrare l'informazione su Internet attraverso i suoi lettori. I nostri pari influenzano la valutazione e I' accettazione delle informazioni e dei contenuti mediatici su Internet, sia che si tratti di un feedback su un rivenditore di eBay o un commento positivo sul blog di un candidato presidenziale. Se il commercio aveva assunto la forma di una conversazione, questa era certamente molto fitta. Il 3 r marzo 2008, i soci di eBay in tutto il mondo avevano inviato gli uni agli altri oltre 7 milioni di . commenti relativi agli acquisti fatti sul sito 31 • Su un'Internet dove l'internauta assume sempre piu spesso il ruolo di creatore o critico di contenuti, le raccomandazioni passaparola dei propri pari hanno un peso maggiore della normale pubblicità nel formato da unoa-molti. Se per YouTube il peer review contribui in modo fondamentale alla sua crescita, poiché soltanto dopo l'introduzione di commenti e valutazioni degli utenti sui video il sito cominciò ad attirare un gran quantità di visitatori, lo stesso sistema fu invece una sfida per altre imprese. Amazon corse un bel rischio quando decise di consentire ai suoi utenti di scrivere recensioni negative di libri presentati sul sito. La pratica comune era di scrivere indiscriminatamente dei giudizi positivi su tutti gli articoli. Jeff Bezos disse al «Business Week» che autorizzare il peer review sembrò ad alcuni una misura controproducente: Quando introducemmo la pratica per la prima volta, ricevemmo lettere di editori che dicevano: «Forse non capite la natura del vostro commercio. I profitti arrivano quando si vende». Il nostro punto di vista è ... che le recen-
IL WEB 2.0 E IL RITORNO ALLA TRADIZIONE ORALE
sioni negative aiutano a scegliere che cosa comprare, quindi è una prospettiva molto incentrata sul cliente. I commenti negativi sono di aiuto ai clienti e questo, da ultimo, serve a far vendere piu prodotti di quanti ne avremmo venduti se avessimo scelto di presentare solo le recensioni sui prodotti migliori".
Consentendo agli utenti di scrivere commenti negativi, Amazon mise in effetti nelle mani dei clienti il destino di ogni oggetto venduto al dettaglio. In una certa misura, ciò significava affidare ad altri la redditività dell'azienda, ma questo slancio di fiducia diede buoni risultati. Amazon divenne un luogo in cui non solo si "compravano libri ma si potevano anche leggere recensioni di critici imparziali. Attraverso Internet, il passaparola tra gli utenti diventò il setaccio per separare il buono dallo scadente, analogamente a quello che il peer review aveva fatto nei circoli accademici a partire dalla metà del Seicento. Kevin Kelly si lagnò che: A mano a mano che il Web si estende sempre di piu per includere tutto, le cose migliori diventano introvabili ... Voglio qualcuno di cui mi fido che mi dica: «Ho visto tutta la merce e ne ho usata la maggior parte; questo è ciò che vuoi». Di solito questo non si trova sul Web. Per prima cosa, di fiducia ce n'è poca, e secondariamente, anche la valutazione comparativa scarseggia".
Il passaparola divenne un sistema per passare al vaglio e categorizzare, in altre parole una «folksonomy», una classificazione fatta dal popolo degli internauti34. Come Nicholas Negroponte e Pattie Maes scrissero nel 1996, «il brusio della Rete è la sua bellezza e navigare su questo rumore di fondo diventerà sempre piu facile grazie al passaparola elettronico» 35 • Nel 2003 Joshua Schracter fondò «Del.icio.us», una collezione di frammenti di contenuti del web che gli utenti avevano taggato, ossia etichettato, per segnalare qualcosa che potesse sembrare interessante per qualche motivo. In sostanza, l'etichettatura diventò non solo un sistema di classificazione dei contenuti di Internet, ma anche un modo di crearsi una biblioteca personale di segnalibri su particolari contenuti e di trovarne altri taggati da utenti con interessi simili ai propri. Del.icio.us pubblicava informazioni su tutti gli internauti che creavano un tag, o etichetta, e consentivano ad altri utenti di visitare le collezioni di segnalibri delle loro biblioteche. In tal modo tutti i contenuti del web potevano essere valutati in base al «sodai bookmarking», cioè la condivisione sociale di segnalibri preferiti che teneva conto di quanti utenti aderissero a un tag, e inoltre potevano essere classificati a seconda dei tag utilizzati. Pertanto l'utente non è soltanto un creatore di contenuti ma anche un ar-
166
FASE III. L'AMBIENTE EMERGENTE
bitro che influenza la decisione su quale contenuto sia reso visibile ai suoi pari. Alcuni inserzionisti, riconoscendo il ruolo cruciale del peer review e del passaparola tra internauti, hanno cominciato a corteg_giare i blogger influenti per attirare l'attenzione sui propri prodotti tramite un marketing «interattivo», da pari-a-pari. Nel 2007 la serie televisiva Battlestar Galactica cercò di farsi pubblicità presso il suo pubblico di patiti di fantascienza organizzando un'inedita presentazione alla stampa, in cui invece dei giornalisti della carta stampata furono invitati dei noti blogger allo studio televisivo dove era stata girata la serie per vedere i set e intervistare gli attori. Analogamente, Panasonic pagò le spese di un gruppetto di blogger perché partecipassero alla fiera annuale del Computer Electronic Show di Las Vegas nel 2009, in cui l'azienda presentava nuovi prodotti36 • Anche se non poteva condizionare o influenzare quello che i blogger avrebbero scritto sui prodotti Panasonic, la società si era comunque assicurata la copertura online. Secondo una società di marketing interattivo, questa si chiama «conversazione sponsorizzata»: Una conversazione sponsorizzata è una tecnica di marketing usata dai socia! media che consiste nell'offerta, da parte di brand commerciali, di un compenso finanziario o materiale ai blogger in cambio della visibilità sul loro blog di contenuti dei socia! media relativi a un prodotto, un servizio o un sito".
È interessante considerare che, se combinata con AdWords di Google, che consente a chiunque di vendere spazio pubblicitario sul proprio sito tramite Google, teoricamente Internet mette alla portata di tutti la possibilità di far soldi basandosi semplicemente sul gradimento dimostrato dagli altri internauti per il contenuto a cui si dà visibilità. Collaborazione, uso dei socia! network e i socia! media. Gli elementi del web 2 .o (il beta test, la crescente predominanza di contenuti generati dall'utenza, il peer review di altri internauti) avevano fatto acquisire all'utente di un singolo computer un'autonomia che persino i gruppi hippy degli anni Settanta non avrebbero mai immaginato quando si scagliavano contro lo stile di gestione informatica centralizzata e burocratica dell'rnM. Il singolo internauta era diventato la minima unità creativa di Internet.
IL WEB 2. O E IL RITORNO ALLA TRADIZIONE ORALE
Eppure il futuro aveva qualcos'altro in serbo dal 2001 in poi. Dal singolo utente l'affrancamento si sarebbe esteso a qualcosa di ben piu grande: a una collaborazione di massa tra internauti. Nel 2004, un imprenditore di nomeJimmy Wales scriveva: «Immaginate un mondo in cui ogni singola persona sul pianeta abbia libero accesso alla somma di tutto lo scibile umano. Questo è ciò che stiamo facendo» 38 • Mezzo secolo prima, nel 1945, l'economista Friedrich van Hayek aveva meditato sul problema di doversi basare su una conoscenza imperfetta per fare un piano economico da applicare a una società. Il dilemma stava nel fatto che tutto ciò che si deve conoscere di una società era cosi vasto e frammentato tra i piu disparati detentori di saperi che nessuna mente individuale poteva contenere questa somma di conoscenze39 • Una società era incapace di sistematizzare tutto lo scibile dei suoi cittadini con mezzi convenzionali: Non possiamo pensare di risolvere questo problema comunicando per prima cosa tutti questi saperi a una commissione centrale che, dopo aver accorpato tutto lo scibile, emani degli ordini. Bisogna pensare a qualche forma di deccn tralizzazione 40 •
Van Hayek stava scrivendo in difesa del capitalismo di mercato ritenendolo la miglior soluzione possibile poiché il suo meccanismo di prezzamento era efficace per raccogliere informazioni su povertà e carestia da varie fonti nella società. Non esisteva metodo migliore. Nel 1999, ispirato dall'articolo di Von Hayek, Jimmy Wales decise di avviare un'enciclopedia libera su base collaborativa, avendo colto dallo studio su Linux fatto da Eric Raymond in The Cathedral and the Bazaar il suggerimento che la collaborazione di massa poteva funzionare 41 • All'interno della comunità di Linux, la Legge di Linus sosteneva che piu occhi riducono il numero degli errori di programmazione e W ales era convinto che questa regola potesse valere anche per un'enciclopedia dello scibile umano: Il fatto che [Wikipedia] sia aperta a tutti fa sf che molti di questi articoli siano di buona qualità e continuino a migliorare poiché sono sottoposti alla revisione di chiunque e gli uni costruiscono sul lavoro degli altri".
Ecco qui un meccanismo di prezzatura che corrispondeva alla descrizione di Van Hayek e che funzionava non solo per le informazioni di mercato ma per ogni tipo di informazione. Eppure prima di creare Wikipedia, Wales aveva fatto, nel 2000, un primo tentativo, chiamato « Nupedia», che era fallito perché invece di chiedere contributi a una comunità di internauti scono-
168
FASE III. L'AMBIENTE EMERGENTE
sciuti, aveva stabilito una scoraggiante procedura in dodici punti, tra cui la revisione di una commissione di esperti43 , a cui dovevano essere sottoposti gli articoli per essere pubblicati. Questo processo troppo severo non attirò un'ampia partecipazione e Nupedia ebbe pochi collaboratori e ancor meno articoli. Comunque, nel gennaio 2001, il suo redattore, Larry Sanger, seppe di un sistema chiamato WikiWikiWeb che consentiva agli internauti di intavolare discussioni su documenti e di modificarli in collaborazione. Otto giorni dopo, il IO gennaio 2001, nasceva Wikipedia online. La sua funzione era soltanto quella di passare bozze di articoli a Nupedia che li avrebbe poi filtrati attraverso il suo procedimento di dodici punti, ma in breve tempo Wikipedia mise in ombra l'enciclopedia_ da cui discendeva. Quindici giorni dopo la sua creazione contava 2 70 articoli e il numero era salito a 617 alla fine del primo mese di vita44 • Nel gennaio 2002, poco prima della scadenza del suo primo anniversario, Wikipedia conteneva 19 700 articoli. Questo nuovo sito dava forma concreta all'imperativo centrifugo che aveva sostenuto gli hacker e il movimento GNU del software libero, come annunciava nella pagina di presentazione della sua politica e delle linee programmatiche: Wikipedia non ha un direttore o un meccanismo centrale dall'alto-al-basso che controllino e approvino il progresso dell'enciclopedia. Al contrario, sono i partecipanti attivi a monitorare la pagina dei cambiamenti recenti, a fare revisioni e apportare correzioni quando individuano problemi di contenuto e di formato. Quindi i partecipanti sono sia scrittori che redattori".
Il WikiWikiWeb su cui era modellata Wikipedia era stato sviluppato nel 1994 da Ward Cunningham che aveva tratto ispirazione dal programma «Hypercard», l'iperscheda della Appie dei primi anni Ottanta, un sistema di ipertesto e ipermedia antecedente al web. Larry Sanger osservò che il sistema Wiki favoriva un approccio aperto e decentralizzato all'informazione: Il software wiki incoraggia . __ un'estrema apertura e decentralizzazione: apertura in quanto . _. le modifiche apportate alle pagine sono registrate e visualizzabili pubblicamente, inoltre . _. le pagine possono essere cambiate ulteriormente da chiunque; decentralizzazione perché per lavorare non c'è bisogno di una o piti persone che assegnino le cose da fare, ma piuttosto il lavoro viene fatto come e quando le persone vogliono farlo. Il software wiki scoraggia (o almeno non facilita) l'esercizio dell'autorità in quanto il lavoro procede a piacimento su qualunque pagina e su qualunque wiki attivo, di grandi dimensioni, che richiederebbe troppo lavoro da parte di un singolo supervisore o di un gruppo ristretto di supervisori. Tutte queste sono diventate caratteristiche di Wikipedia".
IL WEB 2 .o E IL RITORNO ALLA TRADIZIONE ORALE
Esempi precedenti di collaborazione, come lo sviluppo di ARdei protocolli di Internet, del movimento GNU e del software di Linux, avevano richiesto delle conoscenze specialistiche mentre Wikipedia permette a qualunque individuo della società di contribuire a un patrimonio comune di conoscenze. I loro pari valuteranno se modificare o migliorare la nuova voce. C'era una parvenza di controllo direttivo nel sistema Wiki. Rifacendosi agli RFC, Wikipedia inizialmente aveva una pagina intitolata «Regole da tener presenti» su cui si proponevano delle generiche linee guida che venivano applicate solo se gli utenti le sottoscrivevano con una firma 47 • La prima regola della lista era« Ignorare tutte le regole» per enfatizzare la flessibilità del regolamento. Tuttavia una qualche forma di gestione fu richiesta a mano a mano che aumentava la popolarità di Wikipedia. Dall'ottobre 2001, furono nominati degli amministratori scelti tra gli utenti della' comunità per contrastare gli abusi del sistema. Nel 2004, fu introdotta la regola delle« 3R» in base alla quale tre modifiche apportate allo stesso materiale dallo stesso utente nello stesso giorno avrebbero automaticamente impedito l'accesso al sito a quell'utente per una giornata. Anche gli articoli che stimolavano una marea di modifiche potevano essere temporaneamente bloccati per consentire alle accese discussioni sul loro contenuto di raffreddarsi prima di riprendere la revisione. Comunque, questa regolamentazione del sito applicata con tocco leggero mantenne il controllo nelle mani degli utenti. La valutazione dei pari, anziché della commissione di esperti di Nupedia, sarebbe stata arbitra di qualità nel bene e nel male. I risultati disuguali e straordinari cominciarono a rendere piu fattibile l'idea grandiosa di Von Hayek. PANET,
Agli inizi del 2000 i social network si distinsero per essere i prodotti di maggior popolarità del web 2.0. La cosa era stata prevista. Nella prima fase del web i.o, anche se Mosaic, il primo browser web di successo, era esageratamente strombazzato, il suo creatore, Mare Andreessen, era consapevole che la navigazione sul web da sola non era la grande novità del www e preconizzò, dieci anni prima che si verificasse il boom dei social network, che «le applicazioni che avranno successo nei prossimi cinque-dieci anni sono quelle che connettono le persone» 48 ; un'affermazione notevole forse da parte dell'uomo che aveva messo il web 1 .o alla portata di tutti, ma non sorprendente. La tendenza che aveva predominato a lungo nell'uso delle reti era quella di favorire la formazione
170
FASE III. L'AMBIENTE EMERGENTE
di comunità. Negli anni Settanta, gli amministratori di ARPANET erano rimasti sconcertati dalla popolarità della posta elettronica e dei gruppi di discussione. Negli anni Ottanta gran parte dell'utilizzo delle reti da parte di computer casalinghi ruotava intorno alle comunità online, come The Well e i sistemi di bacheche elettroniche, e quando arrivò il www, fu solo questione di tempo prima che venisse sfruttato da una nuova ondata di comunità online. Infatti nel gennaio 199.7, un giovane imprenditore, Andrew Weinreich, istitui il primo socia! network. Si chiamava SixDegrees e consentiva agli utenti di crearsi una rete personale di amici registrando gli indirizzi elettronici dei loro conoscenti. La rete di ciascuno si sarebbe ampliata quando nuovi utenti avessero aggiunto gli indirizzi elettronici di altri utenti ancora. Ma sebbene questo fosse il modello su cui avrebbero continuato a basarsi i socia! network di parecchi anni dopo, mancava qualcosa. SixDegrees usava in pratica solo testi senza l'abbondanza di fotografie di amici caricate dagli utenti e che avrebbero dominato in seguito i socia! network 49 • L'uso di reti sociali si diffuse circa cinque anni dopo, quando le macchine fotografiche digitali e le connessioni piu rapide su Internet divennero meno costose e quindi disponibili ai consumatori. Invece SixDegrees si basava in sostanza solo su testi. Il problema divenne cosi acuto che il direttivo di SixDegrees pensò di assumere un centinaio di stagisti per digitalizzare a mano le fotografie inviate su supporto cartaceo da mostrare nelle caselle degli utenti 50 • Questo, insieme ad altri problemi, fu fatale ma anche se SixDegrees cessò la sua attività alla fine del 2001, era tuttavia un segnale dei tempi a venire. Nel marzo 2003, arrivò online Friendster che annunciava una nuova ondata di social network. Il sito visualizzava foto e attrasse un ampio seguito. Era stato creato daJonathan Abrams che, in passato, aveva fondato Hotlinks, uno dei primi siti sociali di segnalibri. Per giugno, Friendster aveva raggiunto la cifra di 835 ooo membri che sali a due milioni solo due mesi dopa5 1 • Nonostante la sua iniziale popolarità, Friendster, intralciato da ostacoli amministrativi e da difficili problemi di ingegneria, fu superato rapidamente da MySpace, un concorrente istituito nel 2003 seguendo l'esempio di Friendster. La crescita di MySpace fu ancor piu straordinaria: nel 2006 raggiungeva il traguardo del milionesimo profilo di utente ed entro il settembre 2008 il sito attirava circa sessanta milioni di visitatori al mese 52 • Come aveva predetto Andreessen, la connessione tra persone era il nuovo centro d'interesse del web. Alla fine del 2003,
IL WEB 2.0 E IL RITORNO ALLA TRADIZIONE ORALE
171
l'investimento di capitali di rischio nei siti di social network, tra cui Friendster, segnalò un ritorno di fiducia nel web dopo il crollo del commercio elettronico. Rupert Murdoch, pur essendo stato castigato quando la New Media Division della sua società News Corporation aveva dovuto chiudere nel 2001, cionondimeno acquisi MySpace nel 2005 per 580 milioni di dollari. I social network erano la via del futuro per l'investimento di capitali. Dal 2004 in poi, le raffinate tecnologie del web permisero agli utenti di riprodurre e far circolare non solo testi e foto ma anche video. A sostegno dei siti del piu complesso web 2.0 c'era una serie di tecnologie note col nome di AJAX (acronimo di Asynchronous JavaScript and XML) 53 che consentivano agli utenti di far molto di piu che non semplicemente leggere le pagine dei siti web. In effetti AJAX arricchiva i siti di programmi utilizzabili, trasformando il web in una piattaforma telematica e i visitatori dei siti in produttori di contenuti che andavano dai testi scritti ai video. I siti di social network che usavano AJAX erano in grado di evolversi in piattaforme su cui gli amici potevano giocare online l'un contro l'altro. Sempre nello stesso periodo, le connessioni a banda larga con Internet stavano sostituendo quelle, assai piu lente, attivate tramite un numero di telefono. Anche le macchine fotografiche digitali, sperimentate fin dai primi anni Settanta, erano diventate oggetti di consumo di ampia diffusione. Gli internauti cominciarono a creare e a vedere con entusiasmo i video amatoriali che le connessioni a banda larga consentivano loro di trasferire in rete. Il piu importante tra i nuovi siti che ospitavano video girati da utenti era YouTube, che presentò il suo beta test al pubblico nel maggio 2005. Entro la metà del 2007, gli utenti di YouTube caricavano sei ore di video al minuta54; entro la metà del 2009 erano diventate venti ore di video al minuto. Ogni video poteva essere copiato, valutato e taggato da altri utenti. Su Internet l'utente era sovrano e la selezione e la promozione di contenuti avvenivano tramite il passaparola degli internauti. Tutto questo avrebbe avuto un profondo impatto via via che la cultura e i notiziari scavalcavano la televisione e i media della carta stampata per gravitare sempre piu su Internet. Avrebbe infatti cambiato il panorama dei mezzi di informazione e della cultura.
172
FASE III. L'AMBIENTE EMERGENTE
1 T. NELSON,
testo apparso sulla prima pagina del progetto Xanadu. Vedi http://www. xanadu.com/ (ultimo accesso 9 febbraio 2009). 2 R. Cailliau, e-mail all'autore, 2 marzo 2009. ' Size o/ Wikipedia, Wikipedia. Vedi http://en.wikipedia.org/wiki/Wikipedia:Size_ of_Wikipedia (ultimo accesso 15 giugno 2009). 4 J. P. BARLOW, The economy o/ ideas, in« Wired», marzo 1994. ' Pagine di Wikipedia revisionate con maggior frequenza. Vedi http://en.wikipedia.org/ wiki/Wikipedia:Most_frequent!y_edited_articles (ultimo accesso 15 giugno 2009). 6 Wikipedia, archivio del dibattito sulla pagina relativa a George W. Bush. Vedi http:// en. wikipedia.org/wiki/Talk:George_W ._Bush/Archive_index (ultimo accesso 15 giugno 2009). 7 11. F. D. SPARKS, Jerome as Biblica! Scholar, in The Cambridge History o/ the Bible, voi. I, From the Beginnings to ]erome, Cambridge University Press, London 1970, p. 513. ' Decreto riguardante l'edizione e l'uso delle Sacre Scritture, canoni e decreti del Concilio di Trento, IV sessione tenuta !'8 aprile 1546.
o/ Modem Biblica! Interpretation, Liturgica! Press, Collegeville (MN) 2005, p. 6. 10 S. Crocker, e-mail all'autore, r8 aprile 2009. 11 T. O'REILLY, What is web 2.0: design patterns and business models/or the next generation o/ software, 30 settembre 2005. Vedi http://www.oreillynet.com/pub/a/oreilly/ tim/news/2005/09/30/what-is-web-20.html ?page=4 (ultimo accesso r 2 agosto 2009). 12 .J. c. R. I.ICKI.IDER, contributo alla relazione della Carnegie Commission sull'uso didattico della televisione, gennaio 1967, cit. in P. PARSONS, BlueSkies: A History o/Cab/e Television, Tempie University Press, Philadelphia 2008, p. 242. 13 Notice o/ Inquiry and Notice o/ Proposed Rulemaking in Docket 18397, 15 FCC 2d 417, FCC 1968, cit. ibid., p. 254. 14 T. STREETER, The Cab/e Fable Revisited: Discourse, Policy, and the Making o/ Cab/e Television, in «Criticai Studies in Mass Communication», giugno 1987, pp. 174-200. " The user revolution: the new advertising ecosystem and the rise o/ the Internet as a mass medium, Piper Jaffray Investment Research, febbraio 2007, pp. 55-56. " Teens and socia! media, Pew Internet & American Life Project (Progetto del Pew Center su Internet & American Life), 19 dicembre 2007, p. I. 17 Alexa web service rankings (classifica Alexa dei servizi web), 24 gennaio 2009. 18 Craigslistfactsheet, vedi http://www.craigslist.org/about/factsheet (ultimo accesso 26 agosto 2009). 19 G. WOLF, Why Craigslist is such a mess, in« Wired», settembre 2009. 20 Craigslist /actshcet cit. 21 c. NEWMARK, in «Nerd Valucs» Help Propel Tiny Craigslist into Classifieds Treat, in «use Annenberg Online Journalism Review», 3 luglio 2004. Vedi http://www.ojr. org/ojr/business/1086222946.php (ultimo accesso 23 gennaio 2009). 22 G. WOLF, Why Craigslist is such a mess cit. 23 An ad (gasp 1) in cyberspace, in «The New York Times», 19 aprile 1994. 24 L. A. CANTER e M. s. sIEGEL, How to Make a Fortune on the ln/ormation Superhighway cit., p. 24. 25 Ibid., p. 6. 26 K. KELLY, Pro-choice: The Promise o/ Technology, in «Organisation & Environment», voi. XII, dicembre 1999, n. 4, p. 28. 27 c. NEWMARK, in «Nerd Values» cit. 28 c. NEWMARK, in On the Record: Craig Newmark, in «San Francisco Chronicle», 15 agosto 2004. 29 Manuscript Peer Review. A Guide For Health Care Pro/essionals: What is Peer Review?, ' J. SANDYS-WUNSCII, What Have They Done to the Bible ?: A History
IL WEB 2.0 E IL RITORNO ALLA TRADIZIONE ORALE
in «Pharmacotherapy», voi. XXI, 2001, n. 4. Vedi http://www.medscape.com/ viewarticle/409692 (ultimo accesso 26 aprile 2009). ' 0 D. E. CHUBIN e E. J. HACKETT, Peerless Science: Peer Reviewand usScience Policy, Suny Press, New York 1990, p. 4" eBay marketplace fast facts cit. " ]e// Bezos on word-ofmoutb power, in «Business Week», 2 agosto 2004. " K. KELLY, Tools are tbe revolution, in «Whole Earth», 2000, n. 103. Vedi http:// www.wholeearth.com/issue/ r o 3/article/ r 26/tools. are. the. revolution (ultimo accesso 6 ottobre 2008). 14 Cfr. T. VANDERWAL, Folksonomy coinage and definition, Vanderwal, 2 febbraio 2007. Vedi http://vanderwal.net/folksonomy.html (ultimo accesso 25 gennaio 2009). 15 N. NEGROPONTE e P. MAES, Electronic word o/ moutb, in« Wired», ottobre 1996. 16 B. MORRISSEY, Brands tap webélite/oradvertorial 2.0, in«Adweek», 12 gennaio 2009. 17 Sponsored Conversations, lzea.com. Vedi http://izea.com/social-media-marketing/ sponsored-conversations/ (ultimo accesso 25 luglio 2009). " Wikipediafounder Jimmy Wales responds, Slashdot, 24 luglio 2004. Vedi http://interviews. slashdot.org/article.pl?sid=o4/07/28/r35r230 (ultimo accesso, 24 giugno 2009). 19 F. VON IIAYEK, Tbe Use o/ Knowledge in Society, in «The American Economie Review», voi. XXXV, settembre 1945, n. 4, pp. 519-21. 40 lbid., p. 524. 41 J. WALES, in s. SCHIFI', Annals o/ in/ormation: know it al!, in «The New Yorker», 31 luglio 2006. 42 Welcome newcomers, Wikipedia, febbraio 2003. Vedi http://web.archive.org/web/ 2003021005413 2/www .wikipedia.org/wiki/Welcome,_newcomers (ultimo accesso 24 giugno 2009). 41 Nupedia.com editoria! policy guidelines, version 4, maggio 2000. Vedi http://web. archive.org/web/20010607080354/www.nupedia.com/policy.shtml (ultimo accesso 24 giugno 2009). 44 Announcements /or january 2oor, Wikipedia. Vedi http://web.archive.org/web/ 2002 1102155538/www.wikipedia.org/wiki/Wikipedia:Announcements_January_ 2001 (ultimo accesso 24 giugno 2009). •s Policy and guidelines, Wikipedia, ottobre 2002. Vedi http://web.archive.org/web/ 20021029025626/www.wikipedia.org/wiki/Wikipedia_policy (ultimo accesso 24 giugno 2009). 46 l.. SANGER, Tbe Origins o/ Wikipedia, in c. DIBONA, D. COOPER e M. STONE (a cura di), Open Sources 2.0, O'Reilly, Cambridge (MA) 2006, p. 315. 47 Rules to consider, Wikipedia, 2 aprile 2001. Vedi http://web.archive.org/web/ 20010416035716/www.wikipedia.com/wiki/RulesToConsider (ultimo accesso 24 giugno 2009). 48 M. ANDREESSEN, presentazione di Mosaic alla prima Internet Marketing Conference, San Francisco, novembre 1994. Vedi http://video.google.com/videoplay?docid= -5046297730700144952, 26 ottobre 2008. 49 Idea /or online networking brings two entrepreneurs togetber, in «The New York Times», r O dicembre 2003. so Conversazione dell'autore con A. Weinreich, 14 agosto 2009. si M. CHAFKIN, How to kill a great idea, in «Inc.», r 0 giugno 2007. 52 Nielsen Online, Nielsen online provides /astest growing socia! networks /or september 2008, 22 ottobre 2008. 51 J. J. GARRETT, Ajax: a newapproacb to web applications, 18 febbraio 2005. Vedihttp:// www.adaptivepath.com/ideas/essays/archives/000385.php (ultimo accesso 22 luglio 2009). s, Zoinks! 20 bours o/video uploaded every minute!, blog su YouTube, 21 maggio 2009. Vedi http://www.youtube.com/blog (ultimo accesso 15 giugno 2009).
XI.
Nuovi pubblici, la quarta parete e i nuovi media
Una distribuzione dirompente. A partire dalla prima registrazione, quella di una po~siola per l'infanzia, Mary Had a Little Lamb, incisa da Edison nel 1877 su un fonografo a cilindro coperto da una lamina di stagno, l'industria discografica è passata attraverso una serie di crisi successive dovute a transizioni tecniche: prima il passaggio dal cilindro al disco, poi dalla registrazione acustica all'incisione elettrica, e in seguito a quella su nastro magnetico, su cassetta, su compact disc (CD) a cinque pollici nel 1982 e sull'MP3 nel 1992. La diffusione dell'accesso a Internet tra gli utenti del PC dalla metà degli annj Novanta in avanti ha forse prodotto nel settore musicale il terremoto piu vistoso a tutt'oggi. Nel 1996, la canzone Until it Sleeps dei Metallica divenne la prima traccia copiata illegalmente da un CD e messa a disposizig_~,,. ne su Internet nel formato di file compresso MP3. Il responsabile dell'azione era un pirata dal nome «NetFrack» 1 che annunciò la rivoluzione MP3 della pirateria musicale ad «Affinity», una rivista elettronica underground: Mi è venuta l'idea di piratizzare musica in qualche modo ... In passato la difficoltà ... era lo spazio [sul disco rigido] ... Abbiamo eliminato l'ostacolo delle dimensioni usando un nuovo formato per comprimere la nostra musica. Il formato MP3 2 •
NetFrack spiegò che comprimendo musica nel formato MP3 audio si poteva trasformare una canzone da 50 Mb, presa da un CD+, in un file di 3 o 4 Mb, riducendo un upload di ore a pochi minuti. Entro il 2008, secondo la Federazione internazionale dell'industria fonografica (IFPI), il 95 per cento di tutta la musica scaricata da Internet sarebbe stata illegale 3 • Prima che inventassero la compressione audio, le onde sonore generate dalla voce umana erano di solito trasmesse lungo un cavo telefonico sotto forma di onde analogiche la cui qualità si deterio-
NUOVI PUBBLICI, LA QUARTA PARETE E I NUOVI MEDIA
175
rava via via che si allontanavano. Un suono registrato poteva essere digitalizzato usando una modulazione PCM, ossia una modulazione di codice di pulsazione che registra una copia digitale del segnale analogico rilevandone alcuni campioni a intervalli regolari che possono poi essere riprodotti indefinitamente alla perfezione. C'era però il problema che la digitalizzazione richiede la trasmissione di una tale quantità di dati che le normali linee telefoniche non erano in grado di trasferirle. Negli anni Settanta uno scienziato dell'Università tedesca di Erlangen-Norimberga, di nome Dieter Seitzer, aveva cominciato a studiare come trasmettere la voce umana digitalizzata attraverso le linee standard del telefono ma proprio mentre stava lavorando al problema insieme ai suoi studenti fu introdotta una nuova generazione di linee ISDN e di cavi in fibra ottica in grado di trasportare suoni vocali digitalizzati. Quindi Seitzer volse la sua attenzione alla trasmissione di musica di alta qualità, cosa che il nuovo sistema non era ancora in grado di fare. Uno dei suoi studenti, Karlheinz Brandenburg, affrontò il problema usando la psicoacustica, quella stessa disciplina che suscitò in Licklider e nella BBN l'interesse per l'uso delle reti informatiche per la prima volta. I microfoni moderni sono in grado di cogliere una gamma di frequenze molto superiore alla soglia di udibilità dell'orecchio umano che percepisce suoni tra 20 Hz e 20 ooo Hz ma non riesce a decifrare i suoni mascherati da altri rumori emessi contemporaneamente, o, a seconda dei suoni, subito dopo4. Brandenburg si rese conto che i rumori superflui che superavano la soglia di udibilità potevano essere esclusi dalle registrazioni con il risultato di produrre un'incisione di alta qualità usando meno dati. Nel 1987 Eureka, un fondo europeo di ricerca intergovernativo, finanziò un ulteriore sviluppo della codifica del suono digitale all'Università di Erlangen-Norimberga, però in collaborazione e sotto la guida dell'Istituto Fraunhofer per i circuiti integrati. Nel 1989 Brandenburg presentò la sua tesi di dottorato su «La codifica ottimale nel campo delle frequenze (ocF) » che contribui a creare un sistema di codifica che consentiva la trasmissione di musica in tempo reale a un discreto livello di qualità lungo le linee telefoniche. Il Moving Picture Experts Group (MPEG), un settore dell'International Standards Organization (ISO), adottò nel dicembre 1991 una versione sofisticata del sistema OCF nota sotto il nome non particolarmente attraente di «ISO MPEG Layer 3 ». Inizialmente l'MPEG3 fu usato per trasmettere materiali sonori tra studi televisivi e radiofonici. Tuttavia, entro il 1995, i PC stava-
176
FASE III. L'AMBIENTE EMERGENTE
no diventando abbastanza veloci da decodificare file in MPEG3 e, in seguito a un sondaggio condotto tra il personale dell'Istituto Fraunhofer, si decise di adottare un nuovo tipo di file per PC che avrebbe fatto uso dell'MPEG3 e che fu chiamato MP3 5 ., Per illustrare l'MP3 agli utenti di PC, il Fraunhofer distribui un programmi di dimostrazione dal titolo «WinPlay3 » che, a prefigurare quello che sarebbe successo, fu subito copiato illegalmente da uno studente in Australia 6 • Si erano spalancate le porte alla riproduzione abusiva di musica su Internet. Nel giro di due anni la pirateria musicale divenne un fenomeno diffuso come conseguenza della combinazione di tre fattori: i computer personali sempre piu potenti, il software MP3 gratuito, e l'aumento della velocità di Internet. Nel maggio 1997, un titolo apparso su« Usa Today» annunciava che «i progressi fatti nella riproduzione musicale favoriscono i pirati di CD 7 • Nel marzo 1998, un'impresa coreana lanciava il primolet_tore MP3 portatile, l' «MPMan Pro», con una memoria da 32 Mb, sufficiente soltanto per otto o nove pezzi musicali. Poi nel settembre 1998, la Diamond Multimedia commercializzò il primo lettore MP3 di successo, «Rio», incentivandone l'acquisto tramite l'accordo stipulato con un nuovo sito, MP3.com, che accettò di distribuire musica ai proprietari dell'oggetto. L'Associazione americana dell'industria discografica (RIAA) fece subito causa all'azienda produttrice di Rio per violazione dei diritti d'autore in base alle norme dell'Home Recordings Act, ma dopo un'intensa azione legale la Corte d'Appello degli Stati Uniti dichiarò la legalità di Rio nel 1999 8 • L'MP3 sarebbe ora diventato un oggetto di consumo. Mentre la causa tra la RIAA e la Diamond si stava concludendo, uno studente della Northeastern University, Shawn Fanning, era intento a elaborare un software che semplificava il processo di acquisizione illegale di musica su formato MP3. Fanning, che sarebbe diventato famoso online con il soprannome «Napster», stava perfezionando un nuovo tipo di software «peer-to-peer» (P2P)9, anch'esso chiamato Napster, che consentiva agli internauti di trovare e copiare facilmente brani musicali. Si trattava di un· sistema decentralizzato grazie al quale gli utenti potevano entrare nelle rispettive collezioni per copiare quello che volevano; oltre a consentire il reperimento di pezzi musicali molto piu facilmente che non sui siti illegali, i quali venivano costantemente chiusi, il sistema offriva anche strumenti di discussione che stimolavano gli utenti a p~rtecipare a comunità online basate sulla condivisione de-
NUOVI PUBBLICI, LA QUARTA PARETE E I NUOVI MEDIA
177
gli stessi gusti musicali1°. L'uso di Napster si diffuse rapidamente nelle università dove le connessioni ad alta velocità alimentarono un'esplosione di pirateria musicale. Alla fine del 1999, la RIAA fece causa a Napster e lo stesso fece il 13 aprile 2000 la band Metallica, la cui musica era stata oggetto del primo episodio al mondo di pirateria su MP3 da parte di NetFrack nel 1996. Altre cause legali furono iniziate da numerose università le cui reti erano state usate per copiare musica abusivamente e nel febbraio 2001, dopo un anno di battaglie legali, il servizio Napster fu costretto a chiudere. Ma a questo punto la frittata era fatta. Il formato MP3 proliferava su tutta Internet e gli ex utenti di Napster avevano soltanto la difficoltà della scelta. Nell'ottobre 2001, l'anno di chiusura di Napster, la Apple lanciò il suo primo lettore MP3, l' «iPod». L'iPod 5 Gb aveva una memoria mille volte piu potente del primo lettore MP3 di tre anni prima, il che consentiva ai consumatori di portare con sé« 1000 canzoni in tasca» 11 • Gli ex utenti di Napster trovarono tutta una gamma di servizi successivi. Molti adottarono una nuova tecnologia detta «BitTorrent», un sofisticàto sistema peer-to-peer usato dal 2001 nella comunità Linux per trasferire programmi pesanti 12 • Scaricando simultaneamente diverse parti del file da molti utenti, BitTorrent accelerava in modo straordinario il tempo di trasferimento diminuendo nel contempo il carico sulle connessioni dei singoli utenti. Come avvenne per i pacchetti di dati spezzettati che Paul Baran e Donald Davies avevano inventato agli albori delle reti digitali negli anni Sessanta, il metodo di BitTorrent, che segmentava i download voluminosi in pezzi che si potevano copiare da utenti diversi, si rivelò molto efficiente. Quanto piu era popolare un pezzo da trasferire tanto maggiore era il numero di persone che potevano >9. Madsen sottolineò l'importanza di poter colloquiare su JesseNet piu che di tenere un discorso da uno-a-molti: Diamo alla gente delle informazioni reali. Neanche una parola è una fandonia. Non parliamo su copioni preparati ... Usiamo la nostra lista e-mail per ricevere da e rispondere ai nostri sostenitori dimodoché possano stabilire una relazione reale con il governatore 10 •
Il sito web di Ventura era un meccanismo grossolano indicativo di quello che, in questo libro, viene definita «politica bidirezionale» per descrivere una dinamica in cui il rappresentante politico o il candidato riceve informazioni dall'elettorato e a esso risponde;
POLITICHE BIDIREZIONALI
1 93
il votante partecipa in misura notevole al processo decisionale del rappresentante o alla campagna del candidato. Ventura aveva sfruttato con successo la posta elettronica e una pagina web per vincere il governatorato di uno stato relativamente piccolo. Cinque anni dopo, nel 2003, una campagna per eleggere un altro candidato insolito avrebbe collaudato strumenti piu progrediti di partecipazione online, posizionando Internet saldamente nella corrente predominante della vita politica americana.
Le campagne elettorali «open source».
Nel 2003, Howard Dean, il governatore del Vermont, un piccolo stato di scarso significato politico nel panorama degli Stati Uniti, decise di candidarsi alle elezioni presidenziali americane e avviò una campagna che avrebbe trasformato la politica in America. Una verifica delle risorse a sua disposizione nel gennaio 2003 non sarebbe stata incoraggiante: i fondi per la sua campagna superavano appena un decimo di un milione di dollari, i suoi sostenitori erano meno di cinquecento e il suo staff contava solo sette dipendenti. Inoltre Dean aveva deciso tardi di partecipare alla corsa per le presidenziali e nel Partito democratico si collocava a sinistra del centro in un momento in cui questa posizione rappresentava un alto rischio politico. Gli esperti politologi ritenevano del tutto impossibile che potesse conquistare la nomination del suo partito per la corsa alla presidenza. Con probabilità cosi esili, la squadra di Dean decise «che ci saremmo ribellati. Dovevamo organizzare una campagna totalmente diversa, decentralizzata se volevamo procurarci l'ossigeno necessario» 11 • In virtu della sua debolezza, se giudicata con criteri convenzionali, la campagna di Dean era adatta alla rete, come era già stato per la campagna di Ventura. Per Ventura e Dean la rete non fu semplicemente un altro mezzo di comunicazione all'interno di ingranaggi ben oliati di pubbliche relazioni ma una scialuppa di salvataggio che consenti di raggiungere gruppi remoti di sostenitori. La chiave di questa strategia fu quella di sfruttare il potere centrifugo di Internet. Dean era personalmente a disagio con la nuova tecnologia; preferiva non usare i cellulari, solo da poco si era convertito alla posta elettronica ed era uno dei pochi candidati che viaggiava sprovvisto di computer 12 • Nel suo ufficio i dati relativi ai suoi sostenitori erano scritti su foglietti volanti raccolti in scatole da scarpe. Insomma Dean era un
1 94
FASE III. L'AMBIENTE EMERGENTE
luddista 13 • Però usava anche un linguaggio politico franco e diretto che gli conquistò in breve tempo dei simpatizzanti su Internet. La forte opposizione di Dean alla guerra in Iraq aveva cominciato ad attirare tra il pubblico l'attenzione di gruppetti di curiosi interessati al suo approccio politico alternativo. I suoi sostenitori si organizzarono in modo autonomo e cominciarono a riunirsi spontaneamente tramite il sito MeetUp in comizi a sostegno del candidato. Il direttore della campagna di Dean, Joe Trippi, che era stato consulente alla Progeny Linux Systems nel 2001 e quindi conosceva bene i principi del movimento del software libero e lo sviluppo della tecnologia open source, riconobbe l'opportunità offerta dalla base dei sostenitori, in costante aumento, di MeetUp che consenti di raccogliere una comunità di singoli e di gruppi i quali volontariamente promuovevano iniziative utili alla campagna di Dean. Il sito forniva anche un'infrastruttura tramite la quale un gran numero di persone poterono fare piccolissime donazioni di denaro. La campagna di Dean faceva affidamento sui sostenitori online perché «usassero la comunità online per organizzare la comunità non in rete» 14 • Prima della rivelazione del MeetUp, la campagna aveva fatto un'incursione iniziale su Internet con un blog costruito affrettatamente e chiamato «Invito ad agire». Si trattava di un semplice sito, nello stile da uno-a-molti, che trasmetteva messaggi del candidato invece di ascoltare le risposte degli utenti, sul modello tradizionalmente usato in ogni campagna presidenziale moderna. Trippi era convinto che la campagna avesse bisogno di un blog «dove la gente potesse fare commenti, dove ci fosse interazione e dove si costruisse una comunità» 15 . Quando fu pronto, con il titolo «Blog per l'America», idee e commenti di internauti cominciarono a riversarsi da ogni parte del paese. Lawrence Lessig, osservando l'accelerazione della campagna di Dean, commentò che un blog di successo «è uno strumento per creare lo spirito comunitario. Il trucco consiste nel trasformare il pubblico in oratore». Il segreto era che «convincendo il pubblico a scrivere al computer, i candidati riuscivano ad assicurarsi il suo impegno» 16 • Trippi osservò un parallelo tra l'ortodossia politica, che egli considerava un sistema difettoso «inaccessibile a chiunque tranne che ai pochi che mirano a mantenere il controllo», e uno schema chiuso di software 11 • Avendo lavorato a Linux, ebbe un' «intuizione di come sarebbe stata una politica basata sull'open source e come si potessero applicare gli stessi principi». Cominciò ad applicare
POLITICHE BIDIREZIONALI
1 95
la logica centripeta della comunità di Linux alla conduzione della campagna politica. Invece di controllare rigorosamente i messaggi provenienti dalla sede centrale della campagna, come si fa di solito per far passare un messaggio politico coerente, la campagna di Dean invitava contributi dal di fuori delle strutture formali della campagna. Trippi disse alla sua squadra di smettere di vigilare sull'arrivo di commenti negativi sul blog di Dean, come aveva fatto Amazon quando aveva consentito agli utenti di scrivere recensioni negative sui prodotti pubblicizzati sul sito, essendo convinto che «abbiamo bisogno della comunità dei blogger indipendentemente dalla posizione di sostegno, opposizione o neutralità di un blog» 18 • Un'altra sua convinzione era che nei blog di maggior successo « aleggia il soffio anticonformista della ribellione» 19 • Infatti era cosi anticonvenzionale l'atmosfera che circondava la campagna che David «Doc» Searls, ricordando la sua visita al quartier generale della campagna di Dean, scrisse che «quello che vidi era l'equivalente in politica del Club di fermodellismo [il campo di azione dei primi hacker al MIT] oppure il Club del computer fatto-in-casa» 20 • La campagna di Dean aveva imparato, traendone uno straordinario beneficio per il candidato, che l'orientamento dei tempi avrebbe favorito chiunque avesse optato per una partecipazione di massa nel dialogo politico, persino accettando di consentire agli avversari di inviare commenti critici al proprio sito. Come disse Trippi a Lawrence Lessig durante le elezioni: Per quanto riguarda il controllo: quello è uno dei motivi per cui non penso che le altre campagne abbiano successo su Internet. Questa è la mia settima campagna presidenziale e tutto quello che ho imparato in ciascuna di esse è stato che devi esercitare una forte autorità militare di controllo della comunità in ogni aspetto dell'organizzazione. Dai ordini ai direttori statali che li comunicano ai direttori regionali che li passano infine ai capitani delle circoscrizioni. I Io lavorato con un numero sufficiente di esperti di tecnologia della Rete per sapere che sarà uccisa sul nascere qualun,que cosa si tenti di fare su Internet cercando di imporre comandi e controlli. E difficile mollare le redini, ma è cosi che abbiamo deciso di fare".
Il risultato del coinvolgimento degli utenti online nella campagna fu che il candidato all'inizio privo di mezzi finanziari divenne quello che spese di piu nella gara in corso. Questo approccio centrifugo frantumò tutte le regole delle campagne presidenziali. La campagna di Dean non solo era aperta ai commenti ma invitava il mondo digitale alle sue deliberazioni private, condividendo con i sostenitori le decisioni riservate che di solito venivano prese in riunioni segrete. La questione controversa
FASE III. L'AMBIENTE EMERGENTE
se Dean dovesse allontanarsi dalla prassi normale del Partito democratico di limitarsi a finanziamenti pubblici o dovesse per la prima volta competere con un candidato repubblicano alla pari fu sottoposta ai sostenitori online affinché la decisione fosse presa da loro invece che privatamente dagli stessi organizzatori della campagna. I tentativi precedenti di raccogliere piccole donazioni da un vasto elettorato erano falliti. Il governatore Jerry Brown, che aveva partecipato alle presidenziali nel 1992, aveva cercato di vincere le elezioni senza accettare sostanziose donazioni per non diventare debitore di lobbisti che avrebbero cercato di esercitare pressioni indebite, e annunciò che avrebbe accettato soltanto donazioni di singoli e mai superiori ai roo dollari. La sua campagna mise a disposizione un numero di telefono gratuito attraverso il quale i singoli individui potevano versare i loro contributi. L'obiettivo di Brown era di distribuire il potere su una vasta base di cittadini invece di scegliere pochi ricchi donatori. Sebbene raccogliesse 5 milioni di dollari in piccole donazioni e si trasformasse da candidato perdente a principale concorrente di Bill Clinton nell'ultima fase delle primarie del Partito democratico, l'iniziativa di Brown fu ostacolata dall'assenza di Internet senza la quale la sua campagna non aveva un'infrastruttura capace di sfruttare le dimensioni dell'ampia partecipazione e della raccolta di fondi in tutta la società richieste per sfidare in modo credibile i candidati sostenuti convenzionalmente da ricche donazioni 22 • La campagna di Dean cercò di rivitalizzare l'approccio di Jerry Brown. Invece dei numeri verdi adesso c'era il web a disposizione. Dean corteggiò i piccoli donatori tra l'elettorato criticando invece la tradizione del lobbismo e delle grosse elargizioni. Trippi considerava Internet come un canale per indurre di nuovo la gente a una partecipazione democratica. Se lo facessero e se migliaia di persone dedicassero un po' del loro tempo a compiere piccole azioni e tirassero fuori pochi dollari dal portafoglio, avrebbero veramente l'opportunità di riappropriarsi del loro governo qualora un candidato come il nostro conquistasse la Casa Bianca".
Abitualmente le campagne politiche si sviluppano intorno a un candidato che è in grado di attirare ricche donazioni da un ristretto gruppo di persone; i fondi vengono poi spesi in brevi spot televisivi per diffondere gli slogan del candidato e per criticare gli altri concorrenti. Ma Internet consente di ricevere un maggior numero di piccole donazioni dal pubblico in generale e favorisce un dibattito politico piu approfondito di quello che si può udire nei trenta se-
POLITICHE BIDIREZIONALI
condi di uno spot elettorale. Si sperava che la rete potesse rendere la politica piu reattiva e meno superficiale. Con l'intensificazione della campagna elettorale, la squadra di Dean, rompendo con le abitudini convenzionali, annunciò gli obiettivi di finanziamento a partire dalla fine di giugno del 2003 in poi. Gli organizzatori sono in genere riluttanti a dichiararli per timore che i politologi denuncino il fallimento nel caso in cui pon si riescano a realizzare. Come emblema dell'obiettivo da raggiungere, la campagna aveva messo una mazza da baseball in un angolo del sito web « Dean per l'America» dichiarando una cifra iniziale di 4,5 milioni di dollari da raccogliere prima della fine di giugno. La mazza divenne un promemoria riprodotto sui siti di Internet a mano a mano che i sostenitori di Dean si facevano promotori della raccolta di fondi. Non soltanto l'obiettivo fu superato ma in un solo giorno, il 30 giugno, i sottoscrittori di Dean donarono 828 ooo dollari online. Questa enorme somma era all'incirca un sesto di quello che John Kerry e John Edwards, i favoriti del Partito democratico, avevano raccolto in tre mesi24. Grazie a Internet, Howard Dean non era piu una figura politica di secondo piano. Alla fine di luglio 2003, i media riportarono che Dick Cheney, il vicepresidente contro il quale erano soprattutto puntati gli attacchi al vetriolo dei sostenitori di Dean, stava organizzando un pranzo al costo di 2000 dollari per commensale, a cui era invitato un ristretto numero di ricchi sostenitori, con lo scopo di raccogliere 250 ooo dollari. Superare questa cifra divenne una sfida sul blog di Dean e, nel weekend precedente al pranzo di Cheney, 9601 donatori inviarono piccoli contributi per un totale di 508 540,41 dollari 25 • La donazione media era di 52,97 dollari contro i donatori da 2000 dollari di Cheney. Il messaggio era che l'americano medio poteva battere l'élite sociale se agiva insieme agli altri su Internet. Poiché il lavoro sulla rete continuava a rendere bene, la campagna di Dean aumentò il suo orientamento centrifugo, tenendo sempre meno conto delle direttive del quartier generale e sempre di piu delle iniziative dei sostenitori della base. Quando Dean fece un giro di discorsi elettorali nell'agosto 2003, arrivò un suggerimento sul blog che se fosse riuscito a raggiungere l'obiettivo di finanziamento fissato per il mese di agosto, per segnalarlo alla comunità online avrebbe dovuto sollevare una mazza da baseball rossa nell'ultimo comizio del suo giro. Trippi sapeva che il gesto «non avrebbe detto nulla ai giornalisti e ai politologi ma le migliaia dei nostri sostenitori online ne avrebbero capito il significato»26 • La mazza da baseball era
FASE III. L'AMBIENTE EMERGENTE
il simbolo della raccolta di fondi di Dean che, sollevandola in alto mentre era sul palco, dimostrò che era stata messa in atto una dinamica bidirezionale rudimentale ma potente. Come disse Trippi, «qualcuno ... inviò il suggerimento su Internet e ci vide eseguirlo, quarantacinque minuti dopo» 27 • Per quanto potesse essere soltanto un abbozzo di dinamica a due sensi, era tuttavia concreta come non sarebbe stato possibile nell'era della televisione. Infine Dean non riusci a ottenere la candidatura, piazzandosi al terzo posto dietro a Kerry ed Edwards, un risultato comunque straordinario per un concorrente che era stato inizialmente bocciato dagli osservatori esperti come «un candidato privo di mezzi, dello staff necessario a una campagna elettorale e di un seguito nella nazione» 28 • Un altro giornalista politico ricordò che «le speranze piu inimmaginabili e ottimistiche» di Dean all'inizio della corsa erano di riuscire a raccogliere un finanziamento di 10 milioni di dollari per la campagna elettorale, una cifra che era stata superata nel giro di sei mesi 29 • Entro la fine del primo anno della sua campagna aveva raccolto piu denaro di qualunque ·altro candidato democratico della storia, superando il record stabilito da Bill Clinton mentre era ancora presidente'0 • Il suo impatto fu cosi profondo che il Partito democratico abbandonò le sue posizioni di prudenza sulla guerra in Iraq e su altre questioni per assumere l'atteggiamento piu assertivo di Dean il quale fu nominato presidente del Partito. Tuttavia Internet non fu la panacea di tutte le campagne politiche deboli. Come nel caso della bolla delle imprese dot-com, ci furono false speranze per coloro che si avventurarono in maniera sconsiderata. Per chi credeva, sulla scia delle campagne di Ventura nel 1998 e di Dean nel 2004, che Internet stesse cambiando la politica irrevocabilmente, il caso di Andrew Rasiej fu una lezione. In seguito al fallimento della sua campagna per le elezioni al prestigioso posto di Public Advocate di New York, il direttore dell'organizzazione, Micah Sifry, scrisse, alla fine del 2005, un attento esame di come erano andate le cose' 1 • Il punto focale del programma della campagna era stato lo sviluppo di un blog, su cui far convergere interessanti conversazioni della comunità, che avrebbe richiesto un aggiornamento quotidiano e una «costante attenzione al feedback che veniva inviato». Sarebbe stato importante «mostrare alla rete che [il blog] esiste» per lo stesso motivo per cui Dean era apparso sul palcoscenico con una mazza rossa da baseball. Ma, sulla scorta del successo di Dean, la campagna di Rasiej « sopravvalutò la com-
POLITICHE BIDIREZIONALI
1 99
pensazione di Internet per le nostre debolezze» Fin dall'inizio la campagna dovette affrontare una serie di difficoltà: era cominciata tardi e il candidato era sconosciuto ma, soprattutto, la città di New York non aveva ancora una cultura di blogging politico. I risultati fecero riflettere. Sebbene il 90 per cento dei fondi fossero stati raccolti online, piu della metà erano però stati versati dopo che qualcuno coinvolto nella campagna aveva telefonato personalmente al donatore 33 • Comunque, nonostante i limiti della politica online, era chiaro che qualcosa era cambiato in realtà. Nel 2004, Joe Trippi scrisse che «le elezioni del 2008 saranno la prima gara nazionale condotta e vinta in primo luogo su Internet» 34 • 32 •
All'inizio del 2007, Mare Andreessen, fondatore di Netscape, ebbe un colloquio di un'ora e mezza con un giovane senatore, di nome Barack Obama, che si accingeva a varare la sua campagna per la candidatura del Partito democratico alle elezioni presidenziali. Il world wide web esisteva da meno di sedici anni e il senatore era convinto che fosse arrivato il momento in cui il sistema avrebbe avuto un ruolo importante nella sua corsa per la Casa Bianca. Andreessen ricorda l'incontro: In particolare, il senatore era personalmente interessato alla crescente diffusione dei socia! network, come Facebook e YouTube, e ai contenuti generati dagli utenti. Con fare distratto ma perseverante ci torchiò per sapere quale pensavamo che sarebbe stata la prossima generazione di socia! media e in che modo l'uso dei socia! network avrebbe potuto influire sulla politica; nessuno del suo staff era presente, non aveva con sé materiali pronti né appunti. Sapeva già molto sull'argomento ma era curioso di saperne di piu".
Non solo questo candidato era già personalmente esperto del web, ma aveva anche a disposizione i veterani della campagna di Dean. Fu il personale dello staff di Dean a fondare l'agenzia di consulenza Blue State Digitai che creò My-BarackObama. Questo sito non soltanto annunciava le manifestazioni della campagna ma forniva anche una piattaforma ai sostenitori per pubblicizzare gli eventi che avevano organizzato essi stessi nel loro quartiere. Nelle intenzioni del progettista del sito, «la priorità era di rendere semplice per qualcuno che visitasse il sito la possibilità di ospitare una riunione a casa propria» 36 • Questa era la forza centrifuga in azione a un livello superiore. La strategia diede i suoi frutti. Alla fine del 2007, Barack Obama cominciò a raccogliere piu fondi della sua concorrente, Hillary Clinton. Ad esempio, le cifre di marzo 2008 mostrano che la sua
200
FASE III. L'AMBIENTE EMERGENTE
campagna aveva raccolto oltre 40 milioni di dollari da 442 ooo donatori (a confronto con i 20 milioni di dollari di Hillary Clinton) 37 • Ben 2 r8 ooo dei donatori di Obama a marzo aveva contribuito per la prima volta a una campagna presidenziale e, mediamente, ciascuno aveva dato meno di roo dollari3 8 • Nell'aprile 2008 fu annunciato che il 40 per cento dei fondi donati alla campagna di Obama per la candidatura democratica derivava da contributi di 200 dollari o anche meno. A giudicare dai dati messi a disposizione, i contributi totali alla candidatura e alla campagna presidenziale di Obama ammontarono a 336314 554 dollari versati da 3 r 3 585 donatori3 9 • Ciò significa che la donazione media complessiva, incluse le molteplici piccole donazioni offerte in momenti diversi della campagna dagli stessi individui, era di 1072,48 dollari. Il piccolo donatore aveva avuto un ruolo significativo nell'elezione di Barack Obama. Anzi, dopo la sua elezione la sua squadra di transizione ricevette un'ulteriore somma di 4,5 milioni di dollari in donazioni che erano mediamente di 75 dollari ciascuna40 . Queste cifre rappresentano uno spostamento del modello in termini di dollari. Quattro anni prima, durante la campagna per la candidatura democratica del 2004, Zephyr Teachout, una figura autorevole della campagna online di Dean, aveva parlato di un processo di «ridemocratizzazione»41. Grazie a Internet, il finanziamento delle elezioni stava diventando «il campo d'azione di molti non di pochi» 42 . Riflettendo sulla vittoria di Barack Obama nel 2008, Joe Trippi scrisse un articolo dal titolo From Linux to Obama (Da Linux a Obama) in cui rifletteva che la trasformazione venuta dal basso ha completamente cambiato il modo in cui avvengono le elezioni, dal reclutamento di nuovi sostenitori alla raccolta di fondi, dalla presentazione di nuove idee al rifiuto di quelle che non funzionano. E cambiò il modo in cui le comunità si formano e i normali cittadini comunicano a tutti i livelli, dall'organizzazione politica ali' assistenza parentale".
Dollaro su dollaro, il potere elettorale si sta trasferendo dai ricchi donatori ai singoli votanti. «La gestione delle reti»: un nuovo modo di organizzare le faccende umane.
Al mondo non mancano gli idealisti nei momenti di rivoluzioni tecnologiche. Alcuni anni dopo la loro sconfitta a New York, Sifry e Rasiej scrissero un articolo dal titolo Politics 2.0 (La politica
POLITICHE BIDIREZIONALI
20!
2.0) in cui spiegarono il potenziale di Internet in funzione di un cambiamento della politica. Il loro tono, sebbene alterato dall'esperienza della sconfitta di Rasiej nel 2005, rimaneva ottimistico:
Nel tempo, le strategie online che spostano il potere alle reti dei comuni cittadini potrebbero condurre a una nuova generazione di votanti piu impegnata nel processo politico. Questo a sua volta potrebbe rendere i politici piu affidabili, creando un circolo virtuoso in cui i rappresentanti eletti, che si dimostrano piu aperti e disposti a mantenere un'interazione non verticistica con l'elettorato, sono ricompensati da maggiore fiducia e sostegno da parte dei votanti".
Questa è la visione utopistica di un futuro di maggiore trasparenza e affidabilità politica con una partecipazione di massa in cui ogni persona diventa un attivista e ogni attivista è, almeno parzialmente, preparato. Eppure un'analoga trasformazione politica era stata promessa quarant'anni prima quando, alla fine degli anni Sessanta e durante tutto il decennio dei Settanta, molti nel campo della politica e dei mezzi di informazione degli Stati Uniti credettero che le comunicazioni via cavo potessero non solo aumentare il numero dei canali televisivi nelle case ma anche creare una moderna rete nazionale che avrebbe consentito agli americani di partecipare alla vita politica in un modo nuovo. La storia comunque si svolse in modo diverso 45 • Eppure, mentre gli idealisti degli anni Sessanta e Settanta furono delusi, quelli dell'era digitale potrebbero non esserlo. Ralph Lee Smith, autore di The Wired Nation (La nazione cablata), l'articolo influente che prediceva l'impatto della rivoluzione via cavo nel 1970 46 , rifletteva recentemente che Internet aveva un potenziale di trasformazione che il cavo non aveva avuto: Non ci sono dubbi che Internet abbia mantenuto due delle promesse che la tecnologia via cavo non riusci a mantenere, e cioè le comunicazioni assolutamente bidirezionali e l'accesso all'informazione a richiesta".
Come le campagne di Ventura, Dean, Obama e altri hanno dimostrato, Internet sta trasformando le elezioni. Può anche diventare una forza organizzativa nella società e segnare un nuovo capitolo nella storia dell'umanità alla ricerca di strumenti migliori per organizzarsi la vita. Giusto per contestualizzare, si consideri lo sviluppo sul lunghissimo periodo dell'organizzazione politica dell'umanità. Fino a circa diecimila anni fa, piccoli gruppi di cacciatori-raccoglitori si organizzavano in forme sociali costituite da «bande» nella maggior parte del mondo 48 • Si trattava di gruppi di poche dozzine di individui che cacciavano insieme, avevano delle
202
FASE III. L'AMBIENTE EMERGENTE
terre in comune e prendevano decisioni collettivamente. Secondo le teorie antropologiche non c'erano capi riconosciuti 49 • Nella prima fase del Neolitico, a partire da circa 9500 anni a.C., il lavoro dei campi e poi l'allevamento del bestiame fecero si che gruppi piu numerosi scegliessero di stabilirsi in insediamenti permanenti 50 • Si formarono le comunità tribali e con esse strutture sociali piu complesse basate su vincoli di parentela51 • L'attività decisionale fu centralizzata e la società assunse un struttura stratificata. Infine le comunità tribali crebbero di grandezza fino a includere migliaia di individui. Emersero i ruoli di comando e la burocrazia, mentre l'organizzazione della società cambiava da un modello egualitario e collettivo a un modello verticistico di gerarchia centralizzata. Via via che le tribu crescevano e si univano fino a contare decine di migliaia di cittadini, si svilupparono le città-stato e i sistemi di civiltà. La stratificazione sociale diventò meno dipendente dai rapporti di parentela e ci fu un aumento di specializzazione del lavoro. Le tasse fornivano i finanziamenti necessari per l'architettura pubblica, la burocrazia e l'amministrazione della giustizia. Entro la fine del xx secolo, quando fu inventato il web, gli stati democratici avevano sviluppato un sistema di «democrazia rappresentativa» in cui i cittadini esercitavano il diritto di eleggere i governi ma per il resto avevano un ruolo minore nel processo di legiferazione. Ora che sono passati i primi dieci anni del XXI secolo, le comunicazioni a due sensi sembrano offrire una forma di «gestione delle reti». Mentre l'elezione di Obama mostrò il potere di Internet come un nuovo tipo di podio, Internet sta cambiando piu delle politiche elettorali. Ha cominciato a trasformare il modo in cui le società si organizzano e decidono linee politiche. Mentre la democrazia rappresentativa tiene i cittadini lontani dai centri decisionali, i nuovi strumenti emersi su Internet promettono una democrazia piu diretta e partecipativa. Dopo un vuoto di diecimila anni alcuni aspetti del processo decisionale basato sul consenso, diffuso nelle prime forme sociali a bande, stanno forse riaffiorando negli stati democratici. Internet può consentire un nuovo approccio al processo decisionale del consenso. George Gallup, uno dei pionieri dei sondaggi dell'opinione pubblica a partire dalla metà degli anni Trenta, credeva fermamente che questo strumento desse al cittadino medio «l'opportunità di farsi sentir e »52 : Attraverso quasi cinque decenni di sondaggi, abbiamo riscontrato che la gente è straordinariamente sensata, specialmente sulle questioni che rientra-
POLITICHE BIDIREZIONALI
203
no nel campo dell'esperienza della persona comune. Spesso la gente è in realtà piu progredita dei loro rappresentanti eletti nell'accettare innovazioni e cambiamenti radicali".
Oppure, come scrisse Kevin Kelly nel 1998, «la strada piu sicura che conduce all'intelligenza è attraverso la stupidità di massa» 54 • Questo trova applicazione in due aree: l'opinione pubblica e il controllo minuzioso delle leggi promulgate. In senso lato a un livello elementare, lo spirito del tempo di Google e altri dati relativi alle ricerche piu popolari sul web danno un'idea del clima nell'opinione pubblica. Anche la folksonomy del web 2.0, generata da blog e siti molto apprezzati, suggerisce quali idee abbiano maggior risonanza tra gli internauti. Tuttavia sono forse in arrivo strumenti piu avanzati per sondare le opinioni in rete_ Già nel giugno 2009, 5 2 milioni di case in tutto il mondo erano dotate di un sofisticato sistema di sondaggio che Gallup, deceduto nel 1984, avrebbe solo potuto sognare 55 • Si tratta della console di un gioco per PC che si chiama Nintendo Wii. Nel giorno di San Valentino del 2007, la Nintendo fece uscire una nuova applicazione detta «Tutti votano» adatta al Wii che consente a sei utenti per postazione di partecipare a sondaggi locali, regionali e mondiali su Internet 56 _ Il primo sondaggio ebbe luogo in Giappone e chiedeva: « Che cosa preferite, i tagliolini udono soba?» 57 • Quando i risultati apparvero sullo schermo, si notarono nette differenze tra varie parti del Giappone. I proprietari della Xbox 360, la console di un altro famoso gioco per computer, parteciparono a un primo sondaggio fatto nella fase preparatoria delle elezioni presidenziali del 2008 negli Stati Uniti_ I risultati, sebbene probabilmente distorti dalla prevalenza di giovani partecipanti, predissero quello che fu poi l'esito reale dell'elezione 58 . Anche se la maggior parte dei sondaggi fatti sulle console di intrattenimento sono su questioni di scarso rilievo, la presenza di un numero cosi grande di questi dispositivi attaccati ai televisori della famiglia in tutto il mondo suggerisce un futuro in cui diventerà un'abitudine fare sondaggi regolari e circoscritti. Il sondaggio è comunque un'operazione necessariamente limitata. Un cambiamento piu profondo del modo in cui la società gestisce la sua vita potrebbe essere possibile con l'avvento di un attento esame collettivo delle linee guida della politica. Frederick von Hayek, nel suo articolo del 1945, The Use o/ Knowledge in Society (L'uso della conoscenza nella società), sosteneva che era impossibile sfruttare i saperi di tutti i componenti di una società per informare una perfetta legiferazione da parte del governo_ Ep-
204
FASE III. L'AMBIENTE EMERGENTE
pure sia Wikipedia che Linux dimostrano che è possibile, in ampi progetti fatti in collaborazione, sfruttare le conoscenze di molti individui per produrre risultati complessi. Già parecchio tempo fa, negli anni Ottanta, i gruppi di discussione su Usenet avevano cominciato a svolgere le funzioni di «un think tank collettivo, con molti milioni di membri in tutto il mondo ... per rispondere a qualunque domanda da quelle semplici a quelle accademiche» 59 • La combinazione di progetti sempre piu sofisticati che prevedono collaborazioni di massa e strumenti di sondaggio facili da usare e addirittura collegabili alla console di un gioco per PC in casa, suggerisce che è in vista un nuovo modello di partecipazione politica. Ad esempio, alcuni cittadini intraprendenti possono esaminare o commentare sulle bozze di legge mentre altri votano gli emendamenti online. Nel 1980, J. C. R. Licklider, una delle figure fondamentali per l'utilizzazione delle reti e il lavoro informatico interattivo all' ARPA, prefigurò una nuova forma di «politica interattiva» nella quale i cittadini sarebbero stati meglio informati e avrebbero avuto accesso ai dati delle votazioni dei candidati e altri documenti 60 • I cittadini che leggono attentamente i testi di legge online sviluppano sempre di piu una competenza che consente loro di controllare le motivazioni dei loro rappresentanti politici. Alcuni nuovi servizi web danno alla cittadinanza la possibilità di vagliare i dati delle donazioni per individuare eventuali ingerenze indebite che abbiano corrotto l'operato del legislatore. Negli Stati Uniti un nuovo gruppo di cittadini addetti alla sorveglianza ha cominciato a usare nuovi strumenti web per esaminare le linee politiche 61 • Un ente, chiamato Centre for Responsive Politics (Centro per una politica reattiva), è operativo sul sito OpenSecrets su cui sono disponibili i dati delle operazioni di scrutinio delle elezioni dei rappresentanti politici e le fonti delle donazioni che hanno ricevuto. Il sito EarmarkWatch invita i visitatori a iscriversi e usare il database del sito sui fondi «accantonati» e stanziati da membri del Congresso per progetti specifici che sono «far fronte a bisogni urgenti o distribuire favori politici» 62 • Un altro sito, GovTrack, fornisce uno strumento in cui si possono esaminare le proposte di legge in attesa di essere passate, confrontandole con le nuove bozze a mano a mano che il processo di legiferazione procede. I visitatori possono seguire il progresso di una legge a cui sono interessati. Ci sono dei limiti a questo approccio, come il fondatore di GovTrack è pronto ad ammettere:
POLITICHE BIDIREZIONALI
205
Lo scopo è molto cambiato nel corso degli anni. Certo all'inizio l'idea era di chiedere al legislatore i motivi del suo operato. I cittadini potevano vedere i progetti di legge che venivano votati, constatare se erano d'accordo con la votazione e poi andare alle elezioni piu informati. Ma ora penso che quell'atteggiamento fosse miope oppure un pio desiderio. Posso sembrare cinico, ma in realtà sono soltanto pratico. Il mondo è complicato, ci sono dei buoni motivi per eleggere dei rappresentanti, perché prendano delle decisioni, cosf non dobbiamo sorbirci 500 pagine di bozze di legge6'.
Tuttavia, quando si riflette sul livello di complessità insita nei milioni di righe di codice del sistema operativo di Linux, la prospettiva di una sofisticata analisi collaborativa di un nuovo testo di legge sembra almeno fattibile. Come diceva Eric Raymond nel mondo dello sviluppo di Linux, «molti occhi risolvono la complessità»64 •
1 Corrispondenza e-mail dell'autore con P. Madsen, giugno 2009. ' lbid. ' R. F. RANEY, Formerwrestler's campaign gota boost /rom the Internet, in «Politics Online», 6 novembre 1998. Vedihttp://www.politicsorùine.com/coverage/nytimes2/06campaign. html (ultimo accesso 8 gennaio 2009). 4 P. MADSEN, Notes regarding ]esse Ventura's Internet use in bis r998 campaign /or Minnesotagovernor, DoWire, ro dicembre r998. Vedihttp://www.dowire.org/notes/?p=4r3 (ultimo accesso 8 gennaio 2009). ' B. MCAULIFFE, Ventura riding the web, in «Minnesota Star Tribune», r O marzo 1999. 6 R. F. RANEY, Former wrestler's campaign gota boost/rom the Internet, in« The New York Times», 6 novembre r998. 7 P. MADSEN, in Il. MCAULIFFE, Ventura riding the web cit. • J. VENTURA, in Minnesota's new chief pushes net as politica! tool, in «The New York Times», 28 gennaio r999. ' P. MADSEN, Notes regarding fesse Ventura's Internet use cit. ' 0 P. MADSEN, The e-democracy. Alternative methods /or engaging citizens, Pew Centre for CivicJournalism 1999 Batten Symposium Pane! Presentation (Tavola rotonda al Batten Symposium del 1999 organizzato dal Pew Center per un giornalismo civile). Vedi http://www.pewcenter.org/batten/edem.html (ultimo accesso 8 gennaio 2009). Il J. TRIPPI, in THE INSTITUTE OF POLITICS (a cura di) Campaign /or President: The Managers Look at 2004, Rowman & Llttlefield, Cambridge (MA) 2005, p. 2. 12 J. TRIPPI, The Revolution Will not Be Televised: Democracy, the Internet, and the Overthrow o/ Everything, HarperCollins, New York 2004, p. 85. 13 Intervista a J. Trippi di L. Lessig, sul blog di Lessig, 16 agosto 2003. Vedi http:// lessig.org/blog/2003/08/interview_with_joe_trippi.html (ultimo accesso IO dicembre 2008). 14 Ibid. " lbid. 16 L. LESSIG, The new road to the White House: how grass roots blogs are trans/orming presidential politics, in« Wired», novembre 2003. 17 J. TRIPPI, Howard Dean to Guest Blog/or Lawrence Lessig, Slashdot, 13 luglio 2003. Vedi http://slashdot.org/comments.pl?sid=7o875&cid=6428904 (ultimo accesso 25 giugno 2009).
206 18 J. TRIPPI,
FASE III. L'AMBIENTE EMERGENTE
The perfect storm, messaggio sul blog, r 7 maggio 2003. Vedi http://joetrippi. com/blog/?page_id=r378 (ultimo accesso ro dicembre 2008). 19 J. TRIPPI, The Revolution Will not Be Televised cit., p. ro3. 20 D. SEARLS, The open sourceforce behind the Obama campaign, in «LinuxJournal», novembre 2008. 21 Intervista aJ. Trippi di L. Lessig cit. 22 J. TRIPPI, The Revolution Will not Be Televised cit., pp. 48-50. 23 Intervista a J. Trippi di L. Lessig cit. 24 J. TRIPPI, The Revolution Will not Be Televised cit., pp. 133-34. 25 D. SEARLS, Hacking democracy, in «Linux Journal», r O giugno 2004. 26 J. TRIPPI, The Revolution Will not Be Televised cit., p. 154. 21 Ibid. 28 w. SHAPIRO, One Car Caravan: On the Road with the 2004 Democrats be/ore America Tunes in, PublicAffairs, New York 2003, p. r. " w. SHAPIRO, Unti! next year, just enjoy dem's show, in« Usa Today», 17 luglio 2003. 30 J. TRIPPI, in n. SEARLS, The open source farce behind the Obama campaign cit. 31 M. SIFRY, Open source politics r.o: lessonsfrom advocatesfor Rasiej 2005 campaignfor NYC public advocate. Vedi http://www.gomaya.com/glyph/archives/oor478.html (ultimo accesso r 1 dicembre 2008). " Ibid. " Ibid. 34 J. TRIPPI, The Revolution Will not Be Televised cit., p. 255. " Messaggio sul blog di M. Andreessen a proposito del suo incontro con Barack Obama. Vedi http://blog.pmarca.com/2008/03/an-hour-and-a-h.html (ultimo accesso 26 novembre 2008). ' 6 J. FRANKLIN-HODGE, in n. SEARLS, The open source farce behind the Obama campaign cit. " Clinton fundraisingfor march, in The radar, rubrica politica su Abc News, 3 aprile 2008. ,. Obama raises more than $ 40 million in march, Cnn, 3 aprile 2008. " Donar demographics: Barack Obama, statistiche demografiche sui donatori di Barack Obama, opensecrets.org. Vedi http://www.opensecrets.org/preso8/donordemcid. php?cycle=2008&cid=Noooo9638 (ultimo accesso 13 agosto 2009). 40 Donors, Change.gov: the Obama-Biden Transition Team. Vedi http://change.gov/ page/content/donors/ (ultimo accesso 25 giugno 2009). 41 n. MCCULLAGII, The Cyberbrains behind Howard Dean, Cnet, 16 gennaio 2008. 42 Pagina di ActBlue about. Vedihttp://www.actblue.com/about (ultimo accesso 12 dicembre 2008). " J. TRIPPI, From Linux to Obama, messaggio sul blog, 25 novembre 2008. Vedi http:// joetrippi.com/blog/?p=2544 (ultimo accesso ro dicembre 2008). 44 A. RASIEJ e M. L. SIFRY, Politics 2.0, Politico. Vedi http://www.politico.com/news/ stories/0107/2456.html (ultimo accesso 15 luglio 2009). 45 T. STREETER, Blue Skies and Strange Bedfellows: The Discourse of Cable Television, in L. SPIGEL e M. CURTIN (a cura di), The Revolution Wasn't Televised: Sixties Television and Socia! Con/lict, Routledge, New York 1997, pp. 221-42. 46 R. L. SMlTII, The Wired Nation, in «The Nation», 18 maggio 1970. 47 R. L. Smith, e-mail all'autore, 5 agosto 2009. 48 P. I. BOGUCKI, The Origins of Human Society, Blackwell, Malden 1999, p. 74. 49 E. BURKE LEACOCK e R. B. LEE (a cura di), Politics and History in Band Societies, Cambridge University Press, Cambridge 1982, p. r. 50 P. BELLWOOD, First Farmers: The Origins o/ Agricultural Societies, Blackwell, Malden (MA) 2005, p. 54. 51 w. M. DUGGER e H. J. SHERMAN {a cura di), Evolutionary Theory in the Socia! Sciences, voi. III, Routledge, London 2003, pp. 48-49.
POLITICHE BIDIREZIONALI 52
207
J. G. GEER, Public Opinion and Polling Around the World: A Historical Encyclopedia,
val. I, ABc-Clio, Santa Barbara 2004, p. 408. " Ibid., p. 409. 54 K. KELLY, New Rules /or the New Economy: IO Radical Strategies /or a Connected World, Penguin, New York - London 1999, p. 14. 55 Consolidated sales transition by region, Nintendo.co.jp, giugno 2009. Vedi http://www. nintendo. co. jp/ir/library/his toricaLda ta/pdf/consolida ted_sales_eo906. pdf (ul timo accesso 17 agosto 2009). 56 Everybody votes channel, Wii.com. Vedi http://uk.wii.com/wii/en_gb/channel/ everybody_votes_channeL859.html (ultimo accesso 17 agosto 2009). 57 Ibid. 58 Obama leads by 20%: Xbox live a blue state, Xbox 360 Press, 4 novembre 2008. Vedi http://gamerscoreblog.com/press/archive/2008/11/04/562228.aspx (ultimo accesso 27 agosto 2009). " 11. RHEINGOLD, The tragedy o/ the electronic commons cit. 60 J.c. R. LICKLIDER, ComputersandGovernmentcit.,pp. 114-15. 61 J. CAPLAN, The citizen watch-dogs o/ web 2.0, in «Time», 30 giugno 2008. " EarmarkWatch. Vedi http://earmarkwatch.org/ (ultimo accesso 17 agosto 2009). 63 J. Tauberer, e-mail all'autore, 17 agosto 2009. 64 E. s. RAYMOND, The Cathedral and the Bazaar: Musings on Linux and Open Source by an Accidental Revolutionary, O'Reilly, Cambridge (MA) 2001, p. 33.
XIII.
Promesse e pericoli
Al lettore della storia di Internet appaiono chiare molte cose che non furono affatto ovvie per chi le visse in prima persona. I giovani specializzandi che elaborarono i protocolli per la comunicazione tra computer in rete non potevano sapere che stavano scrivendo la costituzione di un nuovo mondo. Né Ray Tomlinson, che inventò l'e-mail senza l'approvazione dei suoi superiori nei primi anni Settanta, poteva rendersi conto che stava costruendo uno strumento grazie al quale outsider politici sarebbero diventati governatori. Neanche lo stesso Ventura, figura inimitabile di culturista-eroe-d'azione prestato alla politica, poteva immaginare che la sua campagna su Internet per il governatorato del Minnesota avrebbe aperto la strada all'elezione del primo afroamericano alla Casa Bianca sull'onda di una miriade di piccole donazioni inviate da attivisti che erano riusciti da poco a conquistarsi un'autonomia in rete. La tendenza centrifuga che lega questi avvenimenti appare lampante soltanto a posteriori. Invece il futuro di Internet e il suo impatto sul mondo economico-commerciale, politico e sociale rimane vago. Sbirciando attraverso il velo che lo copre, senza perdere di vista il passato, si possono ipotizzare alcune previsioni ma l'unica cosa certa è che l'entrata di Internet nel secondo decennio della sua esistenza di grande successo provocherà dei terremoti.
La globalizzazione, i grid e le piatta/orme. Alla fine degli anni Novanta, con l'avvicinarsi del nuovo secolo, i campi d'azione e d'influenza delle grandi multinazionali sollevarono il sospetto che si stesse cercando di eliminare la concorrenza dai mercati, che stessero avvenendo indebite ingerenze politiche in cambio di tangenti e che si importassero prodotti da angoli del
PROMESSE E PERICOLI
209
globo dove il lavoro era scarsamente regolamentato e a basso costo. Questo almeno è quanto stavano a indicare le distruzioni subite dai vari Starbucks e dai punti vendita GAP dopo una serie di affollatissime dimostrazioni di protesta alla Conferenza dell'Organizzazione mondiale del commercio a Seattle nel 1999 e al Vertice del G8 di Genova nel 2001 e in diverse altre manifestazioni successive. Una schiera eterogenea di gruppi di sinistra guardava con sempre maggior diffidenza alla globalizzazione, o forse è meglio dire all'egemonia del capitalismo nel periodo successivo alla disgregazione dell'Unione Sovietica e al quadro di diseguaglianza che si veniva instaurando nel commercio internazionale. La caduta del muro di Berlino non aveva lenito improvvisamente le miserie dei poveri della terra e i manifestanti antiglobalisti vedevano le multinazionali occidentali, del tipo Starbucks e GAP, come uniche beneficiarie dell'espansione commerciale a livello mondiale. Ma la vera globalizzazione maturava in parallelo con Internet. Alla fine degli anni Novanta, gli stessi dimostranti pianificavano i percorsi delle loro marce e comunicavano i loro manifesti su un'Internet che aveva cominciato a diffondersi da poco. Con il passare del tempo, essere globalizzati ha assunto, alla fine del primo decennio del 2000, un significato diverso da quello di dieci anni prima. Nel nuovo scenario è l'individuo e non la multinazionale che opera da agente primario. Mentre si sta concludendo il primo decennio del 2000, sta nascendo l'epoca dei mini-imprenditori. Come osservò Steve Jobs nel 1996, il web è «un incredibile luogo di democratizzazione»: Sul Web ... sembra che una piccola impresa abbia le stesse dimensioni di una grossa società e sia altrettanto accessibile. Le grandi compagnie spendono centinaia di milioni di dollari per costruirsi canali di distribuzione ma il Web riuscirà a neutralizzare completamente questo vantaggio'.
Con la connessione diretta tra clienti e potenziali fornitori, siannulla il beneficio che le grandi compagnie traggono dall'aver creato una costosa rete di distribuzione. Il web dà a chiunque e ovunque un accesso diretto a remoti mercati di nicchia. Il piccolo commerciante che opera in un sistema economico a basso costo può adesso raggiungere degli acquirenti nei mercati dove i prezzi sono alti. Ad esempio, nel 2009, ordinai su eBay una scheda di memoria di una macchina fotografica a un piccolo fornitore in Cina. Alcune settimane piu tardi l'articolo fu recapitato nella mia cassetta delle lettere a Cambridge, dopo un viaggio di oltre 9500 chilometri, accompagnato da questo messaggio:
210
FASE III. L'AMBIENTE EMERGENTE
Saluto!! Auguro tu sei felice quando apri il pacchetto. La Cina è molto lontana; molte grazie per permettere a noi piu tempo considerevole di spedizione. Noi Io controlliamo e proviamo molto bene prima di spedire. Se qualunque danno durante il trasporto che è fuori del nostro controllo, per favore dire a noi e noi aiuteremo te a risolvere. Grazie. Per favore, apprezzare nostri servizi a cinque stelle dalla Valutazione Venditori al Dettaglio. Nostro duro lavoro ha bisogno tuo incoraggiamento. Anche noi apprezzare tua gentile risposta! Non esitare a contattarci se qualunque domanda o problema, dare a noi l'opportunità di aiutarti a risolvere qualunque problema! Grazie:-)'.
Sono sorte le condizioni per una nuova era di lavoro imprenditoriale in cui piccolissime attività creative possono produrre innovazioni e vendere servizi e prodotti. Nella globalizzazione dell'era digitale ci saranno Starbucks e GAP ma ci sarà anche una moltitudine di minuscole imprese di nicchia come la produzione artigianale a domicilio dei tradizionali maglioni di lana delle isole Aran venduti su eBay oppure l'album di esordio di una band musicale registrato in un garage californiano e venduto su iTunes. I mini-imprenditori sono stati ulteriormente avvantaggiati dall'avvento del «cloud computing», la «nuvola informatica». Lo slogan per il marketing della Sun Microsystems, «La rete è il computer», può avere colpito molti come una stranezza quando fu coniato nel 1994. Eric Schmidt, che era allora direttore responsabile della tecnologia della Sun ed è oggi l'amministratore delegato della Google, disse alla rivista «Fortune» nel 1995: «Abbiamo sempre saputo che i minicomputer avevano molto piu senso se non erano isolati ed erano invece collegati in rete» 3 • Questa è l'ironia tecnica di Internet: i PC affrancarono gli utenti dall'antico vincolo burocratico di dover dipendere dall'informatica di stile industriale fornita da un mainframe, ma ecco che l'incremento della connettività consente ai mainframe, ora rinati come centri di dati, di riprendere il loro vecchio ruolo di perno dei processi di elaborazione per lo stoccaggio di dati. Comunque, sebbene il mainframe abbia una funzione cruciale per le piattaforme informatiche del nuovo reticolo, o grid, il vecchio modello burocratico e centralizzato di elaborazione del mainframe non c'è piu. Al suo posto è sorto un grid comunitario di potere informatico. Nel 2000, Leo Beranek, uno dei fondatori dell'azienda costruttrice degli IMP utilizzati nello stadio iniziale di ARPANET, predisse:
PROMESSE E PERICOLI
2II
Nella prossima fase di questo percorso, i sistemi operativi, i programmi di scrittura e altre cose similari saranno centralizzati su grossi server: le case e gli uffici avranno ben pochi pezzi di hardware, solo una stampante e uno schermo piatto ... 4 •
Il cambiamento che Beranek descriveva era di fatto già iniziato. Negli ultimi anni Novanta, un imprenditore di nome Mare Benioff cominciò a esaminare un nuovo tipo di software da distribuirsi su Internet, essendo egli interessato al mercato del software usato dalle compagnie per seguire i clienti e i prodotti. La sua idea era semplice ma rivoluzionaria: Se ospitassimo noi stessi [il software], usando Internet come piattaforma di distribuzione, i clienti non dovrebbero chiudere le loro operazioni mentre i programmi vengono installati. Il software si troverebbe su un sito accessibile da qualunque dispositivo e da qualunque parte del mondo, ventiquattro ore al giorno per tutto l'anno. In tal modo il software viene equiparato a un servizio pubblico, come pagare una bolletta elettrica mensile'.
Nel 1999 Benioff fondò una compagnia di nome Salesforce che cominciò a offrire servizi eseguiti direttamente sui computer degli abbonati dai server di Salesforce invece di vendere il software fisico e chiedere ai clienti di implementarlo sui propri server. Questo modello di « software di servizio» e la conseguente promozione del cloud computing, in cui centri remoti di dati distribuiscono potenza di elaborazione e servizi su tutta la rete, ebbe una storia parallela nel periodo che va dal r 9 r o agli anni Trenta durante il quale Samuel Insull pensò a una «centrale di energia elettrica», un servizio pubblico di alimentazione di reti elettriche che consentiva alle industrie di abbandonare i loro generatori privati per collegarsi alla rete nazionale in via di sviluppa6. La nuvola informatica si è ampliata fino a includere semplici applicazioni, come la scrittura di documenti e la posta elettronica, e applicazioni complesse come l'editing di video. La capienza dei centri remoti di dati, le piattaforme pronte all'uso per la distribuzione, gli strumenti di produzione a basso costo, tutto riduce la spesa che si affronta cominciando da zero. Un esempio è il popolare sito del social network Facebook su cui gli utenti possono ora creare e vendere semplici servizi. Purché esistano i requisiti scolastici e infrastrutturali, un numero sempre maggiore di piccoli imprenditori, appoggiandosi a scarsissime risorse e iniziando la loro attività imprenditoriale a un'età sempre piu precoce, introdurranno innovazioni e contenuti commercialmente validi sul mercato globale. Una nuova generazione di quelli che si possono chiamare «microimprenditori» può avvia-
212
FASE III. L'AMBIENTE EMERGENTE
re produzioni a domicilio che rispondono alle richieste di nicchia di un mercato globale. Inoltre dal 2008, una nuova generazione di PC molto economici, del costo di 300 dollari o anche meno, ha inondato il mercato. Questa è un'opportunità non soltanto per i singoli utenti ma anche per i governi. Ciò non significa accettare che il mondo, con tutte le sue divisioni e diversi livelli di prosperità, sia «piatto»7, per usare il titolo del libro di Thomas Friedman, oppure rifiutare che sia irrimediabilmente pieno di punte, per usare le parole di Richard Florida8 ma vuol dire piuttosto che quelle nazioni intelligenti che intendono cogliere l'occasione e trarre vantaggio dal nuovo stato di cose si devono predisporre a creare una rinascita commerciale nazionale in cui ogni cittadino può impegnarsi attraverso un laptop, il proprio computer portatile. Questo sarebbe il «commercio totale», un termine che richiama intenzionalmente quello di guerra totale del secolo scorso in cui gli stati industrializzati impegnarono i loro cittadini al gran completo nello sforzo bellico. Per ottenere ciò, i governi devono inculcare un istinto digitale attraverso riforme scolastiche lungimiranti, incoraggiando precocemente il talento rivoluzionario e formando una generazione di giovani capaci di competere con i loro pari a livello globale. L'istinto digitale è il presupposto delle abilità digitali di base nei bambini piccoli e li aiuta ad adattarsi con facilità alle nuove tecnologie a mano a mano che emergono. La tecnologia non è piu un'area riservata ai paesi ricchi. I paesi che non hanno potuto trarre benefici dall'età industriale possono avere maggior fortuna nell'era digitale. Gli utenti dei computer di prima generazione nei paesi del BRIC (Brasile, Russia, India e Cina), ad esempio, saranno in grado di competere allo stesso livello con i loro pari negli Stati Uniti, in Canada, nell'Unione Europea, in Australia e in Giappone. Il controllo in un mondo centrifugo.
Racconta una leggenda cinese che la principessa Xi Ling-Shi della dinastia Chou scopri il segreto del baco da seta nel XXVII secolo a.C., un giorno in cui uno di quei vermetti cadde nel tè della principessa rivelando il segreto del suo filo. Da allora la Cina detenne per tremila anni il monopolio della sericoltura, l'allevamento del baco da seta, fino al III secolo a.C. Infine, mediante operazioni di spionaggio industriale persiano, i bachi da seta furono contrabban-
PROMESSE E PERICOLI
213
dati in Persia nel 410 d.C. Nel secolo successivo l'imperatore Giustiniano a Roma prese provvedimenti contro la morsa della Persia sulla produzione della seta e intorno al 5 3 o inviò in Cina con la sua benedizione due monaci nestoriani che trafugarono uova di bachi da seta 9 • Non che Roma fosse superiore ai monopoli: i mercanti dell'impero si avventurarono ben oltre i suoi confini penetrando nelle terre dei barbari e vendendo qualunque tipo di merce a popolazioni sconosciute di ogni dove. Uno di questi prodotti era il vino, ma la preziosa vite rimaneva comunque a casa. Anzi nel r secolo a.C., cinquecento anni prima delle misure prese da Giustiniano contro il monopolio della sericoltura concentrato in Persia, il senato romano proibi la viticoltura nelle province dell'impero 10 e un successivo decreto di Domiziano, nell'anno 91 d.C., vietò la coltivazione della vite a chi non era cittadino romano. Mantenendo il monopolio della produzione del vino in patria, Roma garantiva alla produzione romana un mercato estero. Solo alla fine del II secolo l'imperatore Probo annullò il divieto della viticoltura nelle province 11 • La Cina, soddisfatta di commerciare la seta ma non il baco, e Roma, felice di vendere il vino ma non la vite, conoscevano in quanto imperi il valore del controllo della piattaforma di produzione e di consumo di una merce preziosa. La novità nell'era digitale sono le tendenze centrifughe e aperte di Internet. Quanto queste due forze opposte agiscano l'una sull'altra è la base su cui poggia il futuro del mondo digitale degli affari. L'equilibrio tra il desiderio di beneficiare dal controllo sulle piattaforme e la pressione di compensazione della spinta centrifuga di Internet verso l'apertura determinerà quali compagnie digitali conosceranno la prosperità e quali il fallimento nel prossimo decennio. Forse il parallelo storico piu vicino è la scelta fatta dal parlamento britannico negli anni Quaranta dell'Ottocento di abbracciare una pratica economica che si avvicina al libero commercio, sottraendosi alle tariffe protezionistiche nella speranza di migliorare la ricchezza interna attraverso un incremento del commercio. Il sistema operativo Android di Google, adottato solo recentemente su telefonini cellulari e piccoli computer, ha una piattaforma completamente aperta basata sul modello di Linux. Google prevede che i profitti non saranno legati a un particolare dispositivo o applicazione bensi dall'uso piu allargato di Internet in generale. Comunque tutti i proprietari di piattaforme, come Facebook, Appie, Nokia, Microsoft e Nintendo, si trovano ad affrontare la difficile questione di come proporre quella piu stimo-
214
FASE III. L'AMBIENTE EMERGENTE
lante riuscendo a mantenere un sufficiente controllo su di essa da trarne profitto. Un principio guida è che i computer e i dispositivi dotati della miglior scelta di applicazioni di software sono gli articoli piu attraenti per i consumatori e quindi attirano un maggior numero di sviluppatori che creano ulteriori applicazioni di software per questi oggetti. L'iPhone della Appie, che è in concorrenza con i telefonini dal sistema operativo Android di Google, offre un utile esempio del difficile problema del controllo. La storia della Appie Inc. ha insegnato all'azienda quanto sia importante che i suoi prodotti siano non solo delle apparecchiature ma anche delle piattaforme di software. Nella seconda metà degli anni Novanta, dopo l'uscita di Windows 95, la vendita dei PC sali a quasi roo milioni di unità all'anno, mentre le vendite della Appie scesero da 4,5 milioni nel 1995 a 2, 7 milioni nel 1998 12 • Anche se la Appie poteva trarre profitti da economie di scala nella produzione di macchine di alta qualità, il numero di utenti dei computer Appie stava scemando al punto che diventò meno economico per gli sviluppatori di software continuare a scrivere applicazioni per le macchine Appie quando potevano semplicemente trasferirsi alle piattaforme piu popolari dei PC con sistema operativo Windows della Microsoft 13 • L'uscita dell'iPhone nel 2007, e la successiva introduzione di un programma per attirare sviluppatori di software che scrivessero applicazioni (dette «app») ad hoc all'inizio del 2008, diede alla Appie l'opportunità di costruire una piattaforma piu sostenibile. Nel luglio 2009, la società annunciò che gli utenti avevano scaricato 1 ,5 miliardi di applicazioni di software per i loro iPhone dal punto vendita App Store e che oltre 65 ooo applicazioni di software create da piu di 1 oo ooo sviluppatori erano disponibili per il download dalla metà del 2009 14 • Queste app consentivano all'iPhone, ad esempio, di controllare le previsioni meteo, di sintonizzarsi su stazioni radio locali, di prenotare un posto sul campo da golf e segnalare gli ingorghi di traffico. Quanti piu dispositivi sono venduti, tanto piu aumenta l'acquisto e l'uso delle app; il che incoraggia piu sviluppatori a scrivere nuove app, rende il dispositivo piu utile, e dà come risultato finale un incremento nelle vendite dei dispositivi. La piattaforma funziona come un sistema ecologico in cui il proprietario della piattaforma, lo sviluppatore del software e l'utente fanno tutti la loro parte. Comunque, una difficoltà che si presentò nella prima fase di attività dell' App Store illustra quanto sia delicata la questione del controllo. Quando la Appie distribui per la prima
PROMESSE E PERICOLI
2I5
volta il kit di sviluppo del software (SDK) per permettere ai programmatori di scrivere le app per l'iPhone nel 2008, scoppiò una polemica sui vincoli legali imposti dall'azienda. I programmatori che usavano l'soK dovevano prima sottoscrivere un accordo di segretezza (NDA) che vietava loro di discutere l'soK con chiunque altro. Da un lato, questo impediva loro di rivelare le caratteristiche dell'iPhone ai concorrenti, ma dall'altro precludeva loro anche la possibilità di attingere alle conoscenze e alla perizia dei loro colleghi. Un programmatore dell'iPhone scrisse a un blog: «Qualunque cosa io sia riuscito a fare su un computer è stato perché qualcun altro aveva posto le fondamenta ... nessuno di noi ha l'intelligenza di tutti noi» 15 • L'alternativa, privata della collaborazione dei pari, è che ogni sviluppatore non è in grado di sfruttare le conoscenze della comunità e deve lavorare isolato. Il gruppo degli sviluppatori dell'iPhone si ribellò e uno di questi, Justin Williams, creò il sito «www.fuckingnda.com» 16 per offrire un punto di smistamento alla sfilza di proteste contro l'NDA che i programmatori stavano inviando a Twitter e ad altri forum. Il sito registrò oltre quindicimila singoli accessi il primo giorna1 1 • Non c'era modo di confrontarsi su quali fossero le pratiche migliori, di discutere sugli errori di programmazione e su altri problemi in cui si imbattevano gli sviluppatori durante il flusso del lavoro quotidiano. Era un'esperienza frustrante e penso che abbia nuociuto alla qualità del software dell 'iPhone!R.
Resasi conto del rischio che correva la sua piattaforma, la Apple mutò posizione nell'ottobre 2008. L'approccio della Craigslist di democratizzare la piattaforma e consentire agli utenti di votare su decisioni strategiche può intralciare un'esplosiva crescita massiccia dell'impresa ma previene anche le ribellioni degli utenti. Altre piattaforme, forse soprattutto quelle il cui successo dipende dai contenuti generati dagli utenti, si trovano di fronte a difficoltà quando pensano di monetizzare il loro servizio. Facebook, ad esempio, ha avuto a che fare con numerose rivolte di utenti ogni volta che ha tentato di capitalizzare i dati personali degli iscritti per nuovi investimenti pubblicitari. Paul Baran ammoniva nel r96y «c'è una diffusa convinzione che in qualche modo la rete usata per le comunicazioni sia un insperato santuario di riservatezza ma "non è necessariamente cosi" »19 • I socia! network come Facebook e i suoi concorrenti hanno davanti a sé la terribile prospettiva che i loro iscritti possano cominciare a chiedere in massa di poter, ad esempio, trasferire tutte le loro fo-
FASE III. L'AMBIENTE EMERGENTE
tografie, messaggi e contatti a un social network della concorrenza. Se un social network dovesse tentare di reclamare il controllo o la proprietà di questi dati, inferirebbero un colpo mortale alla fiducia dei membri della comunità della loro piattaforma. Eppure in mancanza di ciò, la prospettiva di una massiccia monetizzazione, che giustificherebbe le altissime stime del valore economico di questo tipo di aziende, sarà ben difficile da realizzare. Anche quando la posta in gioco è alta, il controllo è un elemento inafferrabile su Internet. La massima piattaforma da controllare, se questo fosse possibile, sarebbe la rete stessa. Gli operatori della telefonia avevano già fatto dei vani tentativi di sviluppare delle reti a controllo centrale (usando l'x.25) a partire dalla metà degli anni Settanta. Lo scontro tra l'esigenza di Theodore Vail di un controllo centralizzato e l' orientamento centrifugo dello sviluppo di Internet non si è ancora concluso. Un nuovo dibattito sulla «neutralità della rete» cominciò negli Stati Uniti alla fine degli anni Novanta. La prospettiva di un'integrazione verticale tra le compagnie di trasmissione via cavo e gli ISP, i fornitori di accesso a Internet, faceva temere un futuro in cui Internet avrebbe seguito le orme della rete cablata degli anni Settanta. Nel dicembre 1999, i professori di diritto Lemley e Lessig presentarono alla Commissione federale per le comunicazioni delle buone ragioni per impedire una fusione tra AT&T e MediaOne, una società di cablaggio che forniva accesso in rete a livello locale in diverse regioni degli Stati Uniti: L'architettura proposta rappresenta un cambio significativo rispetto al modello esistente, punto-a-punto, per un importante segmento del mercato residenziale di Internet. Inoltre, non ci sono limiti in teoria a quello che I' AT&T potrebbe affastellare insieme al suo controllo della rete. Mentre gli ISP si espandono aldilà delle funzioni che hanno avuto tradizionalmente, I' AT&T può venire a trovarsi nella posizione di precludere ogni concorrenza fornendo una crescente gamma di servizi sulle linee a banda larga'°.
La protesta dei fautori della neutralità di Internet sosteneva che una compagnia con il controllo dell' «ultimo miglio» di connessione tra il modem di un abbonato e il commutatore di rete che connette quel modem a Internet non dovrebbe avere il permesso di usare questo controllo per costringere il sottoscrittore a utilizzare altri servizi come il noleggio di video online. Analogamente nel 2005, i fornitori di servizi su Internet proposero accessi a livelli diversi per cui l'accesso preferenziale sarebbe stato dato a servizi gestiti dai loro soci mentre sarebbe stata ridotta la velocità di banda ai
PROMESSE E PERICOLI
217
servizi e contenuti offerti dai loro concorrenti21 • Come disse Tim W u in una deposizione davanti a una commissione congressuale degli Stati Uniti a proposito di questo problema nel 2006, gli americani sarebbero scioccati «se la compagnia dell'energia elettrica annunciasse un giorno che i frigoriferi prodotti dalla Generai Electric da allora in avanti non avrebbero funzionato altrettanto bene quanto quelli fabbricati dalla Samsung» 22 • Il risultato, sostengono i fautori della neutralità della rete, sarebbe una ferita inferta alla concorrenza e a quello che Jonathan Zittrain definisce il carattere «generativo» 23 di Internet che consente ai suoi utenti di innovare spontaneamente. Il dibattito emergente sulla neutralità di Internet si focalizza sul nuovo campo di battaglia della telefonia mobile e sulla possibilità degli utenti di usare la voce tramite protocollo Internet (VOIP) su dispositivi mobili. Il VOIP consente agli utenti di fare telefonate gratuite o a tariffe molto basse inviando daii telefonici audio come pacchetti standard di dati su Internet. E comprensibile come questo minacci le società di telefonia mobile i cui ricavi dipendono da tariffe sulle chiamate standard dal telefonino. Comunque, poiché sono le reti di telefonia mobile a dotare i cellulari di accesso in rete, possono anche decidere quali telefonini possano essere usati sulle loro reti e in che modo. Quindi nel 2009 la società che fornisce il VOIP, Skype, fu costretta a eliminare il VOIP su telefonino dalla sua app altrimenti la Appie non le avrebbe consentito di essere presente nell'iPhone App Stare degli Stati Uniti. Si poteva accedere a Skype sull'iPhone soltanto su reti LAN senza fili dove non c'è competizione con il servizio a pagamento del telefono 3G fornito dalla AT&T negli Stati Uniti. Una cosa analoga era emersa nei primi tempi della storia della radio, quando l'esempio piu drammatico fu la «radio dei popoli nazisti», il Volksempfanger, progettata come una tecnologia discriminante che rendeva difficile la ricezione di trasmissioni che non fossero trasmesse da stazioni tedesche 24 • Se devono rispettare il modello del «vettore comune» in cui porte, servizi postali e reti telematiche su Internet trattano le merci provenienti da ogni angolo del mondo senza discriminazioni, i telefonini mobili per Internet, come le radio in passato, non dovrebbero discriminare fra particolari fonti di contenuto o tipi di attrezzature. Sulle reti mobili, la neutralità della rete rimane una questione scottante25 • Questa non è l'unica prospettiva di un cambiamento per la rete: anche se gli ISP non dovessero minacciare la neutralità
218
FASE III. L'AMBIENTE EMERGENTE
della rete, il pericolo potrebbe venire da altre direzioni. Per ragioni di sicurezza e sociali, lo stato potrebbe rivendicare dei diritti. L'eversione digitale, lo stato e la carta stampata.
Nel 1933, Hitler annunciò al popolo tedesco che il governo «si imbarcherà in una campagna sistematica per risanare la nazione dal punto di vista morale e materiale»26 • La Germania sarebbe stata sottoposta a quella che Hitler chiamava «decontaminazione politica», un progetto adatto all'era della carta stampata e dell'industria in cui un dittatore onnipotente poteva controllare il cinema, la stampa e la radio. Quindi, il ro maggio 1933, davanti al teatro dell'Opera sulla Opernplatz di Berlino, Joseph Goebbels proclamava la fine della tradizione intellettuale ebrea, gettando nel fuoco tutto ciò che non era tedesco. Mentre parlava, migliaia di libri di scrittori ebrei bruciavano sulla piazza davanti a lui e in tutta la Germania i falò incendiarono la notte. I roghi nazisti rappresentavano la supremazia dello stato sulla parola stampata nella sua forma piu prepotente e draconiana. Eppure nessuna pira né fiamma in tutto un intero paese potrebbero bruciare i testi digitali ospitati sui molteplici server di Internet. Nell'era digitale, i materiali proscritti da uno stato possono trovare rifugio altrove. Tuttavia gli stati possono tentare di impedire ai loro cittadini l'accesso a contenuti vietati anche se non hanno la possibilità di distruggerli alla fonte. Ma sebbene lo stato, nella sua espressione piu rigida, dominasse in passato sulla carta stampata, i testi online ora hanno la meglio sullo stato. Come osservava Paul Baran nel 1964, le reti distribuite di informazione a commutazione di pacchetto avrebbero evitato la censura amministrativa che era insita in precedenti sistemi militari di comunicazione grazie all'accento posto sul « funzionamento da utente-a-utente invece che da centro-a-centro»27 • Questo tipo di reti si oppone tendenzialmente alla regolamentazione e alla gerarchia. Ad esempio, un ricercatore dell'Università di Cambridge rivelò i punti vulnerabili del sistema censorio dell'Internet cinese, il cosiddetto «great firewall», la Grande Muraglia tagliafuoco cinese28 • Inoltre la prodigalità della rete in campo economico costringe i governi a muoversi con delicatezza. Mentre in passato un internauta cinese doveva compilare una dichiarazione doganale per inviare un'e-mail29, adesso il rischio che un involontario blocco dei contenuti possa ostacolare l'attività commerciale è
PROMESSE E PERICOLI
219
considerato troppo grande per quasi qualunque stato. Una censura draconiana, laddove ci si proponga di trarre benefici economici da Internet, è praticamente impossibile 30 • Il primo forse a imparare questa lezione fu il governo del Messico in seguito all'insurrezione armata dell'Esercito zapatista di liberazione nazionale (EZLN) nel gennaio 1994. Le truppe degli insorti si impadronirono di numerosi centri abitati e di una città nella regione del Chiapas, nel Messico meridionale, e il governo rispose con la forza. I ribelli si ritirarono nella giungla dove furono inseguiti da carri armati e attaccati da incursioni aeree fino al 1 2 gennaio quando il governo dichiarò il cessate il fuoco e intavolò un negoziato 31 • Un anno dopo, nel febbraio 1995, il governo di nuovo pose fine a un'altra operazione militare, pur trovandosi in posizione di vantaggio, sorprendendo con il suo atteggiamento moderato sia l'esercito sia gli insorti32 • La risposta all'enigma stava nel fatto che mentre l'EZLN era perdente nel conflitto sul campo, stava però vincendo la guerra dei media contro il governo messicano, uno scontro condotto perlopiu online. Il governo messicano era sempre piu preoccupato per il coinvolgimento degli attivisti, delle organizzazioni non governative (ONG), dei media e della conseguente attenzione che l'esercito zapatista stava attirando su di sé in America Latina e altrove. I ribelli e le ONG che li appoggiavano riuscirono a bypassare i principali media messicani, a loro sfavorevoli, inviando informazioni direttamente a siti mediatici stranieri tramite fax e posta elettronica. La copertura giornalistica straniera alla fine costrinse i reticenti mezzi di informazione messicani a dare notizie sull'esercito zapatista e nell'aprile 1995 il ministro degli Esteri messicano, José Angel Gurria, dichiarò: Non è stato sparato un colpo negli ultimi quindici mesi ... Il conflitto a fuoco è durato dieci giorni e da allora la guerra è stata condotta sulla carta stampata, è uno scontro di parole, un conflitto su Internet".
Il portavoce dei ribelli, il subcomandante Marcos, rispose: Uno spazio ... cosf nuovo che nessuno pensava che una guerriglia vi si potesse svolgere, è la superstrada dell'informazione, Internet. Era un territorio non occupato da nessuno".
Lo stato messicano non si era ancora adattato all'ambiente mediatico emergente mentre l'esercito zapatista l'aveva fatto. Nel maggio 2007, tre uomini comparvero in giudizio di fronte al tribunale penale di Woolwich a Londra con l'accusa di sobillazio-
220
FASE III. L'AMBIENTE EMERGENTE
ne al terrorismo usando strumenti di Internet come le chatroom, ossia i canali per chiacchierare in rete, i video e i forum. Il secondo giorno del processo l'udienza fu interrotta dal giudice Peter Openshaw, presidente della corte, che dichiarò: « Il problema è che non capisco di che cosa parliate. In realtà non so che cosa sia un sito web »35 • Tra i sospetti c'era Younis Tsouli, un hacker diciannovenne che viveva nel seminterrato dei genitori e aveva l'aria di uno che raramente si espone alla luce del sole. Il nome che usava su Internet era «Irhabi 007» (terrorista 007) ed era un influente e potente esperto mediatico dell'islamismo militante. Tsouli non era un adepto, né era collegato a circoli militanti tramite la famiglia o amici. Fu lui a prendere l'iniziativa di descrivere i suoi talenti nei forum di militanti sul web dove, insieme al riconoscimento delle sue competenze, acquistò credibilità e gli furono affidate sempre maggiori responsabilità. In seguito agli attentati terroristici a Londra nel 2005, la polizia e le agenzie di sicurezza prestarono sempre piu attenzione al comportamento di giovani isolati e strani come Tsouli, propensi ad assumere «posizioni estremistiche» a favore dell'islamismo militante e a impegnarsi in operazioni terroristiche contro i loro pari nelle città europee. Comunque la scelta estremistica fatta da individui isolati all'interno di comunità amorfe e clandestine non è certo una novità. Oltre dieci anni prima, nel novembre 1994, « Wired» aveva pubblicato un articolo su un fenomeno quasi esattamente identico occorso all'interno di un'altra comunità molto diversa: Solo dieci anni fa, molti adolescenti omosessuali si nascondevano dietro una politica del «non-chiedere-non-dire» fino a che non partivano per Oberlin o San Francisco, ma la Rete ha rappresentato un luogo di cospirazione anche per i ragazzi chiusi in sé stessi ... il forum di gay e lesbiche su AOL consente di seguire messaggi di attivisti omosessuali di tutto il mondo, di migliorare il proprio modo di scrivere, di flirtare, di adottare delle identità usa e getta, e di combattere l'intolleranza - tutto dallo schermo di casa".
Tranne che per l'argomento drammaticamente diverso del gruppo di discussione, l'articolo di« Wired» potrebbe essere facilmente utilizzato per descrivere i simpatizzanti di al-Qaeda in Europa occidentale dopo l'II settembre. In entrambi i casi, Internet consente un collegamento con una comunità amorfa per discutere di argomenti considerati eversivi dalla società in generale, per trovare dei mentori, per cercare giustificazioni e imparare metodi e costumi significativi per gli stili di vita che sono stati scelti.
PROMESSE E PERICOLI
221
Una cultura digitale underground diede a Tsouli la sua posizione in una comunità, un soprannome e un'identità, le regole che osservava online, la propensione a prendere iniziative, a pensare in modo alternativo, praticamente come un hacker, e una meritocrazia in cui operare. Come i «phone phreaker» dagli anni Cinquanta in poi, Irhabi 007 trovò online una comunità con cui condividere un interesse, in cui poter investire sé stesso e la quale lo rispettava per i suoi talenti. Nelle parole che «il Mentore», un giovane hacker della rete, scrisse nel 1986 dopo il suo arresto, il mondo fluttuante della bacheca elettronica e della confraternita degli hacker era irresistibile: Poi è successo ... una porta si è aperta su un mondo ... facendolo scorrere attraverso la linea telefonica come l'eroina attraverso le vene di un drogato, si invia un impulso elettronico, si cerca un rifugio dalle incompetenze quotidiane . . . si trova una bacheca".
« Il Mentore» era il nomignolo del ventunenne Loyd Blankenship, anche noto col nome del «Neuromante», socio di vari gruppi di hacker tra cui «la Legione del Giudizio Uniyersale», «i Fantasmi della Linea Telefonica», «i Malavitosi» e «l'Elite dell'Extasyy». Il Mentore faceva parte della« Scene» (l'ambiente), la diffusa cultura di pirati informatici e telefonici che discendevano direttamente dai phone phreak e da elementi della cultura hacker. Come i giovani phreak telefonici non vedenti e gli omosessuali che trovarono interessi comuni con le loro rispettive comunità amorfe, il Mentore trovò attraverso i BBS una comunità in cui poté inserirsi. Nel suo Manifesto descrisse come si senti quando incontrò il mondo online: È a questo mondo che appartengo. Qui conosco tutti ... anche se non li ho mai incontrati, non ho mai parlato con loro, potrei non sentirli mai piu ... Vi conosco tutti".
All'interno della « Scene», diversi gruppi erano in competizione per una posizione di prestigio gareggiando su chi riusciva a distribuire prima il nuovo «warez» (parola gergale usata dai soci per significare software piratato) 39 • Far parte di una rete di élite, in particolare se cospiratoria, potrebbe essere un aspetto molto importante della vita sociale di una persona. Per Joe Engressia, il phreaker non vedente che aveva scoperto quand'era un ragazzino come controllare la rete telefonica, questo aspetto era cosi rilevante per la sua esistenza che aveva adottato il suo pseudonimo da hacker, «Joybubbles» (bolle di gioia), come nome legale con atto unilaterale del 1991. Il necrologio di Engressia sul «New York Times » lo
222
FASE III. L'AMBIENTE EMERGENTE
descrisse cosi, «ogni notte siede come un ragno senza vista nel suo piccolo appartamento ricevendo messaggi da ogni estensione della sua ragnatela» 40 • L'immagine di Engressia come un ragno al centro di una ragnatela che collega i vari individui isolati all'interno di una vasta comunità amorfa è straordinariamente simile a quella di Irhabi 007 che fini in prigione in Gran Bretagna nel luglio 2007 per aver distribuito materiali eversivi che incitavano alla violenza e per aver agito da intermediario online, collegando potenziali militanti a missioni nei teatri d'azione di al-Qaeda. Fin dai tempi degli hacker del MIT e del Club del computer fatto-in-casa, c'era qualcosa di implicitamente eversivo nell'emergente cultura digitale. Parte dell'atteggiamento culturale che gli hacker avevano ereditato dal Club di fermodellismo al MIT era la mentalità che ispirava il «Comitato notturno di requisizione» del Club. Gli hacker, alcuni dei quali conseguirono appositamente il diploma di fabbro certificato per serrature, fecero delle chiavi per ogni deposito di attrezzature del MIT di cui potessero aver bisogno e poi andavano a trafugare i materiali a seconda di che cosa fosse necessario. Al Club del fatto-in-casa negli anni Settanta, l'ethos di apertura e di condivisione degli hacker si mescolava all'indifferenza per la proprietà da parte di molti soci. Nel 1976, un giovane Bill Gates scrisse al Club del fatto-in-casa sollecitandolo a impedire la copiatura illegale del suo software41 • In Engressia, il phone phreaker che si fece chiamareJoybubbles, in Loyd Blankenship, l'hacker che assunse il nome di Mentore, e in Younis Tsouli, l'esperto mediatico militante che scelse di chiamarsi Irhabi 007, ci sono le caratteristiche comuni del nuovo mezzo eversivo: la disponibilità a far parte di comunità amorfe dagli interessi comuni, la capacità di recupero, la resistenza innata alla censura, la propensione al beta test tipica nei nativi digitali per mettere in discussione l'autorità. In un importantissimo annuncio fatto il r 2 gennaio 20 ro, David Drummond, capo dell'ufficio legale di Google, rivelò il «nuovo approccio» dell'azienda alla Cina: Abbiamo deciso di non essere piu disponibili a esercitare una continua censura dei nostri risultati su Google.cn e quindi nelle prossime settimane discuteremo con il governo cinese su che base potremmo operare un motore di ricerca senza filtri in conformità con le leggi, se sia mai possibile farlo. Ci rendiamo conto che questo può significare la chiusura di Google.cn e potenzialmente dei nostri uffici in Cina42 •
Apparentemente la ragione di questo mutato atteggiamento di Google fu una serie di attacchi di hacker per trafugare informazio-
PROMESSE E PERICOLI
223
ni alle infrastrutture di Google, ai siti di attivisti sui diritti umani e anche alle infrastrutture di almeno altre venti società. Ma al di là di questo specifico incidente era in gioco qualcosa di piu grave e profondo. E in atto uno scontro di due nuovi modelli distinti di capitalismo: quello autoritario della Cina, sostenuto dall'esigenza dello stato di mantenere la stabilità politica a sostegno della crescita economica, e quello etico di Google, basato sui valori originali e le norme di autonomia innovativa di ingegneri e programmatori43 • La Cina è affamata di risorse, ricca di capitali e incurante dei diritti umani. Il suo modello di «capitalismo autoritario» ha il suo punto di forza nella capacità del governo di assicurare una crescita dell'8 per cento annuo del prodotto interno lordo che ha una ricaduta positiva sull'occupazione e sul miglioramento degli standard di vita e tiene a bada forme diffuse di scontento44 • Proprio qui sta l'ironia dello scontro di Google con il governo cinese. Google e la Cina rappresentano due modelli opposti di capitalismo, ciascuno dei quali è in primo luogo il prodotto di una cultura del tutto contraria al capitalismo: il capitalismo autoritario da un lato e l'autonomia innovativa dall'altro. Il sesto dei dieci principi su cui si basa la gestione aziendale di Google recita: «Si possono fare soldi senza fare del male» 45 • Si consideri l'entità potenzialmente enorme del sacrificio di Google per affermare questo principio. Nel breve periodo, Google affronta già un forte concorrente all'interno della Cina, il motore di ricerca Baidu, che detiene oltre la metà del mercato. Se Google dovesse abbandonare la Cina, allora Baidu ne sarebbe sicuramente avvantaggiato e potrebbe diventare una minaccia strategica per gli affari di Google nel resto del mondo nei prossimi decenni. Il mercato fece propria questa valutazione spingendo a un rialzo del r4 per cento circa il prezzo delle azioni di Baidu il giorno dopo che Google aveva fatto il suo annuncio. Nel medio e lungo periodo, la Cina rappresenta un mercato di opportunità strategiche. Solo tra il 2008 e il 2009, secondo I' Accademia cinese delle scienze, 90 milioni di nuovi utenti cinesi si collegarono a Internet. Dal 30 giugno 2008 il numero registrato di internauti cinesi ha infine eclissato quello negli Stati Uniti 46 • Eppure soltanto un terzo del totale della popolazione cinese è online e il potenziale di crescita è immenso. Adesso la Cina è e rimarrà nel prossimo futuro il paese con la piu vasta popolazione di internauti al mondo. Nel decennio a venire diventerà un mercato veramente di massa per il commercio su Internet di ogni colore e sfumatura.
224
FASE III. L'AMBIENTE EMERGENTE
Trascurare un simile mercato, di cui Google attualmente detiene una fetta che equivale ad almeno un quarto, potrebbe causare un enorme danno alla società del motore di ricerca. Mentre le nazioni occidentali con alta diffusione di Internet sono per il momento la base dei profitti di Google, questo potrebbe cambiare in futuro. Sebbene la parte controllata da Google sul mercato cinese dei motori di ricerca (che una stima prudenziale calcola nel 25 per cento circa) rappresentasse apparentemente meno del 5 per cento dell'attuale reddito globale della compagnia, l' espansione dell'uso di Internet dall'ultima rilevazione del 29 per cento degli abitanti 47 all'intera popolazione cinese potrebbe far crescere di tre volte il valore del mercato cinese dei motori di ricerca su Internet. Se Google mantenesse, o ampliasse, la sua fetta di un quarto mentre il mercato cresce in generale, allora la Cina potrebbe rappresentare il r 5 per cento o anche di piu dei suoi attuali ricavi a livello globale. Questa cifra potrebbe essere molto piu alta se i profitti derivati dai servizi pubblicitari in Cina aumentassero in linea con la previsione di una crescita dell'8 per cento annuo del prodotto interno lordo. Per gli azionisti di Google la prospettiva di abbandonare un mercato potenziale di r ,3 miliardi di utenti potrebbe sembrare un costo terribile da pagare per rispettare i principi della compagnia. Eppure Google agisce in conformità con un capitalismo etico. La sua azione ispirata al motto «fai la cosa giusta» ha radici che affondano in Internet. Quando Google entrò nel mercato cinese dei motori di ricerca nel gennaio 2006, suscitò un vespaio di polemiche aderendo alle norme giuridiche del governo cinese di censura dei risultati delle ricerche. Secondo la compagnia, questa fu in effetti una violazione dei suoi principi di base ma l' aveva fatto «nella convinzione che i benefici derivati dalla possibilità per il popolo di avere maggiore accesso all'informazione e da un'Internet piu libera avessero piu valore del nostro disagio quando accettammo di censurare alcuni risultati» 48 • I motivi del disagio di Google di allora e della sua decisione di tener testa al governo cinese ora sono dettati da un'adesione a principi aziendali che non sono soltanto una dichiarazione di facciata, bensf sono profondamente radicati nella fondamenta da cui sono sorte Internet e Google. Rimane da vedere se questo capitalismo ispirato all'autonomia innovativa si estende oltre Google, e ad altri esempi come Craigslist, per raggiungere un piu vasto settore del mondo delle aziende.
PROMESSE E PERICOLI
2 25
Nei prossimi anni, il mondo sarà forse diviso tra quelli che si comportano come Google e altri che non lo fanno. Il 22 gennaio 2010, dieci giorni dopo l'annuncio di Google, il segretario di stato statunitense, Hillary Clinton, fece un importante discorso sulla libertà di Internet. Richiamandosi al presidente Kennedy, si tuffò nella retorica della guerra fredda evocando il muro di Berlino e dichiarando che gli Stati Uniti sono a favore di «una sola Internet in cui tutta l'umanità abbia eguale accesso alla conoscenza e alle idee» 49 • Tuttavia quelle parti del globo governate da forme dispotiche di capitalismo, tra cui probabilmente la Cina e alcuni suoi soci commerciali africani ricchi di materie prime, potrebbero indirizzare il crescente numero dei loro internauti verso Baidu e altri servizi disponibili a osservare le condizioni del controllo di stato. Nello stesso tempo la libera Google operativa nel resto del mondo potrebbe diventare quello che i blue jeans e il rock and roll dell'America rappresentarono per le giovani generazioni del blocco comunista durante la guerra fredda: un'icona di libertà. Mentre i governi si adattano al nuovo equilibrio di potere tra stato ed eversione, rigide misure come i tentativi di censurare Internet o progetti di registrazione degli utenti minacciano di alterare la natura di questo mezzo di comunicazione. Tanto vale riconoscere che Internet rappresenta un nuovo popolo globale con un futuro incerto.
iWar, la guerra digitale e i nuovi corsari. Il 2 7 aprile 2007, una tempesta di attacchi distribuiti di rifiuto di servizio (oos) colpi importanti siti web in Estonia continuando almeno fino a metà giugno. Tra gli obiettivi c'erano i siti del presidente, del parlamento, dei ministeri, dei partiti politici, delle principali agenzie giornalistiche e delle due piu grandi banche del paese i cui contatti con i clienti furono disabilitati. Per l'Estonia, il web rappresentava indipendenza e opportunità. All'indomani del collasso sovietico, gli estoni lungimiranti cominciarono a pensare come avrebbero potuto ammodernare rapidamente la loro economia. «Non avevamo nulla», ricorda Toomas Ilves, ora presidente della Repubblica di Estonia50 • Le linee telefoniche estoni risalivano agli anni Trenta. Le infrastrutture di acciaio e cemento del paese erano carenti. Per Ilves e il drappello di rivoluzionari di Internet dei primi anni Novanta, la rete offriva alla giovane nazio-
226
FASE III. L'AMBIENTE EMERGENTE
nel' opportunità di fare un balzo in avanti di cinquant'anni. Ilves era stato influenzato dal libro diJeremy Rifkin del 1995, The End of Work 51 , che lamentava il fatto che i computer avrebbero portato disoccupazione in America. Invece in Estonia avvenne il contrario: un piccolo paese con una forza lavoro relativamente scarsa poteva usare la tecnologia per affrancare la gente da lavori inutili. Il governo estone forni finanziamenti pubblici alle scuole perché si connettessero con Internet, istitui il servizio per la dichiarazione dei redditi online e le banche trasferirono le loro operazioni in rete per ridurre i costi. Entro il 2000, Internet era parte integrante dell'immagine nazionale dell'Estonia e l'accesso alla rete divenne un diritto costituzionale dei cittadini. Oltre a provocare un caos prolungato nello stato e nei servizi bancari e mediatici, gli attacchi degli hacker a siti e servizi importanti produssero una reazione emotiva. Gli attacchi DOS esistono in varie forme a partire dal «Morris Worm», il primo virus informatico del 1988. Un nos cerca di sopraffare un computer o un sistema di reti bombardandoli con una grande quantità di richieste d'informazione. Se l'attacco ha successo, il sistema bersagliato non riesce a rispondere alle richieste legittime, tra cui potrebbe esserci la richiesta di accesso a un particolare sito. Un attacco distribuito di DOS agisce in base allo stesso principio, ma moltiplica il suo impatto indirizzando una« botnet» di computer collegati in rete che sono stati sequestrati e infettati a distanza per bombardare il sistema preso di mira con molte richieste contemporanee. Le botnet possono essere controllate da un solo individuo. Questa forma di conflitto è diversa da quella che i militari chiamano «cyber-guerra». Gli attacchi all'Estonia presero di mira i consumatori e non le infrastrutture militari o quelle importanti di pubblica utilità come l'acqua, l'energia elettrica o il controllo del traffico aereo. Inoltre gli attacchi provenivano da singoli «hacktivisti», cioè hacker attivisti, uniti da un risentimento comune contro uno specifico avvenimento politico. «iWar» è un'espressione utile per non fare confusione cori la cyber-guerra. La iWar può essere mossa da nazioni, aziende, comunità o da qualunque individuo che sia abbastanza esperto di tecnologia. Questo è uno spostamento fondamentale nell'equilibrio della capacità offensiva, in quanto fornisce ai singoli individui il potere di minacciare le attività di governi e di multinazionali. Ma come conseguenza quasi tutti possono essere danneggiati da un attacco di iWar, dagli immigranti
PROMESSE E PERICOLI
227
che, tramite servizi online, inviano denaro alle loro famiglie nei paesi poveri alle grandi imprese multinazionali che eseguono operazioni attraverso applicazioni di Internet basate su centri di dati. Una serie di fattori rende la conflagrazione di una iWar motivo di grande preoccupazione per il futuro. Le prime armi da sparo consentirono il reclutamento di eserciti di dimensioni mai immaginate prima. L'addestramento di truppe armate di archibugi richiedeva poche settimane a confronto con l'addestramento che durava una vita per sviluppare l'abilità degli arcieri armati di arco lungo. Come il moschettiere che imbracciava l'archibugio, l' aggressore dell'iWar è equipaggiato con una tecnologia a basso costo ma potente che richiede poco addestramento. L'azione offensiva può essere condotta da un numero incredibile di dilettanti qualificati soltanto dalla loro connessione a Internet. La iWar, forse per la prima volta, è liberata dai costi e dagli sforzi che tradizionalmente impediscono un'azione offensiva contro bersagli geograficamente distanti. La distruzione di bersagli con mezzi cinetici convenzionali comporta enormi costi ed è relativamente lenta. Un singolo bombardiere invisibile B-z «Spirit», la cui costruzione costa 2,1 miliardi di dollari, deve volare dalla base aeronautica militare Whiteman nel Missouri per sganciare le sue munizioni su un bersaglio in Afghanistan. Anche se la iW ar ha un impatto distruttivo molto inferiore, può comunque infliggere danni da qualunque punto del globo a un bersaglio dovunque si trovi, praticamente a costo zero. Per lo stesso motivo, la proliferazione della iWar si estenderà rapidamente a tutto il pianeta senza essere vincolata da limiti geografici che impedivano l'espansione di innovazioni militari in passato. Può essere utile fare un confronto con la diffusione della polvere da sparo in Europa: apparsa in Cina nel vn o vm secolo, la polvere da sparo arrivò finalmente in Europa solo nel 1314, dapprima nelle Fiandre, poi in Inghilterra sette anni dopo e, passati altri cinque anni, in Francia. Invece i nuovi strumenti e il know-how necessari per muovere una iW ar si diffondono facilmente attraverso Internet. Durante gli attacchi in Estonia, sui forum online furono distribuite guide di istruzioni agli attacchi del tipo nnos per consentire a un maggior numero di persone di contribuire agli attacchi. Ancora piu allarmante è la penuria di arresti o di accuse formali da parte del governo estone, un esempio di come la iWar possa essere scatenata nell' anonimità e sia difficile punirla. Non è stato chiarito se l'Estonia fosse vittima di una «cyber-insurrezione» in cui gli «hacktivisti» che la pensavano allo stesso modo avessero
228
FASE III. L'AMBIENTE EMERGENTE
orchestrato gli attacchi senza l'autorizzazione del Cremlino oppure se gli attacchi avessero ricevuto un beneplacito ufficiale. E qualora la colpevolezza potesse essere dimostrata ufficialmente, rimane da decidere come uno stato debba rispondere a un attacco di iWar mosso da un altro stato. Un'indagine penale non sarebbe meno problematica. Se un'indagine informatico-forense fosse in grado di risalire da una botnet dolosa a un singolo computer che controlla l'attacco di ooos, è comunque improbabile che si possa avviare effettivamente un'azione legale. Il computer colpevole potrebbe trovarsi in un'altra giurisdizione non disposta a collaborare. E anche se ci fosse collaborazione, il computer responsabile avrebbe potuto essere stato utilizzato da un Internet café o da un altro luogo pubblico anonimo con la possibilità di effettuare connessioni, rendendo dunque impossibile l'individuazione di chi, tra i molti utenti di passaggio, fosse coinvolto in attacchi DDOS che sono tipicamente di breve durata. La potenza di questa forma di belligeranza crescerà via via che le economie, i governi e le comunità del mondo ricorreranno a Internet per interagire e fornire servizi. In Estonia, ad esempio, le banche hanno circa 800 ooo clienti su Internet in una popolazione di quasi 1 ,3 milioni di abitanti, e il 95 per cento delle operazioni bancarie sono fatte per via elettronica. Questo non dovrebbe essere visto solo come un problema tecnico per gli esperti della sicurezza informatica ma come una grossa sfida alla cosiddetta «gente comune». Internet è una risorsa comune a tutta l'umanità, come l'atmosfera che circonda la Terra. Una successione di sviluppi tecnologici, dall'allevamento del bestiame, che favori l'utilizzo di pascoli comuni, alla navigazione marittima, che apri nuove rotte per il commercio e le comunicazioni sui mari e gli oceani, ha costretto la società umana a prendere in considerazione il modo di governare le risorse comuni condivise. Iniziative unilaterali non avranno effetto contro la iW ar perché questa, come la pirateria informatica, è un fenomeno globale. Internet è una risorsa comune come i mari e gli oceani; supera i confini nazionali e non è soggetta alla giurisdizione di alcuno stato particolare. La guerra di Pompeo contro la pirateria nel 67 a.C. fu efficace perché le leggi romane erano applicate in tutto il bacino del Mediterraneo. Oggi, nessun singolo stato ha un tale potere su Internet. Il problema non è come evitare un tipo particolare di attacchi ooos su una determinata rete ma come l'umanità sceglierà di gestire Internet.
PROMESSE E PERICOLI
229
J. C. R. Licklider previde che « se le reti rappresenteranno in futuro quello che l'alto mare rappresentò in passato, allora il controllo su di esse diventerà il centro di una competizione internazionale » 52 • Due esempi di approcci al popolo globale dovrebbero dare un po' di consolazione cum grano salis. L'esempio della Legge del mare illumina il cammino di chi prende le decisioni politiche, essendo un corpo giuridico di diritto internazionale costruito sulla base di norme informali di usi e costumi che si sono evolute per proteggere l'accesso universale all'alto mare. Poiché le opportunità di traffico commerciale e di comunicazioni sulle rotte marine erano comunemente considerate inestimabili da tutte le nazioni, si svilupparono gradualmente delle norme fondate su usi e costumi per assicurare l'accesso all'alto mare al fine di svolgere queste attività. Fu riconosciuta da tutti l'illegalità della pirateria che danneggiava i traffici e le comunicazioni marittime. Viene da chiedersi se un'analoga legge quadro evolverà mai per proteggere l'accesso a Internet nel lungo periodo. Tuttavia, anche se un decreto legge internazionale dovesse essere infine promulgato in difesa di Internet, la storia della pirateria ci insegna che il provvedimento potrebbe richiedere tempo. La guerra di corsa, autorizzata dal sovrano, fu infine messa fuori legge nel 1856 con la «Dichiarazione di Parigi nel rispetto del diritto marittimo», molti decenni dopo che si era compattato un consenso internazionale contro la pirateria. Ci dovrebbe anche far pensare quanto sia difficile trovare un accordo sul cambiamento climatico. Se i governi solo ora stanno giungendo a un fragile consenso su questo problema, che è la sfida piu evidente per l'umanità, la definizione di nuove robuste norme internazionali di comportamento su Internet potrebbe richiedere decenni. L'umanità corre il rischio di rovinare Internet ancor prima che tale tecnologia giunga a maturità, prima che ci si renda pienamente conto della sua utilità per la formazione di un popolo globale. L'umanità deve pensare a come rapportarsi con questo nuovo popolo soppesando il rischio di fallimento.
Intervista a S.Jobs di G. Wolf, in «Wired», febbraio 1996. Vedi http://www.wired. com/wired/archive/4.02/jobs.html ?pg= 3&topic= (ultimo accesso 28 giugno 2008). 2 Messaggio indirizzato ali' autore insieme a un pacchetto spedito da un venditore cinese su eBay, 2009. ' Cfr. Whose Internet is it anyway?, in «Fortune», r1 dicembre 1995. 1
230
FASE III. L'AMBIENTE EMERGENTE
4 L. BERANEK, Roots o/ the Internet cit. ' M. BENIOFF e A. CARLYE, Behind the C!oud: The Untold Story o/ how Sa!es/orce.com Went /rom Ideato Billion-dollar Company, and Revo!utionized an Industry,Jossey-Bass, San Francisco 2009, p. 4. 6 N. CARR, Open source and the uti!ity revo!ution, presentazione, 2006. Vedi http:// www.nicholasgcarr.com/download/carrosbc.pdf (ultimo accesso 6 settembre 2009). 7 T. FRIEDMAN, The World is F!at: A Brief History o/ the Twenty-first Century, Farrar, Straus and Giroux, New York 2005 (trad. it. Il mondo è piatto: breve storia del ventunesimo secolo, Mondadori, Milano 2006). 8 R. FLORIDA, The world is spikey, in «The Atlantic», ottobre 2005, p. 48. 9 J. A. s. EVANS, The Age o/Justinian, Routledge, New York 1996, p. 235. 1° K. ANDERSON (a cura di), The World's Wine Markets, Edward Elgar, Cheltenham 2004, p. l l I. 11 J. H. CREES, The Reign o/ the Emperor Probus, University of London Press, London 2005, p. 91. 12 Tota! share: 20 years o/ persona! computer market share figures, in «Ars Technica», 14 dicembre 2005. Vedi http://arstechnica.com/articles/culture/total-share.ars/ (ultimo accesso 21 gennaio 2009). l3 s. J. LIEBOWITZ es. E. MARGOLIS, Network Extemalities (E/fects) cit. 14 App!e's app stare down!oads top 1.5 bi!!ion in first year, comunicato stampa della Appie, 14 luglio 2009. 15 J. LONG, On the shou!ders o/ giants, 24 luglio 2008, banterahility hlog. Vedi http:// blog. banterability .com/post/ 43413265/on-thc-shoulders-of-giants (ultimo accesso 20 gennaio 2009). 16 «Fuckingnda» significa «al diavolo l'NDA» [N.d.T.]. 17 c. FORESMAN, iPhone NDA: doing more harm than good, in «Ars Tcchnica», 28 luglio 2008. Vedi http://arstechnica.com/news. ars/post/ 200807 28-iphonc-nda-doing-moreharm-than-good .html (ultimo accesso 20 gennaio 2009). 18 J. Williams, corrispondenza con l'autore, 20 gennaio 2009. 1' P. BARAN, Communications, Computers and Peop!e, American Federation of Information Processing Societies, autunno 1965, p. 48. 20 Application /or consent to the tramfer o/ contro! o/ !icenses MediaOne group, inc. to AT&T, il professor M. A. Lemley e il Professor L. Lcssig chiedono di comparire davanti alla FCC, dicembre 1999, p. 20. 21 L. LESSIG e R. \Y/, MCCIIESNEY, No to!!s on the Intemet, in «Washington Post», 8 giugno 2005. 22 Deposizione di T. Wu davanti a una commissione interna nell'udienza giudiziaria della Telecom & Antitrust Task Force su Network neutrality: competition, innovation, and non-discriminatory access, 24 aprile 2006. 23 J. ZITTRAIN, The Generative Internet cit., pp. 1981-82. 24 T. wu, The Master Switch: The Rise and Fa!! o/ In/ormation Empires, Knopf, New York 2010. 25 Intervista dell'autore con T. Wu alla IIEA, Dublino, 25 maggio 2009. 26 Cit. in D. WELCH, The Third Reich: Po!itics and Propaganda, Routledge, New York 2002, p. 23. 27 P. BARAN, Summary overview cit., p. 4. 28 R. CLAYTON, s. J. MURDOCH e R. N. M. WATSON, lgnoring the Great Firewal! o/ China, 6'" Workshop on Privacy Enhancing Technologies (VI seminario sulle tecnologie per migliorare la difesa della privacy), Cambridge, giugno 2006. 29 PRC regu!ations on sa/eguarding computer in/ormation systems, XINHUA Domestic Service di Pechino, 23 febbraio r994. Vedihttp://www.interesting-people.org/archives/interesting-people/r 99404/msgoooo r.html (ultimo accesso 20 gennaio 2009). 30 J. RYAN, Countering Mi!itant Is!amist Radicalization on the Internet: A User-driven Strategy to Recover the Web, IEA, Dublin 2007. Vedi anche J. RYAN, c. HEINL, o. SUTTLE,
PROMESSE E PERICOLI
231
G. RAMSAY e T. STEVENS, (NLM-ifc2) Initial overview o/ measures against illegal content on the Internet in each o/ the 2 7 EU member states, RFC /rom the IIEA, 22 dicembre 2009. Vedi http://www.iiea.com/documents/non-legislative-measures-rfe2 (ultimo accesso 22 dicembre 2009). 31 Per una cronologia degli avvenimenti vedi D. RONFELDT, J. ARQUILLA, G. FULLER e M. FULLER, The Zapatista «Socia! Netwar» in Mexico, RAND, Santa Monica 1998, p. 133. 32 Ibid., p. 62. " Cit. ibid., pp. 69-70. 34 Cit. ibid. " «The Times», 18 maggio 2007. " We're teen, we'requeer, and we've gote-mail, in «Wired», novembre 1994. Vedi http:// www.wired.com/wired/archive/2. 11/gay.teen.html (ultimo accesso 30 ottobre 2008). 37 THE MENTOR, The Conscience o/ a Hacker, in «Phrack», vol. I, 8 gennaio 1986, n. 7. Vedi http://www.phrack.org/issues.html ?issue= 7&id= 3&mode= txt (ultimo accesso 9 gennaio 2009). 38 Ibid. 39 P. CRAIG, R. I!ONICK e M. IJURNETT, Software Piracy Exposed, Syngress, Rockland 2005, p. 8. 40 ]oybubbles, 58, Peter Pan o/ phone hackers, dies, in «The New York Times», 20 agosto 2007. 41 B. GATES, Open letter to hobbyists, in «Homebrew Computer Club newsletter», voi. II, 3 febbraio 1976, n. r. Vedi http://www.digibarn.com/collections/newsletters/ homebrew/V 2_01/index.html (ultimo accesso 6 novenbre 2007). 42 D. DRUMMOND, A new approach to China, Google Blog, 12 gennaio 2010. Vedi http:// googleblog. blogspot. com/ 20 10/or/ new-approach-to-china .h tml (ultimo accesso 1 1 febbraio 2010). 43 J. RYAN es. HALPER, Google vs China: capitalist model, virtual wall, OpenDemocracy, 2 2 gennaio 2010. Vedi http://www.opendemocracy.net/johnny-ryan-stefan-halper/ google-vs-china-capitalist-model-virtual-wall (ultimo accesso 1 r febbraio 2010). 44 s. IIALPER, The Bei;ing Consensus: How China's Authoritarian Model Will Dominate the Twenty-fìrst Century, Basic Books, New York 2010. 45 Our philosophy cit. 46 The Internet timeline o/ China (2008), China Internet Network Information Center. Vedi http://www. cnnic. net. cn/html/Dir/ 2009/ o 5/ r 8/5 600 .htm (ultimo accesso 1, febbraio 2010). 41 China Internetpopulation hits 384 million, agenzia di stampa Reuters, 15 gennaio 2010. 48 D. DRUMMOND, A new approach to China cit. 49 H. CLINTON, Remarks on Internetfreedom, The Newseum, Washington, 21 gennaio 2010. Vedi http://www.state.gov/secretary/rm/2010/01/135519.htm (ultimo accesso 9 febbraio 2010). '° T. H. Ilves, presidente della Repubblica di Estonia, intervista con l'autore, Dublino, 15 aprile 2008. Vedi http://www.youtube.com/watch?v=jIK4gcTII5Q (ultimo accesso 18 maggio 2008). 51 J. RIFKIN, The End o/ Work: The Decline o/ the Global Labor Force and the Dawn o/ the Post-market Era, Tarcher-Putnam, New York 1995 (trad. it. La fine del lavoro: il declino della /orza lavoro globale e l'avvento dell'era post-mercato, Baldini e Castaldi, Milano 1995) [N.d. T.]. 52 J. c. R. LICKLIDER, Computers and Government cit., p. 118.
Glossario
Asynchronous JavaScript and XML. Uso di JavaScript e XML in modalità asincrona. A0L America OnLine. ARPA Advance Research Projects Agency. Agenzia per progetti di ricerca avanzata. ARPANET ARPA Network. Rete dell'ARPA. AT&T American Telephone and Telegraph Incorporateci. Società americana di telecomunicazioni. AUT0DIN Automatic Digitai Network. Rete digitale automatica. BASIC Beginner's Ali purpose Symbolic Instruction Code. Codice di istruzioni simboliche di uso generale per principianti. BBN Bolt, Beranek e Newman. BBS Computer Bulletin Board System. Sistema di bacheca elettronica. BI'l'NET «Because It's There» Network. La rete «perché c'è». BRIC Brasile, Russia, India e Cina. ccrnN Coordinating Committee for Intercontinental Research Networks. Comitato di coordinamento per le reti internazionali di ricerca. ccITT Consultative Committee on International Telegraphy and Telephony. Comitato consultivo internazionale per la telegrafia e telefonia. CD Compact Disc. CERN Conseil Européen pour la Recherche Nucléaire. Consiglio europeo per la ricerca nucleare. CE0 Chief Executive Officer. Amministratore delegato. CIX Commerciai Internet eXchange. Scambio commerciale su Internet. CREN Corporation for Research and Educational Networking. Ente per l'uso della rete a scopi di ricerca ed educativi. CSNET Computer Science Network. Rete per le scienze informatiche. DCA Defense Communications Agency. Agenzia del ministero della Difesa per le comunicazioni. DDN Defense Data Network. Rete di dati per la Difesa. ooos Distributed Denial of Service. Rifiuto distribuito di servizio. DEC Digitai Equipment Corporation. Società di apparecchiature digitali. DECNET Digitai Equipment Corporation's Network. Rete di proprietà riservata della DEC. AJAX
236
GLOSSARIO
DNS nos nos EARN
Domain Name System. Sistema dei nomi di dominio. Denial of Service. Rifiuto di servizio. Disk Operating System. Sistema operativo della Microsoft. European Academic Research Network. Rete accademica europea di ricerca. Electronic Numerica! Integrator and Computer. Elaboratore e integratore numerico elettronico. Frequently Asked Questions. Domande ricorrenti. Federa! Communications Commission. Commissione federale per le comunicazioni. File Transfer Protocol. Protocollo di trasferimento di file. Governmental Advisory Committee. Comitato di consulenza governativa. «Get Big Fast». «Cresci in fretta». Group Forming Network. Rete per la creazione di gruppi. GNU's not Unix. GNU non è Unix. GNU Generai Public License. Licenza pubblica generica GNU. Graphical User Interface. Interfaccia grafica dell'utente. High Energy Physics Network. Rete per la fisica a elevata energia. Hypertext Markup Language. Linguaggio di marcatura per ipertesti. Internet Activities Board. Comitato per le attività su Internet. International Ad Hoc Committee. Commissione internazionale ad hoc. Internet Assigned Numbers Authority. Autorità per l'assegnazione dei numeri su Internet. International Academic Networkshop. Seminario internazionale accademico sull'uso della rete. International Air Transport Association. Associazione internazionale per i trasporti aerei. International Business Machines. Macchine aziendali internazionali. Internet Corporation for Assigned Names and Numbers. Ente per l'assegnazione dei nomi e dei numeri su Internet. International Cooperation Board. Comitato internazionale di cooperazione. Intercontinental Ballistic Missile. Missile balistico intercontinentale. Internet Configuration Contro! Board. Comitato di controllo per la configurazione di Internet. Intercontinental Engineering Planning Group. Gruppo di programmazione ingegneristica internazionale. Internet Engineering Task Force. Unità operativa ingegneristica per Internet. International Federation of the Phonographic Industry. Federazione internazionale dell'industria fonografica. Interface Message Processor. Elaboratore di messaggi di interfaccia.
ENIAC FAQ FCC FTP GAC GBF GFN GNU GPL GUI HEPNET HTML IAB IAHC IANA IANW IATA IBM ICANN ICB ICBM ICCB IEPG IETF IFPI IMP
GLOSSARIO INWG IP IPO IPTO IRTF ISDN ISO ISP ITU LAN MAD MERIT
MFENET MILNET MIT MITS
MP3 MPEG NASA NATO NBC NCP NCSA NDA NLS NORSAR NPL
2
37
International Network Working Group. Gruppo internazionale di lavoro sulle reti. Internet Protocol. Protocollo di Internet. Initial Public Offering. Offerta pubblica iniziale. Information Processing Techniques Office. Ufficio per le tecniche di elaborazione dell'informazione. Internet Research Task Force. Unità operativa per la ricerca in Internet. Integrateci Services Digita] Network. Rete digitale di servizi integrati. International Standards Organization. Organizzazione internazionale degli standard. Internet Service Provider. Fornitore di accesso a Internet. International Telecommunications Union. Unione internazionale delle telecomunicazioni. Locai Area Networking. Rete di area locale. Mutually Assured Destruction. Distruzione reciproca assicurata. Michigan Educational Research and Information Triad. Triade del Michigan per l'informazione e la ricerca educativa; il termine «triade» è dovuto al fatto che tre università del Michigan parteciparono al progetto. Magnetic Fusion Energy Network. Rete per l'energia da fusione magnetica. Military Network. Parte di ARPANET destinata al traffico non classificato del dipartimento della Difesa degli Stati Uniti. Massachusetts Institute of Technology. Istituto di tecnologia del Massachusetts. Micro Instrumentation and Telemetry Systems. Microsistemi di strumentazione e telemetria. Moving Picture Experts Group Layer 3. Immagini in movimento di livello 3. Moving Picture Experts Group. Comitato di esperti di immagini in movimento. National Aeronautics and Space Administration. Ente nazionale aeronautico e spaziale. North Atlantic Treaty Organization. Organizzazione del trattato Nord Atlantico. National Broadcasting Corporation. Ente nazionale di radiodiffusione. Network Contro] Protocols. Protocolli di controllo della rete. National Centre for Supercomputing Applications. Centro nazionale per le applicazioni dei supercomputer. Non-Disclosure Agreement. Accordo di segretezza. oN-Line System. Sistema collaborativo in rete. Norwegian Seismic Array. Laboratorio sismico norvegese. National Physics Laboratory. Laboratorio nazionale di fisica.
238 NSC NSF NSFNET NSI OCF OSTP PARC P2P PC PCM PI-IP PPTS PRNET PUP
RAM RAND
RARE RCA RFC
RIAA RIPE RLE RSCS
RSS SAGE SAIL SATNET SDK
SGML
GLOSSARIO
N ational Security Council. Consiglio nazionale di sicurezza. National Science Foundation. Fondazione nazionale per le scienze. National Science Foundation Network. Rete della Fondazione nazionale per le scienze. NASA Science Internet. Internet della NASA per le scienze. Optimum Coding in the Frequency domain. Codifica ottimale della frequenza. Office of Science and Technology Policy. Ufficio per la programmazione delle scienze e della tecnologia. Palo Alto Research Center. Centro di ricerca di Palo Alto. Peer-to-peer. Da pari a pari. Persona! computer. Pulse-Code Modulation. Modulazione del codice di pulsazione. Hypertext Preprocessor (originariamente acronimo di Persona! Home Page). Preprocessore di ipertesti. Governmental Ministries of Posts, Telegraph, and Telephone. Ministeri statali delle Poste, Telegrafo e Telefonia. Packet Radio Network. Rete a trasmissione radio di pacchetti. PARC Universal Packet. Pacchetto universale del Palo Alto Research Center. Random Access Memory. Memoria ad accesso casuale. Research And Development. Ricerca e sviluppo. Réseaux Associés pour la Recherche Européenne. Reti associate per la ricerca europea. Radio Corporation of America. Ente americano per la radiodiffusione. Request Por Comments. Richiesta di commenti. Recording Industry Association of America. Associazione americana cieli' industria discografica. Réseaux IP Européens. Reti IP europee. Research Laboratory of Electronics. Laboratorio di ricerca elettronica. Remote Spooling Communications System. Sistema di spooling a distanza per le comunicazioni. Spooling deriva da SPOOL, acronimo di Simultaneous Peripheral Operations On-Line (operazioni periferiche simultanee in rete). Really Simple Syndication. Distribuzione veramente semplice. Semi-Automatic Ground Environment. Sistema radar territoriale semi-automatico. Stanford Artificial Intelligence Laboratory. Laboratorio di Stanford per l'intelligenza artificiale. Satellite packet Network. Rete di trasmissione di pacchetti per via satellitare. Software Development Kit. Kit di sviluppo del software. Standard Generalized Markup Language. Linguaggio di marcatura generica standard.
GLOSSARIO SITA SLAC SRI TCP TCP/IP
TMRC UCL URI URL VOIP
WAIS WGIG
WIPO
www x.25
2 39
Société Internationale de Télécommunications Aéronautiques. Società internazionale delle telecomunicazioni aeronautiche. Stanford Linear Accelerator Laboratory. Laboratorio dell'acceleratore lineare di Stanford. Stanford Research Institute. Istituto di ricerca di Stanford. Transmission Contro! Protocol. Protocollo di controllo di trasmissione. L'insieme di programmi per Internet costruiti per i protocolli TCP e IP. Tech Model Railroad Club. Club tecnologico di fermodellismo. University College di Londra. Universal Resource Identifier. Identificatore internazionale di risorse. Uniform Resource Locator. Identificatore standard di risorse. Voice Over Internet Protocol. Voce tramite protocollo Internet. Wide Area Information Server. Fornitore di telecomunicazioni su vasta area. Working Group on Internet Governance. Gruppo di lavoro sulla gestione di Internet. World Intellectual Property Organization. Organizzazione mondiale per la proprietà intellettuale. World Wide Web. Interconnessione estesa a tutto il globo per la trasmissione telematica di dati. International Telecommunications Union networking standard. Standard dell'Unione internazionale delle telecomunicazioni per la rete.
Indice analitico
Abrams, Jonathan, 170. Abramson, Norman, 35. AdWords, 166. AJAX, 171.
Allen, Paul, 59. Aloha (metodo), 38. AlohaNet, 35, 37. Altair, 59, 60, 61. AltaVista (motore di ricerca), 131, 132. Alto, 38, 57. Amazon, 109, 141, 143, 145, 147, 148, 150, 161, 164, 165, 180, 181, 185, 186, 195.
Amiga, 59. Anderson, Chris, 181. Anderson, Harlan, 5 1 . Andreessen,Marc, 122,149,169,170,199. Android (sistema operativo), 213. Andrus, D. Calvin, 152. AOL, 78, 220.
Apache (server web), 128. Appie, 57, 59, 61, 62, 64, 79, 91, 120, 168, 177,178,214,215,217.
Archie (motore di ricerca), 130. Arnold, Henry «Hap», 14, 15, 100. ARPA (DARPA), 21-28, 31, 34, 36-42, 44, 56, 75, 77, 84, 86, 87, 99,102, 105-7, 132. ARPANET, 24-26, 28, 31, 33-40, 42, 45, 49, 75, 77, 84-90, 95, 98-101, 103, 106, 107, I09·II, 137,170, ZIO. AT&T, 7, II, I2, 41-43, 71-74, 83, 93, 98, 99, 125, 147, 216, 217. AUTODIN, IOO, IOI.
bacheca elettronica, vedi BBS. BackRub, vedi world wide web. Baidu (motore di ricerca), 223, 225. Baran, Paul, 8-12, 16, 17, 25, 26, 40, 42, 44, 51, 106, IIO, 136, 179, 215.
Barlow, John Perry, 158.
BBS, 74-76, 78, 87, 90, 92, 170, 221. Beli, Alexander Graham, 41, 42, 98. Beli, Gordon, 105. Beli System, vedi AT&T. Beli Telephone Company, vedi AT&T. Benioff, Mare, ZII. Benkler, Yochai, 188. Beranek, Leo, 210. Berners-Lee, Tim, II8, 119,121,122,124, 129, 157. beta (perpetua), 33, IIO, 122. beta test, 128, 158, 160, 171, 222. Bezos, Jeff, 109, 145, 180. Big Bunch, 58, 59. BITNET, IOZ, 103, 107. BitTorrent (sistema peer-to-peer), 177.
Blankenship, Loyd (il Mentore, Neuromante), 221. blog, blogger, 166, 182, 188, 194, 195, 198, 199, 203.
Border, Louis, 144. botnet, 226, 228. Bowles, Edward, 15, 20. Brand, Stewart, 90, 91. Brandenburg, Karlheinz, 175. Bricklin, Dan, 62. Brilliant, Larry, 90. Brin, Sergey, 132. Brown, Jerry, 168, 169. browser, 120-22, 157. Bruce, Tam, 121. Buckmaster, Jim, 142. Buffet, Warren, 141, 143. Bush, George W., vedi presidenti americani. Bush, Vannevar, 13, 14, 18, 19, II8, I 19, 132:
Memex, 106; Science: The Endless Frontier, 19. Byron, Ada, 108, 109.
BASIC, 55, 58.
Battlestar Galactica, 166, 182. BEN (Bolt, Beranek e Newman), 27, 28, 31, 39, 49, 52, 85, 86, 88, 90, 109.
Cailliau, Robert, 120, 157. Campbell, Clive (Kool dj Herc), 160. Canter & Siegel, 121, 142, 162, 163.
INDICE ANALITICO
252
Carter, Thomas, 73, 74. Carterfone, 73. CC!TT, 44. Celio (browser), r2r, 129. cellulari, vedi telecomunicazioni. censura, 218, 219, 222, 224. Cerf, Vint, 32, 33, 37-41, 44, ro5, ro6, III, 113.
105-9, rr5, 118,120,121,124,129. Cheney, Dick, 197, 198. Christensen, Ward, 74. Cicladi, 37, 38, 44, 95, 96, ro6. Cina, 209, 213, 218, 222, 223, 225. circuito integrato, 57, 58. CIX, 137. Clark, Dave, 32, r r r. Clark,Jim, 122. Clark, Wesley, 25, 49, 51-53, rro. Clinton, Bill, vedi presidenti americani. Clinton, Hillary, 225. cloud computing, vedi nuvola informatica. codice, 32, 47, 57, 58, 6r, 63, 79, rror2, 125. Cohen, Danny, 40. commercio elettronico (online), 114, 139148, 150, 157, 171, 212. Commodore 64, 59. commutazione, 9, rr, 16, r7, 25, 26, 28. CompuServe, 78. computer, 9, 22-24, 31, 34, 38, 43, 48-51, 53-55, 60, 72, 73, 77-79, 85, 86, 89, roo, 103, rr8, 123,125,214: - a transistor, 5r, 52; - host, 25, 28, 30, 38-40, 44, 86; ENIAC, 58; hardware, 59-62, 64, 74, 90, zrr; industria informatica, 58, 59, 62-65; interattività, 49-53, 55-57, 77, 84; mainframe, 36, 55, 62, 64, 65, 78, 79, CERN,
102, I 23, 210;
minicomputer, 25, 62, 123, 210; persona! - (Pc), 5r, 53, 55, 57, 58, 6066, 74, 75, 79, 91, 94, I2I, 123, 176, 179, 210, 212, 214;
software, 3r, 33, 38, 55, 6r, 62, 64, 74, 75, 88, 90, 151, 157, zrr; supercomputer, ro3, 105. comunicazione/i, 9, rr, 37, 45, 49, 82, 85, 86, 88-91, 100, 144, 160, 201, 202. comunità, 34, 39, 45, 60, 75, 83, 84, 86, 9092, 94, 95, 99, ro7, 113,127,160, r63, 170, 176, r8r, 194, 216, 220. consumatori, 78, 147, 148, 177-79, 181, 214, 226. Conway, Ron, 142, 143. Cpynet, 77, 78. Craigslist, 161-63, 215, 224.
CREN, 103. «Cresci in fretta», 144-47. Crocker, Steve, 32, 33, 95, rrr, 159. Crowther, Will, 27. CSNET, !02.
Cunningham, Ward, 168. Davies, Donald, 10, 15, r7, 26, 51, 106. I7, 99, IDO. Dean, Howard, 193-98, 200. DEC, 43, 51, 102, 105, 151. DECNET, 107. Del.icio.us, 165, r66. Dennis, Jack, 56. Deutsch, Peter, 56. DNS, vedi nomi di dominio. oos (attacchi), 225, 226. nos (sistema operativo), 63, 79. dot-com (imprese), 109, 139, 141-50, 163. Dougherty, Dale, 157. Draper, John T., 84. Drummond, David, 222. DCA,
EARN, vedi Europa. eBay, 137, 141, 142, r6r, 209. Ebone, vedi Europa. EchoMail, 75. economia digitale, vedi nuova economia. e-mail, 86, 87, 89, 93, ro3, 104, 106, ro7, III, 126, 132, 143, r6r, 183,192, 193. Emtage, Alan, 130, 131. Engelbart, Douglas, 53, 54, 57, 90, 94, u9. Engressia, Joe (Joybubbles), 82, 83, 221. Enquire (software), 105, ro6. Erwise (browser), 1 2 r. Estonia, 225-28. Ethernet, 38, 93. Europa, 7, 42: EARN (rete di ricerca), ro3, ro7; Ebone, 92, ro7; Eureka (fondo di ricerca), 175; Norvegia, 36; Svezia, 36; Unione Europea, 115,212; vedi anche Regno Unito. Excite (motore di ricerca), 13 r.
Fabian, Bill, rro. Facebook, r6o, zrr, 215. vedi anche socia! network. Fahlman, Scott, 79. Fanning, Shawn, 176. fatto-in-casa, Club del computer, 60, 61, 66, 74, 75, 84, 95, 195, 222. fermodellismo, Club tecnologico del MIT di, 54, 195. FidoNet, 75, ro7.
INDICE ANALITICO Filo, David, 107. forum, vedi network. Frankston, Bob, 62. Friendster, 170, 17r. Gallup, George, 202, 203. Gates, Bill, 59, 222. GBF («Get Big Fast»), vedi «Cresci in fretta». Gibson, William, Neuromante, 64, 65. Gilder, George, 93. giornali, giornalismo, 185, 186-88. globalizzazione, 208-IO: commercio totale, 212; mercato globale, 178-80; mini-imprenditori, 209-12; nuovi media, 158-60; popolo globale, 229. GNU, 124-28. Google (motore di ricerca), 32, 52, 56, 132, 133,149,151,166,188,213, 222-25. Gopher (motore di ricerca), 123, 124. Gore, Al, 104, I05. GovTrack.us, 176. GovWorks.com, 147. GPL, 11.3, 114.
Gran Bretagna, vedi Regno Unito. Gray, Matthew, II7. Greenspan, Alan, 140. Grif, 122. Groove, Andrew, 148. gruppi di discussione, 75, 86-90, 94, IO}, l 26, 204. guerra fredda, 5, 7, 12, 20, 225. GUI, 53, 54, 57· hacker, 33, 54-56, 75, 84, 95, 107, I09, II0, 125,151, r68, 195, 22!, 222,226. hardware, vedi computer. Hart, Frank, 90. Haughney, Major Joseph, 99, IOI. Hayek, Friedrich von, 146-48, 175. Heart, Frank, 27, 49. Heiden, Heidi, IOI. HEPNET, 96. Herzfeld, Charlie, 24, 26. hip hop (musica e cultura), r 84. Homebrew Computer Club, vedi fatto-incasa, Club del computer. Hotlinks, 170. HTML, vedi ipertesto. Hush-A-Phone, 72, 73. IAB, 107, III, 112.
IAHC, II3. IANA, I I 2.
IBM,
27, 43, 50, 51, 54, 55, 59, 62-65, 77,
102,120,128.
2
53
ICANN, II4, II5. ICCH, I00. IMP, 25, 28, }l, 38-40,
52, I02, ZIO. industria discografica, vedi musica. informazione/i, 84,104, 118-20, 122,133, 151, 158, 159, 164, 168, 188, 201, 219. Intel, 58, 59, 64, 140, 148. Internet, 8, 10, 12, 22, 25, 26, 28, 31-35, 37, 39-4 2, 45, 49, 55, 64, 76-79, 90, 91, 93, 94, 98, roo-2, 104-8, rro-14, 127, 129, 136, 137, 143, 146, 147, 158, 159, r6r, 164, r66, 170, r7r, 174, 176, r8r, 183, 186-88, r9r, 193, 196, 198, 201,202,211,213,216,218,219,223,
225-28: - Explorer (motore di ricerca), rz2; - globale, 98, 136, 209; - Society, II r, II 2; commercializzazione, II3, 137, 162, r86, 187; connessioni, 102, 113, 129; fornitori di servizi, 137; gestione di-, IIo, II2, II3, II5, 136, 137; IETF, III, 112;
neutralità di-, 216, 217; protocolli, I00, II0, 159. internauta, vedi utente. INWG, ro6. IP, 40, 41, 44, 45, 79, 9o-93, 96, 97, I 2 I. ipertesto, II9, r 57. linguaggio ipertestuale, 120, rzr. iPhone,53, 91,214,215. !PO, 122, 139-41, 145-47. iPod, 177. IPTO, 22, 53. ISP, fornitori di servizi, vedi Internet. iTunes, 178, 179, 181. iWar, 226-28. JenniCam.org, 116. Jennings, Tom, 75. Jobs, Steve, 120, 209. Johnson, Nicholas, r8o. Johnson, Tony, rzr. Kahn, Robert, 27, 28, 37, 39, 102, 105. Kelly, Kevin, 163, 165, 203. Kilby, Jack, 57, 58. Kleinrock, Leonard, II, 17, 25, 26, 32, 86. Korn, Hugo, r8. 38, 79, 80, 93,217. Landweber, Lawrence, 102. Leiner, Barry, 100. Le Lann, Gérard, 37. LeMay, Curtis, 15, 20, 21. LAN,
2
54
Lemley, Mark A., r85, r86. Lessig, Lawrence, r 94. Levenson, Alan, r49. Levy, Steve, 56. Licklider, Joseph Cari R., 22, 27, 43, 49, 5r-53, 56, 84, 85, 90, 103, 127, r6o, 204, 229. Linux (sistema operativo), 88, r26-28, r67, r77, 205, 2r3. Listserv, 92. Lycos (motore di ricerca), 13 r. Macintosh, 57, 91, r21: vedi anche Appie. Maes, Pattie, 165, r86. Magaziner, Ira, r r 4. Marill, Thomas, 12. marketing, vedi pubblicità. Marsh, Bob, 60. McElroy, Nei!, 2 r. McKenzie, John, 55. media, 2r, 89, 90, 92, 94, 157, 160, r7r, 184, 219: nuovi-, 182-85, 188. MediaOne, 216, 217. MeetUp.com, 166, 167. Menabrea, Luigi F., ro9. mercato, 59, 62-65, 74, 78, 136-40, r48, r49, r8r, r83, 209, 2rr, 223. MERIT, 103, 104, 129, 137. Messico, 2r9. Metallica, r5r, 153. Metcalfe (legge di), 93. Metcalfe, Robert, 37, 38, 93, 94. mezzi di comunicazione, vedi media. MicroNet, 78. microprocessore, 58, 59, 61, 64. Microsoft, 63, 79, 214. Midas (browser), 121. MlT, II, 12, 14, r7, 19, 23, 49, 54, 56, 79, 84, rro, 151, r86. MlTS, 59, 60. modem, 72-76, 89, 91, 94, 102, 216. Monier, Louis, 132. Moore, Gordon, 58, 64. Moore, legge di, 64. Moore, Ron D., 158. Mosaic (browser), 122,131,169. MP3 (software e lettore), 174-76. Multi Persona! Computer 1600, 63. musica, 174, 176, 178, r8r, 185: pirateria musicale, 176, 177. Murdoch, Rupert, r7r, 187. MySpace, qo, 171. Napster, 176, 177. narrowcasting, r 60.
INDICE ANALITICO NASA, 24, 28, 105, 107. NASDAQ, 139-41. Naughton, John 85 navigatore, vedi browser. NCP, 33, 37, 39, IOO. NCSA, 109, NDA,215. Negroponte, Nicholas, 144, 165, 180, 186. Nelson, Ted, 119, 157. NetFrack, 174, 177. netizen, 95. Netscape (motore di ricerca), r 22, r28, r 39, 145, 149· network, vedi rete/i. Network Solutions, 113. Newman, Blair, 83. Newmark, Craig, 161-43. NEXT (sistema operativo), 120, 121. NLS, 54, 57· nomi di dominio, r 12-14. NORSAR, 36, ro6. Noyce, Robert, 58. NPL, IO, Il, 26, 51,106.
NSF, 14, ro2, ro3, 105,129,136. NSFNET, 103, ro4, 136, 137. NSI, 97. nuova economia, 149-51, 163. nuvola informatica, 21 o, 2 r r. Nupedia, 167-69. Obama, Barack, vedi presidenti americani. Olsen, Kenneth, 49, 51. Omidyar, Pierre, 136. open source (software), 124, 127, I28, 151, 1 94· Openshaw, Peter, 220. O'Reilly, Tim, 122, 159. Ornstein, Severo, 27, 29, 46, 49. Oxford English Dictionary, r 19. pacchetto/i, rr, 16, 25, 26, 28, 34-36, 3840, 44: vedi trasmissione. Page, Larry, 132. PageRank, 133. Panasonic, 166. passaparofo, 164, 165. PC, vedi computer. PDP, 51, 55· peer review, vedi passaparola. peer-to-peer (P2P) (software), 153, 154. Pei Wei, Perry, 121. penna ottica, 5 3. People's Computer Company, 60. Pets.com, 146, 147. Pinkerton, Brian, r r 7. phone phreak, 83, 84, 2 2 r.
INDICE ANALITICO politica, 19 r: - interattiva, 204, 205; campagne elettorali online, 191-99; democrazia partecipativa, 202; esame collettivo delle linee politiche, 203, 204;
finanziamento delle elezioni, 193-200; gestione di Internet e democrazia partecipativa, 173-77. posta elettronica, vedi e-mail. Poste!, Jon,
40, 110, 112, 114.
presidenti americani: Bush, George W., 158; Clinton, Bill, 114; Eisenhower, Dwight D., 5; Johnson, Lyndon B., 5, 21; Kennedy,John F., 5, 6, 7,225; Obama, Barack, 199-200; Roosevelt, Franklin D., 12, 14, 18, 19; Truman, IIarry, 5, 7. PRNET, 34, 40.
programmatori, programmazione, 49, 55, 56, 59, 88,107, 109-12, 124,127,128, 137, 157, 214, 215. protocollo/i, 31, 33, 35, 37-41, 43, 44, 79: vedi IP, TCP e x.25. pubblicità, 65, 147, 160, 162, 164, 166, 179, 186, 210, 224. pubblico, 65, 130, 159-61, 179-86. PUP, 38. RAND, 8, 12, 14, 15-17, 22, 25, 41, 42, 44, 51, 77, 98, ro6. Rechtin, Eberhardt, 27. Reed, David, 93, 94. Regno Unito, ro, 25, 26, 36, 37, 40, ro6, 146: Post Office 36· Università cli C;mbridge, 76, 77, II6; vedi anche NPL. rete/i, 10, 11, 22, 24, 25, 27, 28, 31, 32, 33,35,38,39,44,45,49,52,66,92,93, 103,107, III, 129,143,202,208,216:
-- accademiche, 102, 103, 107, 136; - a commutazione di pacchetto, ro, 16, 25, 36, 37, 42, 43, 75, 77, 98, 99, ro6, 218; - commerciali, 77, 136, 137; - digitali, informatiche, telematiche, 11, 23, 27, 28, 43, 44, 83, 92, 102; - distribuite, 8-11, 25, 26, 44,110; - militari, 100, 101; - scientifiche, 102; - telefoniche, 42, 72, 74, 93; - via cavo, 36, 3 7, 38, 40; - via radio, 33-39, 41; - via satellite, 33, 36-40;
2
55
collegamento di-, 21, 22-24, 27, 28, 30, 35-37, 39, 40, 41, 44, 79, 93;
valore di una-, 92-95. RFC, 32, 33, 38, 85, 94,110,112,169.
Rheingold, Howard, 95. RIAA, 176, 177.
Ringley, Jennifer, 130. Ritchie, Denis, 125. RLE, 54-56.
Roberts, Ed, 58, 59. Roberts, Lawrence, 12, 17, 23-25, 28, 49, 77, 87, 88, 101, 106, 127.
Roosevelt, Franklin D., vedi presidenti americani. RSCS, 92, 93. RSS, 186.
Ruina, Jack, 22. Rush, Jess, 75. Russia, vedi Unione Sovietica. SABRE, 77, 78. SAGE, 49-51, 77. SAIL, 56.
Salesforce.com, 181. SAMBA (browser), 12!. Sanger, Larry, r68. Sarnoff, David, 92, 94. satelliti, 20-2 r, 36, 3 7, 48. SATNET, 36, 40,106. Scantlebury, Roger, 25, 26, 106. Schmidt, Eric, 210. Schracter, Joshua, 165. SDK, 184, 185. Searls, David, 167. Seconda guerra mondiale, 1 2, 14, 15. Seitzer, Dieter, 175. servizi in rete, r 7, 42, 76, 78. SGML, vedi ipertestuale (linguaggio) 107-9. Shaheen, George, 144. Sifry, Micah, 198. Simon, David, 162. SITA,-76, 77, 107. siti web, 130, 132, 147, 148, 157, 161, 164, 170, 182, 191, 192, 194,197,203, 215, 219, 220, 222:
autonomia innovativa degli utenti, 161163, 165, 171, 223;
utenti creatori e proprietari di contenuti, 161, 165, r66, 171, 181.
SixDegrees, 1 70. Sketchpad, 23, 56, 57. Skype, 217. Smith, Ralph Lee, 201. socia! media, 166, 199. socia! network 60, 74, 75, 85, 91, 94, 158, 168, 170, 199, 2II, 215, 216, 220.
INDICE ANALITICO software, vedi computer, web 2.0 e world wide web. sondaggi online, 202-4. Spacewar!, 56, 57. spam, 137, 162, 163. SRI, 27, 28, 34, 40, 53· Stallman, Richard M., 125, 126, 128. stampa, vedi giornali, giornalismo. Stati Uniti 5, 6, 7, rr, 13, 14, 20, 21, 24, 26,31,36,37,42,48,50,76,77,83,89, 101,104,105,107,112,114,118,129,
137, 193, 212, 217' Seconda guerra mondiale (invenzioni e ricerche scientifiche), 18-20; Università: Harvard, 62; - della California (UCLA); - delle Hawaii, 35, 37; - del Michigan, r 23; - del Minnesota, r 09- r r, 123; -di Stanford, 86, 106; -del Wisconsin,
102;
Zott's («The Alpine Inn»), San Francisco, 33-34; vedi anche presidenti americani e satelliti. Strassmann, Paul, 79. strategie imprenditoriali, 144, 145. Suess, Randy, 74. Sunstein, Cass, 163. Sutherland, Ivan, 23, 56. sviluppatori, vedi programmatori. Swaplt.com, 144. Tanenbaum, Alan, 88. Taylor, Robert (Bob), 22, 23, 27, 49, 84, 85, 90. Taylor, Frederick, The Principles o/Scientific Management, 149, 150. TCP,39, 40, 44, 45, 79, 93, ro6. TCP/IP, 93, 100-3, 107, I2I, 137. telecomunicazioni, 37, 42, 71, 72, 82-84, 93, 98: industria telefonica, 41, 43, 54, 71, 72, 73, 175; linea aperta, 83, 84; linee interurbane, 49, 7 r, 82; standard dell'industria telefonica, 44, 175; telefonia mobile, 183, 213, 217; vedi anche AT&T. telefono, telefonia, vedi telecomunicazioni. Telnet, 77. terrorismo sul web, 220, 221. Teseo, 146. Texas Instruments, 57. Thompson, Ken, 125. time-sharing, time-share, 23, 62, 78, 79, 85, 86. TMRC, vedi fermodellismo.
Tomlinson, Ray, 85, 208. Torvalds, Linus, 88, 126. Toys "R" Us, 147. trasmissione: - a commutazione di pacchetto (teoria): Baran, Paul, 21, 22, 27, 28, 43, 48, 96, 99, 187; Davies, Donald, 15, 17, 28, 48, 95, 96; - di pacchetti di datagrammi, 43, 44; - di pacchetti via radio 29, 30, 34, 35, 40. 3Com, 93. Trippi, Joe, 194-200. Tsouli, Younis (Irhabi 007), 220-22. tulipomania, 138, 139. Tv via cavo, 160, 180. TX, 51, 52, 55, 56. università americane, vedi Stati Uniti. Unix (sistema operativo), 88, 89, 102, 121, 12y
Berkeley Unix Distribution, r 13; Minix, 88, 126. Usenet, 88-90, 95,103,122,126,137,204. uso sociale della rete, vedi socia! network. Unione Sovietica, 5, 6, 7, 20, 48. utente/i, 49, 50, 51, 53, 55-59, 61, 62, 64, 65, 74-76, 78, 85, 89, 92-95, 103, 104, I 14, II9, 124, 125, 127, 129, 137, 142, 144, 147, 158, 159, 161, 165-67, 170, 177, 181, 183, 185, 186, 212, 214, 223, 224. Vai!, Theodore, 42, 43, 71, 93,216. Valley, George, 48. Ventura, }esse 191-93, 208. Veronica, r 04. Viola, r 2 r. VisiCalc, 62, 64, 79. VOIP, 217. Walden, Dave, 27, 28. Wales,Jimmy, 167. Walker, Steven, 86. web, vedi world wide web. WebCrawler, 131. web 2.0, 157-59, 166, 169, 171, 185, 203: connessioni a banda larga, 171, 1 77; macchine fotografiche digitali, 171; software, 159, 160; tecnologie, 186. Webvan, 144-46. Weinreich, Andrew, 170. Well, The (comunità), 90-92, 95, 170. Western Union, 71, 72, 98. Whirlwind, 50, 1 ro. Whole Earth Catalog, 90. Wikipedia, 151, 158, 167-69.
INDICE ANALITICO
WikiWikiWeb, 168. Williams, Justin, 215. Windows, 53, 121, 214. WinPlay3, 176. World of Warcra/t, 183, 184. world wide web, 76, 78, 120,122,123, 129, 157, 160, 170, 199, 209, 225: BackRub, 132, 133; servizi di ricerca, 130-33; software libero, 125,126,128,168,194; URI, URL, I02, 108, 121;
webcam, 129, 130; w3c, standardizzazione della tecnologia web, 124; vedi ipertesto. webcam, 116. Wozniak, Steve, 6r. Wu, Tim, 217. www, vedi world wide web. x. 25, 41, 44, 45, 93, 1o7. Xanadu, vedi ipertesto. Xbox 360, 175. Xerox PARC, 38, 57, 132. Xerox Star, 57. xfrce86 project, 114. Xmodem, 74. Y ahoo ! (motore di ricerca), 56, ro9, 13 I, 133. Yang, Jerry, 13 r. Yen, Shih-Pau, 123. YouTub~ 161,164,171,199. Zittrain, J onathan, 2 17.
2 57